ITBear旗下自媒体矩阵:

上海AI Lab发布Llama版o1大模型:强化学习代码已开源,探索数学奥赛新高度

   时间:2024-11-05 13:43:02 来源:ITBEAR作者:唐云泽编辑:瑞雪 发表评论无障碍通道

【ITBEAR】近日,上海AI Lab团队发布了一项引人注目的开源项目——LLaMA版o1,该项目在人工智能领域引起了广泛关注。据悉,这一项目是对OpenAI的o1推理大模型进行复刻的成果,展示了开源界在AI方面的最新进展。

据了解,LLaMA版o1项目采用了多种先进技术,包括蒙特卡洛树搜索、Self-Play强化学习、PPO算法,以及借鉴自AlphaGo Zero的双重策略范式。这些技术的运用使得模型在数学能力上有了显著提升,尤其是在解决复杂的数学问题时表现出色。

团队在o1发布之前就开始探索蒙特卡洛树搜索在提升大模型数学能力方面的应用,并积累了一定的经验。此次开源的LLaMA版o1项目正是基于这些探索的成果,进一步推动了AI领域的发展。

LLaMA版o1项目不仅在技术上有所突破,还在开发者社区中引发了热烈讨论。许多开发者对项目的开源表示赞赏,并期待能够在其基础上进行更多的创新和应用。

上海AI Lab团队还专注于数学奥赛问题的研究,致力于将LLaMA版o1打造成一个在数学领域具有强大推理能力的模型。通过采用成对优化等技术手段,团队成功提高了模型在解决数学奥赛问题时的准确率。

在最新的测试中,优化后的LLaMA版o1模型在AIME2024基准测试的30道题中做对了8道,相较于原版LLaMA-3.1-8B-Instruct的2道正确答案,有了显著提升。这一成绩甚至超过了除o1-preview和o1-mini之外的其他商业闭源方案。

团队宣布,在复刻OpenAI o1的过程中取得了重大进展,模型已经能够在与搜索树的交互中获得高级思维能力,而无需依赖人工标注。这一突破性的成果为AI领域的发展注入了新的活力。

目前,LLaMA版o1项目已经开源了预训练数据集、预训练模型以及强化学习训练代码。其中,OpenLongCoT-Pretrain数据集包含了大量长思维链数据,为模型的进一步训练提供了丰富的资源。同时,团队还推荐使用LLaMaFactory进行预训练代码的替代。

尽管项目名为LLaMA-O1,但团队提供的预训练模型却是基于谷歌的Gemma 2。在此基础上,开发者可以继续进行强化学习训练,通过蒙特卡洛树搜索等技术手段不断提升模型的性能。

总的来说,LLaMA版o1项目的开源为AI领域带来了新的机遇和挑战。上海AI Lab团队的这一成果展示了开源界在推动AI技术发展方面的强大实力和无限潜力。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version