ITBear旗下自媒体矩阵:

李开复:中美大模型差距仅6个月,预训练绝不言弃!

   时间:2024-10-16 19:52:33 来源:ITBEAR作者:唐云泽编辑:瑞雪 发表评论无障碍通道

【ITBEAR】在全球大模型领域迎来新一轮激烈竞争之际,零一万物于近日推出了其最新的旗舰模型——Yi-Lightning。这一模型在国际权威榜单LMSYS上取得了显著成绩,超越了GPT-4o-2024-05-13和Claude 3.5 Sonnet,位列世界第六,成为中国排名第一的大模型。

零一万物CEO李开复博士在发布会上表示,公司的这一成就标志着其已晋升为全球大型语言模型(LLM)领域的第三名,仅次于OpenAI和Google。他强调,Yi-Lightning不仅性能卓越,而且成本效益极高,每百万个token仅需0.14美元,远低于GPT-4o的4.40美元。

面对外界对于中国大模型公司是否放弃预训练的质疑,李开复坚决予以否认。他指出,零一万物一直在坚持进行预训练,并已发布了多款在全球具有竞争力的预训练模型。他提到,去年和今年发布的Yi-34B、Yi-Large、Yi-Coder、Yi-VL和Yi-Vision在发布时均处于全球领先地位。

关于模型的商用前景,李开复表示,零一万物已推出了一系列面向B/G端客户的解决方案,包括AI 2.0数字人解决方案、全行业解决方案以及AI Infra等。他强调,尽管Yi-Lightning的定价极低,但公司的真实成本更低,因此仍能保持利润空间。他鼓励更多的开发者和企业客户使用这一模型,无需担心成本问题。

在发布会上,李开复还就中美大模型领域的差距发表了看法。他承认中国在该领域确实落后于美国,但认为差距并不像一些人所说的那样巨大。他指出,GPT4o是在2024年5月13日发布的,而Yi-Lightning在短短几个月后就超越了它。他认为,中美大模型之间的时间差距正在缩短,并有望通过持续的创新和努力进一步缩小。

李开复还分享了零一万物在模型训练和推理方面的创新。他提到,公司采用了混合注意力机制和MoE(混合专家)模型等先进技术,以提高模型的性能和效率。同时,他还强调了多阶段训练的重要性,这使得公司能够以更低的成本训练出更多不同的模型,并从中学习到最优的算法。

在回答关于预训练模型放弃趋势的问题时,李开复表示,做好预训练模型需要跨学科的人才和团队合作。他认为,只要公司拥有足够的人才和决心,以及足够的融资和芯片支持,就有可能训练出世界排名前十的预训练通用模型。他同时指出,并非所有公司都能或需要做到这一点,但头部的几家大模型公司完全有能力继续在这一领域进行投入和创新。

对于OpenAI最新发布的o1模型及其带来的技术变革,李开复表示赞赏并认为这将对整个行业产生深远影响。他表示,o1模型将预训练中的scaling趋势扩展到了推理阶段,这一创新将促使更多中美公司加速在这一方向上的研发。

在谈到零一万物ToB业务的布局时,李开复强调了公司提供价值给每一个用户的重要性。他表示,公司不会仅仅出售模型而不考虑用户的实际需求和使用效果。相反,零一万物致力于提供端到端的解决方案,确保用户能够从使用其大模型中获得实际的业务增长和竞争力提升。

最后,李开复就中美大模型时间差的缩短问题发表了自己的看法。他认为,尽管缩短时间差非常困难,但零一万物通过其独特的方法论和团队的努力,已经在这一方面取得了显著的成果。他表示,公司将继续关注OpenAI和其他公司的最新技术动态,并将其融入自己的产品中,以保持与国际领先水平的竞争力。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  网站留言  |  RSS订阅  |  违规举报  |  开放转载  |  滚动资讯  |  English Version