【ITBEAR】近期,AI领域巨头OpenAI、谷歌与Anthropic在推进新一代AI模型时纷纷遭遇挑战,引发了业界的广泛关注。
据彭博社报道,OpenAI的最新模型Orion在开发过程中未能如期展现卓越性能,特别是在编码任务上未能显著超越其前代产品GPT-4。同样,谷歌的Gemini模型也未实现预期中的重大技术突破。而Anthropic的Claude 3.5 Opus模型则因技术难题多次推迟发布,发布计划一变再变。
过去,AI行业普遍遵循Scaling Law,即认为通过增加数据量和算力,模型性能会相应提升。基于这一理论,各大公司不惜重金投入AI基础设施建设,扩建数据中心,并采购大量GPU进行模型训练。然而,随着训练速度放缓,这一策略的可持续性开始受到质疑。
近年来,OpenAI、谷歌和Anthropic在短时间内推出了众多复杂的AI模型。然而,随着高质量数据的日益稀缺,这些公司在模型开发速度和性能上均出现了明显放缓。OpenAI CEO萨姆·阿尔特曼近期表示,未来的突破可能不再单纯依赖于模型规模的扩大,而是需要开发新的应用和用例,如AI Agent。
面对新一代AI系统的构建,OpenAI、谷歌和Anthropic均遭遇了高质量数据短缺的问题,尤其是编码数据的获取愈发困难。在这种情况下,即使是微小的性能改进,也难以证明新模型所需的巨额研发投入是合理的。AI初创公司Hugging Face的首席伦理科学家玛格丽特·米切尔指出,AGI(通用人工智能)的“泡沫”正在破裂,现有的训练方法可能无法满足AI在多任务处理上的需求,急需新的训练方法。
目前,OpenAI仍在对Orion进行“后训练”,并尝试通过引入人类反馈来改进其性能,但Orion的正式发布时间尚未确定。谷歌DeepMind则表示,Gemini模型的进展符合预期,但更多细节将在准备就绪后分享。Anthropic CEO达里奥·阿莫迪则指出,Scaling Law并非宇宙法则,而是经验规律,虽然“很多因素”可能影响AI的发展,但他对克服这些障碍保持乐观。
许多AI公司坚持“越多越好”的策略,投入大量资源以期打造接近人类智能的AI系统。但随着计算资源和数据成本的不断上升,新模型开发的风险和期望也在持续增加。Anthropic CEO阿莫迪透露,预计今年公司将花费1亿美元来训练尖端模型,未来几年这一数额可能达到1000亿美元。
随着成本的不断攀升,人们对AI模型进展的速度产生了疑虑。马萨诸塞州沃尔瑟姆本特利大学数学副教授诺亚·吉安西拉库萨表示,虽然AI模型会持续改进,但增长速度和技术突破的持续性值得怀疑。硅谷的AI技术进步困境已经成为焦点问题,Anthropic的Claude Opus模型就是一个例子,其发布消息突然从公司网站消失,引发了业界的广泛关注。