ITBear旗下自媒体矩阵:

谷歌Gemini遇瓶颈,AI性能提升放缓,新团队能否破局?

   时间:2024-11-21 14:44:38 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

【ITBEAR】近期,据外媒报道,谷歌在提升其聊天机器人产品Gemini的性能方面遇到了挑战。据内部人士透露,尽管公司投入了大量算力和训练数据,但Gemini的性能提升并未达到预期速度,这一困境与OpenAI近期的遭遇颇为相似。

谷歌在AI领域的野心一直不小,特别是在算力资源方面拥有显著优势。然而,这种优势并未能如愿转化为Gemini模型性能的显著提升。据报道,研究人员在投入更多数据和算力后,发现过去版本的Gemini大模型改进速度反而更快,这一现象引发了业内对scaling law(缩放定律)有效性的质疑。

scaling law曾被视为AI模型性能提升的“金钥匙”,许多研究人员认为,只要使用更专业的AI芯片处理更多数据,模型就能以相同的速度不断改进。然而,谷歌和OpenAI的遭遇表明,这两个因素似乎并不足以解决所有问题。谷歌内部人士透露,公司在开发Gemini的过程中发现,用于训练的数据中存在大量重复信息,这可能损害了模型的性能。

为了应对这一挑战,谷歌正在重新考虑其数据处理策略,并在数据上加大投资。同时,公司还在加快模型的响应速度,这对于以谷歌的规模提供AI服务至关重要。谷歌还效仿OpenAI,在其Gemini部门内组建了一个团队,致力于开发类似OpenAI推理模型的能力。

这个新团队由DeepMind的首席研究科学家Jack Rae和前Character.AI联合创始人Noam Shazeer领导,他们正在探索新的技术路径,以弥补传统scaling law在模型训练阶段导致的性能提升放缓问题。与此同时,开发Gemini的研究人员也在对模型进行手动改进,包括更改超参数,即决定模型如何处理信息的变量。

然而,谷歌在尝试使用AI生成的数据(合成数据)以及音视频作为Gemini的训练数据时,并未取得显著效果。这一结果再次凸显了当前AI技术发展的瓶颈和挑战。

随着OpenAI和谷歌这两大AI巨头相继遇到模型性能提升缓慢的问题,业内对AI技术未来发展的悲观情绪开始蔓延。一些人担心,如果技术瓶颈长期无法突破,可能会引发所谓的“AI泡沫”,即市场对AI技术的过度乐观预期与实际技术进展之间的巨大差距。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version