ITBear旗下自媒体矩阵:

斯坦福AI指数报告:中美AI投资差距大,GPT3.5级别模型成本骤降280倍

   时间:2025-04-11 19:11:09 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

斯坦福大学的人工智能研究所(HAI)近期发布了《2025年人工智能指数报告》,详细分析了当前中美两国在AI领域的竞争态势和技术发展趋势。这份近450页的报告揭示了多项关键数据和洞察。

报告首先指出,中美两国在AI投资方面均有显著增长。具体而言,美国的AI私人投资金额已达到1091亿美元,远超中国的93亿美元和英国的45亿美元。同时,AIGC(生成式人工智能)创业公司的全球融资规模也实现了18.7%的增长,达到了339亿美元。

在AI模型效率方面,报告指出,GPT-3.5级别的模型推理成本在过去两年内大幅下降,降低了280倍。硬件成本每年也下降30%,这使得AI训练变得更加经济实惠和可扩展。同时,机器学习(ML)硬件的能效每年提升约40%。

值得注意的是,企业界在AI研究方面已经明显领先学术界。2024年,近90%的知名AI模型来自企业界,相比之下,2023年这一比例仅为60%。尽管AI模型的参数规模在持续扩大,但模型之间的性能差距却在缩小。数据显示,全球顶尖AI模型与排名第十的模型之间的性能差距已从11.9%缩小到5.4%。

报告还指出,闭源与开源LLM(大型语言模型)之间的性能差距也在缩小。去年,这一差距显著,但今年已缩小至1.7%。

在AI基础设施方面,报告强调,每美元的人工智能性能已经大幅提高。例如,GPT-3.5级别的模型推理成本从2022年11月的每百万个token 20.00美元下降到2024年10月的每百万个token 0.07美元。Epoch AI估计,固定性能级别的硬件成本每年下降30%,这有助于模型改进和训练成本的降低。

从机构贡献来看,OpenAI、谷歌和阿里巴巴在2024年表现突出,分别推出了7个、6个和4个知名AI模型。自2014年以来,谷歌以186个知名模型位居榜首,其次是meta(82个)和微软(39个)。在学术机构中,卡内基梅隆大学、斯坦福大学和清华大学在模型产出量方面最为突出。

随着模型参数量的增长,AI系统的训练数据规模也在同步扩大。例如,meta在2024年夏季推出的旗舰大语言模型Llama 3.3,训练token量突破15万亿大关。Epoch AI研究显示,大语言模型的训练数据集规模约每8个月翻一番,这一趋势与模型复杂度的提升形成协同效应。

然而,报告也指出,尽管AI技术取得了显著进步,但模型训练成本正呈现上升趋势。例如,Llama 3.1-405B的训练成本高达1.7亿美元。这一增长主要归因于竞争加剧、训练成本与计算需求直接相关以及计算需求越大的模型训练成本呈几何级数增长。

在应用方面,AI技术正在各个领域发挥重要作用。麦肯锡报告显示,整体AI应用率从2023年的55%跃升至78%,其中生成式AI应用呈现爆发式增长,2024年应用率达71%。企业应用AI已实现降本增收双重效益,尤其是在服务运营、供应链与库存管理和软件工程等领域。

在科研领域,AI也取得了显著成就。2024年,两项诺贝尔奖授予了人工智能领域的突破性成就,包括Google DeepMind在蛋白质折叠领域的开创性工作以及对神经网络的基础性贡献。AI正在助力医学、生物学研究,推动科学发现。

在公众认知方面,报告指出,67%的受访者表示对AI有良好理解,66%认为AI将在不久的将来深刻改变他们的日常生活。同时,认为AI驱动的产品和服务利大于弊的全球人口比例也有所上升,从2022年的52%增至2024年的55%。

然而,报告也提到了一些挑战和担忧。例如,AI系统的可靠性缺陷、应用制约以及模型训练成本上升等问题。公众对AI的信任度也存在地区差异,亚洲和拉丁美洲的受访者更倾向于认为AI利大于弊,而欧洲和英语国家的受访者则更为怀疑。

总体而言,这份《2025年人工智能指数报告》为我们提供了关于当前AI领域发展的重要洞察和趋势分析。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version