ITBear旗下自媒体矩阵:

马斯克20万块GPU炼就AI巨兽,能耗争议下的最强之名能否坐实?

   时间:2025-02-19 21:53:31 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近期,科技界掀起了一场关于Grok 3是否堪称地表最强AI的热烈讨论。尽管争议不断,但Grok 3在能耗方面的惊人数字却是无可争议的事实。这款AI大模型的训练过程消耗了相当于一座小城市一年用电量的能源,或等同于4万多辆燃油车一年的碳排放,堪称能耗巨兽。

Grok 3的诞生,再次凸显了当前AI领域“以能耗换性能”的传统路径依赖。在开源趋势渐强、性价比日益受到重视的背景下,如何在提升模型效率与降低能耗之间找到平衡点,成为Grok 3亟需破解的难题。

2月18日,马斯克在X平台通过直播揭晓了Grok 3的真容,并进行了现场演示。他展示的PPT显示,Grok 3在多项基准测试中表现优异,包括AIME'24数学能力测试、GPQA科学知识评估以及LCB Oct - Feb编程能力测试,成功击败了谷歌Gemini 2 Pro、DeepSeek V3、Anthropic的Claude 3.5 sonnet以及OpenAI的GPT-4o等强劲对手。在Chatbot Arena LLM排行榜上,Grok 3的早期版本更是以突破1400分的成绩登顶,成为史上首个达到这一高度的模型。

然而,Grok 3的领先地位并非不可动摇。有用户发现,在直播演示中,当马斯克尝试用Grok 3生成飞向火星的代码时,输出直接崩溃,两次尝试均告失败,最终在第三次尝试时才成功。在直播后,部分X用户测试了最新的Beta版Grok 3,并提出了一个经典难题:“9.11与9.9哪个大?”结果,号称最聪明的Grok 3竟然给出了错误答案。

Grok 3的能耗问题也引发了广泛关注。据马斯克透露,Grok 3的训练量是Grok 2的10倍,基于人工智能初创公司xAI在孟菲斯的超级计算机集群进行。该集群在短短数月内从10万块NVIDIA H100 GPU扩展至20万块,其算力之强大令人咋舌。然而,这背后的硬件成本也极为高昂,仅以10万块H100 GPU计算,总成本就已超过30亿美元。

相比之下,DeepSeek V3则展现了另一种截然不同的路径。这款拥有6710亿参数的AI大模型在配备2048块算力受限的英伟达H800 GPU集群上训练完成,整个训练流程仅用时278.8万个H800 GPU小时,总成本仅为557.6万美元。在GPU用量、训练用时和算力成本上,DeepSeek V3均大幅优于同等性能的闭源模型,其低成本高效能的模式对硅谷的“烧钱模式”提出了严峻挑战。

有分析指出,尽管Grok 3在数学推理和编程能力上表现更为出色,但其算力消耗却是DeepSeek V3的263倍。这不仅彰显了两者在资源使用上的巨大差异,也引发了关于AI发展路径的深刻思考。Grok 3的“土豪堆装备”打法与DeepSeek V3的“算力有限下压缩能耗实现性能最大化”策略形成了鲜明对比。

随着xAI超级计算机集群在孟菲斯引发的环保争议日益升级,Grok 3的环境压力也日益凸显。据当地媒体报道,xAI计划在未来继续使用燃气轮机为其超级计算机供电,而这将引发更多的有害空气污染物排放。环保组织对此表示强烈担忧,并呼吁相关部门加强监管。

xAI与当地环保群体之间的矛盾由来已久。去年8月,环保组织就曾向当地环保当局提出质疑,要求核实xAI是否在没有空气许可证的情况下使用燃气轮机供电。而管理当地电网的电力公司也表示,xAI的算力扩充计划需要额外的电力支持,但仍在研究这对当地电力系统的影响。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version