ITBear旗下自媒体矩阵:

ChatGPT能耗真相:单次查询或仅0.3瓦时,远低于普遍认知

   时间:2025-02-12 11:25:40 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

非营利性人工智能研究机构Epoch AI近期公布了一项关于ChatGPT能耗的研究,其结果挑战了以往对该技术能耗的普遍认知。研究指出,ChatGPT的实际能耗远低于先前估计的水平。

此前,一项被广泛引用的数据显示,ChatGPT在回答一个问题时需要消耗约3瓦时的电量,这一数值是谷歌搜索能耗的10倍。然而,Epoch AI的研究人员对这一数据表示质疑。通过对OpenAI最新的默认模型GPT-4o进行分析,Epoch AI发现ChatGPT的平均查询能耗仅为0.3瓦时,远低于许多常见家用电器的能耗。

Epoch AI的数据分析师约书亚・尤在接受采访时表示,与日常使用的电器、温控设备或驾驶汽车相比,ChatGPT的能耗相对较低,并不构成显著的能源消耗负担。这一发现对公众关于AI能耗的认知提供了新的视角。

随着AI行业的快速发展,其能耗问题及其对环境的潜在影响日益受到关注。最近,超过100个组织联合发表公开信,呼吁AI行业和监管机构确保新的AI数据中心不会过度消耗自然资源,并减少对不可再生能源的依赖。

约书亚・尤指出,他进行这项分析的原因在于先前的研究存在过时的问题。例如,先前得出ChatGPT能耗为3瓦时的研究报告是基于OpenAI使用较老、效率较低的芯片运行模型的假设。尤表示,尽管公众普遍认识到AI将在未来几年消耗大量能源,但当前AI的实际能耗情况并未得到准确描述。一些同事注意到,基于旧研究的3瓦时能耗估算数据似乎过高。

尽管Epoch AI的0.3瓦时数据是基于估算,因为OpenAI尚未提供足够细节进行精确计算,但这项研究仍具有重要意义。同时,分析并未考虑ChatGPT在图像生成或输入处理等额外功能上的能耗。尤承认,包含长文件附件等“长输入”的ChatGPT查询可能会消耗更多电量。

然而,尤也指出,ChatGPT的基础能耗未来可能会增加。随着AI技术的进步,训练这些AI可能需要更多能源,未来的AI可能会被更频繁地使用,并处理更复杂、更多的任务。OpenAI和整个AI行业的关注点正在向推理模型转移。与GPT-4o等能够快速响应的模型不同,推理模型需要更多时间来“思考”答案,这一过程会消耗更多的计算能力,从而导致更高的能耗。

尤表示,推理模型将承担更多旧模型无法完成的任务,并生成更多数据,这都需要更多的数据中心支持。尽管OpenAI已经开始推出更节能的推理模型,如o3-mini,但这些效率提升似乎不太可能完全抵消推理模型“思考”过程以及全球AI使用量增加所带来的额外能耗需求。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version