【ITBEAR】随着人工智能(AI)技术的广泛应用,其对能源的需求急剧增加,给数据中心的能源使用带来了巨大压力,同时也引发了公众对其能源消耗量的广泛关注。有数据显示,生成式人工智能模型中的单个查询所消耗的能量,相当于一个灯泡开启一小时的耗电量。大型科技公司纷纷表示,由于AI技术的使用,他们正面临实现气候目标的巨大挑战。
那么,人工智能能否实现更高的可持续性呢?越来越多的专家对此持乐观态度。
根据国际能源署的数据,数据中心已经占据了全球用电量的1-1.5%。AI技术的繁荣进一步推动了这一数字的增长。预计到2026年,全球数据中心的总用电量可能会翻一番以上,而仅靠可再生能源无法满足这一庞大的需求。
“大规模人工智能的应用才刚刚开始,”IEEE高级会员Euclides Chuma指出,“研究人员正在积极探索硬件和软件解决方案,以降低AI的能耗,同时提升其性能。”
为何AI会消耗如此多的能量呢?这背后的原因并不简单。AI技术包含多种不同的系统和应用,它们的能耗也各不相同。例如,一些已经应用多年的AI系统,如电子商务网站的购物推荐算法,通常消耗的能量较少。而新兴的生成式AI系统,则能够在几次按键之间创建出丰富的书面和视觉内容,但它们的能耗却更高。
一篇发表在IEEE Spectrum上的文章估计,训练最先进的语言生成模型GPT-3需要数周时间和数百万美元的投入。同时,它还需要消耗19万千瓦时的电力,产生的二氧化碳量相当于驾驶汽车往返月球的距离!
尽管如此,许多专家仍然相信,随着技术的改进,AI将变得更加强大和高效。
模型训练中使用的硬件类型的变化将有助于降低能耗。例如,使用非易失性存储器代替易失性内存(如DRAM)可以降低能耗,因为这些存储器中的数据不需要刷新。
还有其他一些步骤可能标志着通往更环保的AI之路:改进数据中心的冷却系统、使用更少的数据进行训练、更多地使用可再生能源以及在某些情况下避免使用AI等。