IBM近期公布了一项革命性的光学技术创新,这项技术有望重塑AI模型的训练方式,实现前所未有的速度提升与能源节约。据该公司透露,这项技术的应用将使数据中心的AI模型训练效率提升至光速级别,同时大幅度削减能源消耗。
具体来说,IBM指出,尽管现代数据中心通过光纤电缆与外部网络连接,但其内部仍大量使用铜线来连接GPU加速器。这些GPU在等待其他设备传来的数据时,常常处于空闲状态,不仅消耗大量能源,还增加了运营成本。为了解决这个问题,IBM引入了共封装光学技术(CPO),旨在彻底改变数据中心的内部通信方式。
IBM高级副总裁兼研究总监Dario Gil表示,随着生成式AI对能源和处理能力的需求日益增长,数据中心必须不断进化以适应这一趋势。CPO技术的引入,将使得数据中心内部的芯片能够以类似于光纤电缆传输数据的方式进行通信,从而开启一个全新的、更快速、更可持续的通信时代。这一突破将使得数据中心能够更好地应对未来的AI工作负载。
IBM在一篇技术论文中详细介绍了其CPO原型的工作原理。通过大幅度提升数据中心的带宽,这项技术可以显著减少GPU的闲置时间,从而加速AI处理过程。具体来说,大型语言模型(LLM)的训练时间有望从传统的三个月缩短至三周。由于能源效率的提高,训练LLM所消耗的能源将大幅减少,相关成本也将随之下降。
IBM的这一创新不仅有望推动AI技术的快速发展,还将对环境保护产生积极影响。据该公司估算,如果将这项技术应用于数据中心,训练一个AI模型所节省的能源将相当于5000个美国家庭一年的能源消耗。这一数据充分展示了CPO技术在节能减排方面的巨大潜力。