ITBear旗下自媒体矩阵:

Cerebras AI芯片因DeepSeek服务需求激增,大语言模型推理成新热点

   时间:2025-02-12 19:23:08 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

AI芯片巨头Cerebras近期遭遇了一场前所未有的挑战,其CEO Andrew Feldman在一次访谈中透露,公司正被大量运行DeepSeek-R1大语言模型的订单淹没。

Cerebras,这家以推出高性能AI晶圆级芯片著称的公司,其单块芯片便能提供惊人的125 PFLOPS峰值算力,并搭配高达1.2PB的内存容量,一直以来都是AI领域的佼佼者。然而,这次DeepSeek-R1的火爆需求,显然超出了他们的预期。

DeepSeek-R1,这款被视作AI领域分水岭的模型,其预训练成本仅为GPTo1等主流模型的十分之一,但效果却与之相近甚至更佳。Feldman表示,DeepSeek不仅在当前展现出了巨大影响力,更将推动更大规模AI系统的诞生。随着成本的降低,AI市场的潜力正在被不断挖掘。

在Cerebras的官方展示中,其晶圆级AI芯片在部署DeepSeek-R1 70B时,性能达到了1508 tokens/s,远超GPU。然而,这款模型在推理过程中,却需要消耗大量算力。由于采用了Chain-of-thought(CoT)方法增强推理能力,模型需要将多步问题分解为中间步骤,并在需要时执行额外计算。这种逐字推理的方式,对于整段提示词的推理需要多次进行,从而导致了算力的巨大需求。

面对这一痛点,Cerebras提出了利用蒸馏技术将大模型的“知识”转移到小模型中的解决方案。大模型被称为教师模型,而较小的模型则被称为学生模型。通过这种方式,客户可以在保持模型精度的同时,降低推理过程中的算力需求。

Cerebras在官网上表示,DeepSeek R1在蒸馏到Llama 70B后,精度几乎没有下降。为了改善用户体验,Cerebras为客户提供了一种标准做法:利用开源在Hugging Face上的DeepSeek模型参数作为教师模型,蒸馏出一个较小的学生模型用于实际部署。

Feldman强调,DeepSeek作为首个顶级的开源推理模型,是开源AI的重大胜利。通过蒸馏技术,开源模型只需公开模型参数,研究人员无需访问源码便能复制新AI模型的进步。他认为,DeepSeek的经济性不仅震撼了整个AI行业,更将吸引更多投资流向尖端AI芯片和网络技术。

尽管有些人担心计算成本的下降会导致市场萎缩,但Feldman指出,过去50年的历史表明,降低成本反而能够扩大市场容量。无论是电脑还是智能手机,价格的降低都推动了产品的普及。因此,他相信DeepSeek和Cerebras的推动将进一步加速AI市场的增长。

自去年8月开始提供公共推理服务以来,Cerebras自称是“世界上最快的人工智能推理服务提供商”。然而,面对高昂的405B模型成本,该公司目前主要提供的是蒸馏后的70B模型。Feldman表示,虽然有一部分客户愿意为更高的准确性支付更高的成本,但大多数客户更倾向于选择价格实惠的模型。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version