ITBear旗下自媒体矩阵:

算力市场风云变幻,产业淘汰赛下企业如何破局?

   时间:2024-12-16 13:09:47 来源:ITBEAR编辑:瑞雪 发表评论无障碍通道

算力市场的风云变幻,如同潮起潮落,令人目不暇接。在AIGC技术的驱动下,智能算力市场迎来了前所未有的爆发期。据《中国算力发展报告(2024年)》披露,全球算力规模在2023年底已达到910EFLOPS(FP32),年度增长率高达40%。尤为引人注目的是,智能算力的增速更为迅猛,同比激增136%,远超整体算力市场的增速。

这一趋势不仅吸引了传统算力供应商如云服务商等的持续加码,还促使众多传统企业纷纷跨界进入算力租赁领域。据统计,仅在2023年下半年,就有近40家上市公司,如鸿博股份、莲花控股等,涉足算力租赁业务,试图在这一新兴市场中分一杯羹。

然而,市场的热情并未持续太久。短短不到一年的时间,部分跨界企业便因对算力市场的资金投入、技术门槛等预估不足,主动终止了相关项目。算力租赁市场的热潮迅速消退,从众多企业蜂拥而入,到市场迅速降温,这一过程令人唏嘘不已。

面对算力市场的这一剧变,英博数科CFO兼CEO浦威表示,国内智算行业正经历着翻天覆地的变化。在他看来,算力市场的主线逻辑已经发生了显著变化:通用大模型训练算力集群从千卡级别跃升至万卡级别,垂直大模型训练算力需求从定量模式转向弹性模式,而商业化加速则推动算力市场从训练环节向推理环节转移。

具体而言,基础大模型的预训练需求正朝着“少而精”的方向发展。国外如OpenAI和xAI等巨头正在建设十万卡级别的集群,国内如字节跳动、阿里、百度等企业也在朝着数万甚至十万卡规模迈进。对于更多厂商而言,万卡集群已成为当前能够触及的天花板。浦威指出,在国家的有序引导下,新的智算中心正朝着万卡规模建设,没有万卡级别的通用模型将难以进一步迭代。

与此同时,垂直大模型主要面向科研、教育、金融等细分行业,其算力需求更具分散性、临时性和动态变化的特点。因此,垂直大模型的算力需求正逐步从大规模定量模式向可伸缩、弹性的算力模式转变,以兼顾成本和体验。浦威表示,他们与众多企业交流发现,这些企业正在基于基座模型进行大量的行业精调和微调,其算力需求非常分散,仅在模型微调等操作时才使用算力,且对成本极为关注。

随着大模型的商业化落地和多模态模型的普及,推理需求迅速增长。据相关数据预测,从2022年到2027年,中国AI服务器的推理工作负载比例将从58.4%增长至72.6%,逐步取代训练成为主导。多模态模型的普及推动了文本生成、图像生成、视频生成等广泛的推理需求,AI模型应用也从通用模型延展至垂直行业,如代码生成、图像转3D等多样化场景。推理算力需具备更快、更灵活的特点,以满足实时性和动态变化的需求。

面对算力市场的这些变化,算力服务商需要与时俱进。英博云专注于为大模型预训练规模增长的头部客户提供量身定制的集群选型、建设、运维等整体解决方案,同时也为有弹性算力需求的应用领域的中小客户提供GPU和CPU资源混合的弹性K8S集群服务。英博云副总裁宋琛表示,虽然部分大模型企业因资金压力对预训练规模进行了缩减,但大模型技术本身并未遇冷,仍在持续发展中。

为了应对算力需求分层的问题,英博云提出了“单位有效算力成本”的成本评估框架,通过算力投入成本与有效计算能力的比值来评价算力服务质量。英博数科副总裁秦伟俊表示,他们将从IDC建设到训练过程中的折损、故障,再到模型框架的选择、训练模型的时间长度和效率等方面通盘考虑,为客户提供算力提升的空间。

在智算中心的核心网络难题方面,英博数科CTO李少鹏指出,只有在单一物理空间内,使用高功率机柜,通过统一的计算网和存储网将所有GPU服务器组成单一集群,才能实现万卡级别的并行训练。当前算力成本主要来自设备采购、机电支持和运维费用,而算力资源的实际利用率普遍偏低,这与硬件匹配、调度策略以及训推框架配置等因素密切相关。

随着长尾客户逐渐成为算力服务的主要消费群体,弹性算力服务将成为他们的首选。英博数科不仅提供高效益、多样化的智算产品与服务,还建立了算力实验室,对主流算力卡和设备进行测评,以便提供更适配于客户业务类型的服务。例如,某3D视频生成企业此前一直使用英伟达A卡进行训练,但在英博数科的推荐下,改用H卡进行训练后,整体测试效率提升了两倍以上,性价比也远优于A卡。

在投融资层面,智算中心建设是资本密集型行业。为了推动AI应用的繁荣发展,英博数科正在建设产业孵化器,对AI垂直应用公司给予资金、算力、人才培养等方面的扶持。这一举措将有助于建立更加完善的AI应用生态。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version