ITBear旗下自媒体矩阵:

DeepSeek引领AI新潮流,万卡集群入场券地位还保得住吗?

   时间:2025-02-26 20:14:36 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

在AI领域,一场前所未有的变革正悄然兴起,而这一切的导火索,便是DeepSeek的惊艳亮相。DeepSeek以其独特的技术路径,挑战了传统AI训练对于硬件资源的极致依赖。

回顾历史,2020年,微软率先构建了万卡智算中心,为AI布局奠定了坚实基础。随后,亚马逊、谷歌、meta、特斯拉等科技巨头纷纷跟进,国内如字节跳动、百度、华为等公司也不甘落后,纷纷投入万卡集群的建设。腾讯、阿里更是迈向了十万卡集群的新阶段。然而,这一模式的背后,是巨大的财力投入,仅GPU采购成本就高达数十亿元。尽管如此,万卡集群仍被视为AI竞赛的“入场券”,因为它使得训练复杂大模型成为可能。

然而,DeepSeek的出现打破了这一常规。在多个标准测试中,DeepSeek-V3仅凭2048个H800 GPU便取得了卓越成绩,甚至在数学基准测试GSM8K和MATH、算法类代码LiveCodeBench等测试中超越了此前的大模型。这一成就引发了业界的深思:万卡智算中心是否仍是AI的必备入场券?

高通技术也指出,当前先进的AI小模型已具备卓越性能。新技术如模型蒸馏和新颖的AI网络架构能够在不影响质量的情况下简化开发流程,使新模型的表现超越仅能在云端运行的大模型。这意味着,企业建设自己的小型智算中心,部署少量服务器,便可实现高效的AI业务。

这一趋势不仅为企业带来了新的机遇,也为四大运营商和铁塔公司带来了新的市场空间。小型数据中心的部署需要稳定的场地、电力、网络等基础设施,而运营商和铁塔公司的物理机房资源正是现成的。以中国铁塔为例,其拥有210万站址资源、能源设施和近百万处机房,其中22万“通信塔”已升级为“数字塔”。小型数据中心靠近数据产生源头,可实现数据的快速处理和分析,对于边缘算力的需求也在不断增加。

DeepSeek的创新性方法不仅降低了训练成本,还推动了数据中心芯片的变革。未来,训练端的高端GPU需求增速可能放缓,而推理端的算力需求将长期呈增长趋势。Gartner、IDC等研究机构均预测,推理的集群算力规模将超过训练。推理芯片市场因此迎来了前所未有的发展机遇。

与训练芯片市场不同,推理芯片市场更加百花齐放。国外如Groq、博通、Marvell等公司纷纷推出新型AI加速芯片,性能表现远超传统GPU和TPU。在国内市场,达摩院、百度、寒武纪等科技公司也在积极布局AI推理芯片市场。

然而,大模型推理阶段仍面临诸多优化挑战。KV Cache管理、多卡协同、算法优化等问题亟待解决。DeepSeek之所以能够以少量芯片惊艳世界,除了硬件的极致工程化改造外,更重要的是其对算法的创新和优化。通过自定义CUDA内核和算子融合技术,DeepSeek将H800 GPU的MFU提升至行业平均水平的数倍以上,实现了高效训练。

这一创新性的“软硬协同”模式,将倒逼芯片厂商从“拼制程”转向“算法适配性”设计。可编程NPU架构因此受到青睐,它提供丰富的编程接口和开发工具,支持多种编程语言和框架,可根据新算法需求进行动态重构计算资源。

DeepSeek V3更是使用了比CUDA更底层的PTX来优化硬件算法,绕过了CUDA的高层API,实现了更细粒度的硬件优化。同时,DeepSeek GPU代码使用了OpenAI提出的Triton编程语言编写,为适配更多类型的算力芯片奠定了基础。

DeepSeek的这一举动,不仅证明了芯片竞争已从粗暴卷硬件进入到“软硬协同”的新阶段,还为AI芯片领域带来了更多的参与者。英伟达不再是一家独大,更多的芯片公司有机会参与进来。同时,这也为处在英伟达上游的存储芯片公司如三星电子、SK海力士等带来了转型的机遇。

随着DeepSeek技术的普及和应用,科技公司对英伟达高端芯片的需求可能会减少,但市场对于AI芯片的总需求却不会减少。正如经济学家所言,技术进步虽然提高了资源的使用效率,但需求的增加常常会导致总消耗量反而增加。亚马逊首席执行官安迪·贾西也表示,DeepSeek技术突破将推动人工智能整体需求的增长。

这一趋势不仅为AI芯片领域带来了更多的发展机遇,也为整个AI产业注入了新的活力。未来,随着更多创新技术的涌现和应用,AI领域将呈现出更加多元化和竞争激烈的格局。

在这场变革中,DeepSeek无疑扮演了引领者的角色。它的成功不仅为AI领域带来了新的技术路径和发展方向,更为整个产业带来了前所未有的机遇和挑战。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version