ITBear旗下自媒体矩阵:

国产芯片拥抱QwQ-32B,推理模型新宠儿能否超越DeepSeek-R1?

   时间:2025-03-10 19:31:26 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近期,AI大模型领域的竞争愈发激烈,新的推理模型不断涌现,挑战着现有的王者地位。阿里巴巴的通义千问QwQ-32B模型,成为业界关注的焦点,被视为即将引领产业大规模落地的推理新星。

据悉,国家超算互联网平台已接入阿里巴巴通义千问大模型,并对外开放QwQ-32B的API服务,用户可免费获取高达100万tokens的调用额度。这一举措不仅降低了用户的使用门槛,也进一步推动了AI技术的普及和应用。

与此同时,众多国产算力厂商也积极响应,纷纷推出或计划推出针对QwQ-32B的算力部署方案。壁仞科技、摩尔线程、算能等国内知名芯片厂商,均已实现对QwQ-32B的全面支持,为其提供了高效、稳定的算力保障。

东南大学基于昇腾国产算力平台,成功接入了QwQ-32B模型,成为全国首个提供该服务的高校。青云科技旗下的AI算力云也上线了QwQ-32B,进一步拓宽了其应用场景和覆盖范围。

业内人士指出,作为推理模型,QwQ-32B的性价比成为行业关注的焦点。在DeepSeek-R1普及大模型推理场景后,后续的大模型必须提供更佳的效果和成本数据,才能赢得市场的认可。而QwQ-32B在32B模型尺寸上,既具备强大的推理能力,又满足了低资源消耗的需求,因此备受青睐。

据阿里巴巴官方介绍,阿里通义团队针对数学和编程任务、通用能力等进行了大规模强化学习,使QwQ-32B在提供强大推理能力的同时,也降低了资源消耗。这一特性使得QwQ-32B适用于快速响应或对数据安全要求高的应用场景,开发者和企业可以轻松将其部署到本地设备中,打造高度定制化的AI解决方案。

在一系列权威基准测试中,QwQ-32B的表现令人瞩目。它不仅在数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,与DeepSeek-R1相当,还远胜于OpenAI的o1-mini及相同尺寸的R1蒸馏模型。QwQ-32B还集成了与智能体Agent相关的能力,能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。

值得注意的是,QwQ-32B的开源也为其赢得了更广泛的支持。它遵循Apache 2.0协议,消费级显卡即可部署。国产芯片即便在性能上稍逊于英伟达GPU,但在做好兼容适配的前提下,也能满足更多个人开发者和中小企业极低成本接入顶级模型的需求。

云计算行业分析师表示,自ChatGPT推出以来,生成式AI已成为推动云服务收入增长的重要动力。AI不再是云计算的应用子集,而是驱动云战略演进的核心。阿里云作为行业领头羊,其开源的千问大模型已成为云计算的重要抓手。在最新一季的财报中,阿里云的AI收入连续六个季度实现三位数增长,并推动云收入重回双位数增长。

通过开源,阿里通义千问已成为国产算力平台支持最多的大模型之一,并在海外获得广泛部署和应用。目前,通义千问稳居全球最大AI社区HuggingFace热门大模型榜首,衍生模型数量超过10万个,成为全球采用最广泛的AI大模型之一。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version