近日,阿里巴巴正式推出了其最新的推理模型——通义千问QwQ-32B,并宣布该模型已在全球范围内以Apache2.0开源协议开放。这一举措标志着阿里巴巴在人工智能领域的又一重大突破,千问QwQ-32B通过大规模强化学习,在数学、代码及通用能力上实现了显著提升。
据阿里巴巴介绍,千问QwQ-32B不仅在性能上可以与顶尖开源推理模型DeepSeek-R1相媲美,更重要的是,它在部署成本上实现了大幅降低。这意味着,即便是消费级显卡也能轻松实现该模型的本地部署,这对于开发者和企业而言无疑是一个巨大的福音。
千问QwQ-32B是阿里巴巴通义团队在冷启动基础上,针对数学和编程任务、通用能力进行了两轮大规模强化学习的成果。这一创新性的方法使得千问QwQ-32B在32B的模型尺寸上,推理能力得到了显著提升。在一系列权威基准测试中,千问QwQ-32B的表现几乎完全超越了OpenAI-o1-mini,与DeepSeek-R1不相上下。
特别是在数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,千问QwQ-32B展现出了与DeepSeek-R1相当的实力,远超o1-mini及相同尺寸的R1蒸馏模型。在由meta首席科学家杨立昆领衔的“最难LLMs评测榜”LiveBench、谷歌提出的指令遵循能力IFeval评测集,以及加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问QwQ-32B的得分均超越了DeepSeek-R1,再次证明了其强大的推理能力。
千问QwQ-32B不仅推理能力强劲,而且在资源消耗上表现优异。这使得它非常适合快速响应或对数据安全要求高的应用场景。开发者和企业可以在消费级硬件上轻松将其部署到本地设备中,进一步打造高度定制化的AI解决方案。
除了强大的推理能力和低资源消耗外,千问QwQ-32B还集成了与智能体Agent相关的能力。这使得它能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。这一特性无疑为千问QwQ-32B赋予了更高的智能水平,也为未来的AI发展提供了更多的可能性。
目前,千问QwQ-32B已在魔搭社区、HuggingFace及GitHub等平台基于宽松的Apache2.0协议开源。用户不仅可以免费下载模型进行本地部署,还可以通过阿里云百炼平台直接调用模型API服务。对于云端部署需求,用户可通过阿里云PAI平台完成快速部署,并进行模型微调、评测和应用搭建。用户还可以选择容器服务ACK搭配阿里云GPU算力,实现模型容器化部署和高效推理。
自2023年以来,阿里巴巴通义团队已开源了200多款模型,涵盖了文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等全模态,以及从0.5B到110B等参数全尺寸。截至目前,海内外AI开源社区中千问Qwen的衍生模型数量已突破10万,超越了美国Llama系列模型,成为全球最大的开源模型族群。