近期,AI大模型领域掀起了一股新的技术热潮。在国内,李飞飞团队提出了一种创新的模型训练方式,再次点燃了行业内的讨论之火。这一新方法以阿里云的通义千问Qwen2.5-32B-Instruct开源模型为基础,借助16块H100 GPU进行监督微调,仅在26分钟内便成功训练出了新模型s1-32B。
这款新模型在数学及编码能力上展现出了令人瞩目的实力,其表现与OpenAI的o1和DeepSeek的R1等尖端推理模型不相上下,甚至在竞赛数学问题上的表现比o1-preview高出27%。这一成果无疑为AI大模型领域带来了新的惊喜。
值得注意的是,DeepSeek也曾透露将DeepSeek-R1的推理能力蒸馏成6个模型并开源给社区,其中4个模型正是基于Qwen开发的。这些基于Qwen-32B蒸馏的模型,在多项能力上实现了与OpenAI o1-mini相当的效果。这一消息进一步凸显了Qwen模型在AI大模型领域的重要地位。
Qwen模型不仅满足了顶尖团队对模型性能的高要求,还为不同团队提供了多样化的开发路径。这一优势使得Qwen模型在开源社区中备受追捧,成为新一轮推理模型技术浪潮的焦点。李飞飞团队与DeepSeek纷纷选择Qwen作为基座模型,这足以引发业界的广泛关注和讨论。
那么,Qwen模型究竟为何如此强大且受到如此热捧呢?这主要得益于其多方面的优势。首先,Qwen模型具有强劲的性能优势。自2023年8月起,阿里云相继开源了Qwen、Qwen1.5、Qwen2、Qwen2.5等四代模型,涵盖了数十款大语言模型、多模态模型、数学模型和代码模型。这些模型在全球多个权威榜单上屡获佳绩,性能领先全球。
例如,在HuggingFace的Open LLM Leaderboard、Chatbot Arena大模型盲测榜单以及司南OpenCompass等多个国内外知名榜单上,Qwen模型都展现出了卓越的实力。其强大的性能为开发者提供了坚实的基础,使得基于Qwen开发的模型能够在各种应用场景中脱颖而出。
除了性能强劲外,Qwen模型的开源策略也是其受到广泛欢迎的重要原因之一。阿里云率先实现了“全尺寸、全模态、多场景”的开源,从1.5B到72B乃至110B,Qwen开源的模型尺寸及版本覆盖面最广。这种多样化的选择为开发者和企业提供了极大的便利,无论是小型项目还是大规模应用,都能找到适合的Qwen模型版本。
据统计,仅Qwen2.5-1.5B-Instruct这款模型,就占到了全球模型下载量的26.6%,远高于其他同类模型。同时,Qwen的视觉理解模型Qwen-VL及Qwen2-VL两款模型的全球下载量也突破了3200万次。这一数据充分说明了Qwen模型在开源社区中的受欢迎程度。
Qwen模型的火热还得益于其庞大的衍生模型群。截至目前,海内外开源社区中Qwen的衍生模型数量已突破9万,超越了Llama系列衍生模型,成为世界最大的生成式语言模型族群。这一庞大的衍生模型群不仅体现了Qwen模型的广泛影响力,也反映了其在技术上的可扩展性和适应性。
全球AI模型开发者都可以基于Qwen进行不同技术的差异化比较,从而进一步推动了Qwen的火热。这种开源生态的繁荣,使得Qwen成为了开源社区中最重要的标杆基座模型之一。Qwen模型以其强劲的性能、开源与尺寸多样化以及庞大的衍生模型群等优势,成为了李飞飞团队和DeepSeek的共同选择。这一选择不仅展示了Qwen模型在人工智能领域的卓越实力,也体现了开源理念在推动技术创新、促进开源生态建设和助力行业应用落地等方面的重要价值。