蚂蚁集团近日宣布了一项重要开源举措,正式推出了Ling-Coder-Lite,这是一款基于MoE(混合专家)架构的代码大语言模型。
据官方详细阐述,Ling-Coder-Lite在推理效率上实现了显著提升,具体提升幅度达到了1.5至2倍。这一成果无疑为代码生成和处理领域带来了新的突破。
值得注意的是,蚂蚁集团此次不仅开源了Ling-Coder-Lite,还同步推出了其轻量级版本Ling-Coder-Lite-Base。这两款模型均已在Hugging Face与ModelScope平台上对外开放,供开发者和研究人员自由使用。
为了支持社区对这两款模型进行更深入的研究和开发,蚂蚁集团还慷慨地开源了大量相关数据。这包括用于退火训练的SyntheticQA数据集,以及用于后训练的SFT(监督微调)和DPO(直接偏好优化)数据集,总数据量高达约3000万条。
Ling-Coder-Lite基于先进的Ling-MoE架构打造,其总参数量达到了16.8B(十六十八亿),但在推理过程中实际激活的参数仅为2.75B(二十七亿五千万)。这一设计使得模型在保持强大性能的同时,也具备了高效的推理能力。
在功能方面,Ling-Coder-Lite展现出了极高的多样性和实用性。它支持Python、Java、C++等数十种常用编程语言,能够满足开发者在不同场景下的需求。除了简单的代码生成和多语言支持外,Ling-Coder-Lite还擅长竞赛类和应用类高级代码生成、代码理解和输入输出推理、数据科学和SQL类数据分析,以及代码修复等复杂任务。