【ITBEAR】8月19日消息,摩尔线程“夸娥智算集群 KUAE”1.2 版本正式发布,此次更新在软硬件层面进行了全面优化,并增加了对多种大模型的支持。新版本在多个方面都带来了显著的提升和新增功能。
具体来说,新版本在使用千卡集群训练千亿模型时,MFU 提升了 10%,而在稠密模型集群训练中,MFU 最高可达 55%。此外,通过集成最新的 MUSA SDK 平台与优化后的 Flash Attention2 技术,结合新版 Torch MUSA 和算子融合,新版本在提升大模型训练效率与资源利用率的同时,也缩短了训练周期并降低了整体成本。
据ITBEAR了解,新版本还增强了对长文本大模型训练的支持,优化了处理长文本理解和生成任务的能力,能够更好地应对文档摘要、文章写作等复杂语言处理任务。同时,MCCL 通信库完成了 All2All 优化,并针对 muDNN 算子在不同形状下的矩阵运算进行了优化,以更好地支持 MoE(Mixture of Experts)大模型的训练。
在训练效率方面,新版本进一步提升了大模型训练的 Checkpoint 读写性能,写入时间小于 2 秒。同时,实现了基于摩尔线程 GPU 集群的 DeepSpeed 与 Ulysses 的适配和性能优化,强化了长文本训练支持,并适配了国内外多款大模型,支持在 Hugging Face 上训练和微调主要开源大模型。
在稳定性方面,千卡集群软硬件进一步成熟,实现了连续无故障训练 15 天。新版本还引入了 KUAE Aegis 可靠性功能,加强对 GPU、显存、集合通信等方面的监控、自动诊断与故障恢复能力。同时,引入了 PerfSight 性能监控系统,可实时显示模型训练过程中的资源消耗与性能分析数据。
此外,KUAE 内置模型库 Model Zoo 也新增了 LLaMA2 全系列大模型、百川、雅意、Qwen2、Mixtral(MoE 8x7B)等模型,为用户提供更丰富的选择。此前,摩尔线程 AI 旗舰产品夸娥(KUAE)智算集群解决方案已从当前的千卡级别扩展至万卡规模,具备万 P 级浮点运算能力。摩尔线程计划开展三个万卡集群项目,分别为青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目。