在2025年的全球开发者先锋大会上,中科曙光震撼发布了其最新的DeepAI深算智能引擎。这一创新产品旨在为各行各业提供端到端的全栈AI加速解决方案,助力AI应用的快速开发与落地。
中科曙光智能计算产品事业部的胡晓东副总经理在发布会上表示,随着DeepSeek等大模型在全球范围内的持续火热,各行各业对低成本、高效率的AI解决方案的需求愈发迫切。中科曙光多年前就已洞察到“算力即生产力”的趋势,并针对大模型在多元场景的实际需求,对DeepAI深算智能引擎进行了全面升级。
DeepAI深算智能引擎的升级主要体现在三个方面:高性能、高易用性和高耦合性。在高性能方面,它全面支持新一代国产AI异构加速卡,并对算子进行了深度优化,性能总吞吐量提升了120%。在高易用性方面,中科曙光自研了独立完整的软件栈,同时完全兼容主流生态,CUDA核心组件功能覆盖率除硬件外达到了100%。而在高耦合性方面,DeepAI深算智能引擎推出了大模型应用平台和大模型云原生AI平台,支持主流大模型的开放纳管。
DeepAI深算智能引擎围绕“高性能、高可用、高耦合”持续迭代,为广大开发者提供了灵活、易用、低成本的AI套件。这有助于客户围绕DeepSeek等大模型构建AI能力,实现从技术积累到价值释放的关键跃迁。在性能调优方面,DeepAI深算智能引擎在去年的Al软件栈DAS基础上,从GPUFusion兼容层、基础算子层、框架工具层、模型扩展组件层等四个层面进行了深度优化,目标算子性能提升30-70%,模型性能提升20-50%,单卡推理速度最高提升1倍以上。
针对新一代国产AI异构加速卡,DeepAI深算智能引擎实现了“算子-框架-模型”全链条的深度优化,并首发了自研推理框架SGInfer。该框架提供了包括稀疏化实现、runtime层优化、图层优化等在内的多种策略,单卡推理性能总吞吐量最高提升1倍以上,真正实现了“软硬协同、敏捷开发、高效部署”。
DeepAI深算智能引擎还内嵌了DAP智能平台,围绕大模型的开发、训练、微调、推理、部署等全流程提供了全方位支持。基于国产AI异构加速芯片,它打造了大模型应用平台和云原生AI平台,预置了100多个关键场景应用和300多个精调模型与加速算法。其中,大模型应用平台具备知识融合增强、智能体可视化编排、数据智能分析能力,而云原生AI平台则具备数据处理、模型训练和微调、大模型推理服务能力。
面向金融、医疗、政务、能源、科研、教育等行业场景,DeepAI深算智能引擎依托其完整的软件栈和优化集成、完善的模型适配基础以及广泛应用的AI智能平台,提供了从十亿级推理到千亿级训练的全场景产品方案。它能够快速响应不同行业、不同场景的定制需求,让AI技术更加触手可及。
目前,中科曙光以DeepAI深算智能引擎为核心,已经进入了众多关键行业,并持续为中国气象局、深圳纪委、中国电信天翼云、PICC人保财险、中石化物探院等头部客户提供高品质服务,展现了其强大的市场竞争力和技术实力。