ITBear旗下自媒体矩阵:

得一微AI-MemoryX技术革新显存扩展,DeepSeek训推一体机性能大飞跃!

   时间:2025-02-28 20:18:04 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

在人工智能领域的一次重大突破中,得一微电子(YEESTOR)近日隆重推出了其革命性的AI-MemoryX显存扩展解决方案。该方案凭借公司自主研发的存储控制芯片与创新的AI存储系统技术,成功打破了单机显存容量限制,使得DeepSeek系列的大模型,如32B、70B、110B乃至671B等,均能在单机环境下实现微调训练。这一创新为AI大模型的训练提供了既高效又经济的全新路径。

得一微电子及其合作伙伴将共同提供一套完整的微调训练解决方案,旨在助力各行各业拓展智能应用的边界,从而在激烈的市场竞争中抢占先机。AI-MemoryX方案的推出,标志着AI大模型训练进入了一个全新的时代。

长久以来,显存不足一直是制约单机微调训练大规模模型的关键因素。训练和推理对GPU显存的需求差异巨大,训练所需显存往往是推理的数十倍。目前市场上的训推一体机在支持大模型微调训练时,普遍面临显存容量不足的挑战,仅能支持7B、14B等相对较小模型的微调训练,难以满足更大模型的训练需求。

得一微电子推出的AI-MemoryX显存扩展卡,则成功打破了这一瓶颈。该扩展卡不仅使训推一体机能够支持超大尺寸大模型的微调训练,还能帮助客户承担高达110B甚至671B规模的训练任务。更为重要的是,AI-MemoryX技术将原本需要耗费数百上千万的硬件扩充成本,大幅降低至数万元级别,从而显著降低了超大模型训练的门槛,使得更多企业和个人能够以有限的资源高效开展大规模模型的训练与微调。

显存不足一直是单机微调训练大规模模型的最大障碍。受限于GPU技术和商业模式,单张GPU的显存容量极为有限,通常仅在48GB到64GB之间。以DeepSeek 70B模型为例,微调训练所需的显存高达1TB到2TB,这意味着需要动用30多张显卡。而对于DeepSeek 671B模型,更是需要高达10TB到20TB的显存,对应300多张显卡。如此庞大的硬件需求,不仅成本高昂,部署也极为复杂,严重阻碍了大模型单机微调的普及。

得一微电子的AI-MemoryX技术通过创新的显存扩展方案,成功将单机显存容量从传统显卡的几十GB提升至10TB级别,从而大幅降低了微调训练对GPU数量的需求。得益于此,DeepSeek系列不同尺寸的大模型仅需1到16张显卡,配合显存扩展技术,即可高效完成单机训练微调。这一技术突破为大模型在各行业的应用推广提供了强有力的支持。

得一微电子推出的AI-MemoryX解决方案是一个完整的微调训练方案,涵盖了大模型训练框架、显存扩展卡软件栈以及显存扩展卡X200系列。该方案为大模型微调训练提供了全方位的技术支持与赋能,使得更多企业和个人能够轻松应对大规模模型的训练需求。

得一微电子的AI-MemoryX技术还具有独特的监督微调、思维链微调和强化学习微调等特色功能。这些功能不仅发掘了微调的潜力和价值,还使得模型能够在小样本条件下实现高效推理,注入行业思维提升推理深度,以及在规则框架下实现自我进化。这些创新技术的应用,将进一步提升AI大模型的性能和实用性。

得一微电子始终致力于存储控制、存算一体、存算互联领域的技术创新,立志成为行业领先的芯片设计公司。公司面向企业级、车规级、工业级、消费级等全场景应用,提供量身定制的解决方案与服务。此次AI-MemoryX显存扩展解决方案的推出,再次彰显了得一微电子在人工智能领域的领先地位和技术实力。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version