ITBear旗下自媒体矩阵:

芯原AI异构计算融合方案,能否成为NPU发展新方向?

   时间:2024-10-16 15:06:02 来源:ITBEAR作者:顾青青编辑:瑞雪 发表评论无障碍通道

【ITBEAR】近年来,随着人工智能技术的迅猛发展,AI计算需求呈现出爆炸式增长。为满足这一需求,众多公司和研究机构纷纷投身于专用处理器的研发之中,其中,神经网络处理单元(NPU)因其出色的深度学习任务处理能力而备受瞩目。

然而,尽管NPU在某些任务中表现出色,但其独立发展的前景却备受质疑。近期,刚获得巨额投资的Imagination决定放弃独立开发三代NPU IP,转而将类似功能整合进其GPU产品中。这一决定反映了NPU独立发展的局限性。

Imagination新任创新和工程主管Tim Mamtora坦言,尽管公司看到了NPU的潜力,但在实际开发过程中遭遇了诸多挑战,如配套软件堆栈的构建、客户和开发人员的展示等。他认为,AI软件堆栈方面的挑战是导致Imagination放弃NPU独立开发的主要原因。

NPU作为一种专为神经网络计算设计的处理器,具有高并行度和低功耗的特点。然而,其独立工作时也暴露出一些问题。NPU主要针对深度学习任务进行优化,在处理其他类型的计算任务时显得力不从心,这限制了其在多样化应用场景中的适用性。NPU的生态系统相对较小,开发者面临的工具和框架选择有限,这也阻碍了NPU的推广和应用。

相比之下,国内IP供应商芯原股份在NPU技术的发展上走出了一条不同的道路。芯原的NPU IP已被广泛应用于多款人工智能类芯片中,并在全球范围内实现了大规模出货。芯原通过开发GPU+GPGPU+NPU的可扩展AI计算平台,实现了不同计算资源的有机结合,弥补了彼此的短板。

在这种平台中,NPU专注于执行深度学习模型中的特定运算,而GPU或GPGPU则负责处理图形渲染和其他计算任务。这种资源互补使得系统能够在多任务环境中表现更佳,提高了整体效率。同时,芯原还实现了NPU、GPGPU和GPU在指令级的融合,使得三者在硬件层面上能够共享指令集,实现了更高效的协同工作。

芯原的成功经验表明,NPU的发展需要与其他处理器协同工作,方能实现最佳的性能和效率。通过构建一个包含多种计算资源的可扩展AI计算平台,芯原不仅提升了AI计算的整体性能,还为客户提供了更大的灵活性和可扩展性。

面对未来,随着人工智能应用的普及和数据隐私、实时处理需求的增加,边缘计算将成为重要的发展趋势。NPU可以在边缘设备上提供高效的AI计算能力,满足这些需求。同时,NPU还可以为特定的AI工作负载提供定制化的硬件加速,这对于执行特定任务的边缘设备来说是一个重要的优势。

因此,NPU在未来的发展中需要更加注重生态系统的建设。这意味着不仅要在硬件上进行创新,还要在软件工具、开发框架和支持服务上进行投入。通过构建一个健康、开放的生态系统,NPU技术才能更好地融入各种应用场景,满足不同客户的需求。

总之,NPU作为AI计算领域的重要参与者,其未来发展将更加依赖于与其他处理器的协同和生态系统的完善。只有在硬件、软件和生态系统上实现全面优化,NPU才能在AI计算的浪潮中脱颖而出。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version