【ITBEAR科技资讯】7月19日消息,爱芯元智宣布在中国正式启用其核心技术混合精度NPU的中文名称为"爱芯通元®"。此消息是在第三届中国集成电路设计创新大会暨无锡IC应用博览会(ICDIA 2023)的"AIoT与ChatGPT"专题论坛上宣布的。在该论坛上,爱芯元智联合创始人兼副总裁刘建伟发表了题为"爱芯元智AX650N Transformer端边落地平台"的主题演讲,介绍了第三代SoC芯片AX650N在端侧和边缘侧部署Transformer的领先优势。
据ITBEAR科技资讯了解,近年来,AIoT行业规模迅速增长,成为各大传统行业实现智能升级的最佳途径,也是物联网未来发展的重要方向。同时,以ChatGPT为代表的大型模型在2022年底发布以来引发了国内外科技巨头的广泛关注,人工智能进入了一个全新的时代。随着AIoT和AI大型模型的快速发展,对底层硬件的数据存储、计算性能和图形处理能力提出了极高要求。
在爱芯元智看来,大型模型具备通识能力,可以降低人工智能在实际应用中的成本,未来每个人都可能在终端拥有一个智能助手。因此,爱芯元智致力于提供人工智能芯片的基础设施,即通过人工智能芯片提供感知和计算的基本能力,助力AI在端侧和边缘侧实现落地。
在感知方面,爱芯元智致力于提升摄像头的视觉清晰度,从而为数字化世界打造入口;在计算方面,爱芯元智致力于使摄像头能够理解图像内容,为各种AI模型在端侧和边缘侧的实际应用提供更高的计算能力基础。在本次ICDIA 2023上,爱芯元智正式公布了混合精度NPU的中文名称"爱芯通元®",旨在为各种智能算法提供基本的计算能力支持,使得智能在端侧和边缘侧对世界有更深入的理解,从而促进更美好的生活。
爱芯元智定位为人工智能感知与边缘计算的基础算力平台,自2019年成立以来一直专注于感知和计算基础能力的研发。他们自主研发了爱芯智眸®AI-ISP和爱芯通元®混合精度NPU这两项核心技术。其中,爱芯通元®混合精度NPU通过减少内存和功耗的限制,在端侧和边缘侧受到面积和功耗限制的情况下,以更高的有效算力支持更多智能算法的部署,从而降低了AI的成本。
目前,爱芯元智已经完成了四代多颗芯片产品的研发和量产,并逐渐应用于智慧城市、智能驾驶和AIoT等三大市场。刘建伟表示:"这些市场都将感知和计算作为基本能力,这也是爱芯元智选择不同市场的逻辑"。
在AI芯片设计开发过程中,爱芯元智高度重视应用、算法和NPU的紧密结合。在应用方面,他们通过数据流优化和前后级处理加速等手段来提高性能;在算法方面,他们通过算子加速、网络微结构加速和内存优化等设计来提高硬件的利用率;此外,爱芯通元®混合精度NPU是一个异构多核系统,内置多核硬件调度机制,减少对CPU的占用,提高系统应用的运行速度。
基于应用、算法和NPU的联合优化设计理念,爱芯元智推出的边缘侧和端侧人工智能处理器芯片具有高性能、低功耗等优势,其第三代高算力、高能效比的SoC芯片AX650N成为Transformer网络的最佳落地平台。
实测数据显示,爱芯元智AX650N不仅在传统的CNN网络上表现出色,在端侧部署Transformer网络SwinT时也表现出众,实现了361FPS的高性能、80.45%的高精度、199 FPS/W的低功耗,并且可以轻松部署原始模型和PTQ量化模型。同时,AX650N还支持低比特混合精度,如果采用INT4模式,可以大大减少内存和带宽的占用率,从而有效控制端侧和边缘侧部署的成本。
目前,爱芯元智AX650N已适配了ViT/DeiT、Swin/SwinV2、DETR等Transformer模型,甚至最先进的计算机视觉自监督模型DINOv2在AX650N上也能实现每秒30帧以上的运行效果。为了帮助开发者更好地尝试Transformer网络的应用,爱芯元智还推出了基于AX650N的开发套件"爱芯派Pro",该套件面向生态社区和行业应用,助力探索更丰富的产品应用。
面对大型模型引发的新一轮人工智能热潮,爱芯元智AX650N将进一步优化Transformer的结构,并探索多模态方向的Transformer模型。爱芯元智希望通过感知和计算的核心技术,加速人工智能在端侧和边缘侧的实际应用,真正实现人人可享的普惠人工智能,让人们的生活变得更加美好。