【ITBEAR科技资讯】2月27日消息,美光科技近日宣布已开始大规模生产其最新一代的HBM3E高带宽内存。据悉,这款24GB 8H HBM3E产品已被英伟达公司选中,并将应用于即将在第二季度发货的NVIDIA H200 Tensor Core GPU中。
据ITBEAR科技资讯了解,美光科技的HBM3e内存基于先进的1β工艺,融合了TSV封装以及2.5D/3D堆叠技术,能够为用户提供高达1.2TB/s甚至更高的出色性能。这款产品的问世,无疑将进一步推动高性能计算领域的发展。
美光科技表示,与市场上的竞品相比,其HBM3E解决方案在性能、能效和可扩展性三个方面具有显著优势。具体而言,HBM3E的针脚速率超过9.2Gb/s,内存带宽超过1.2TB/s,足以满足人工智能加速器、超级计算机和数据中心的严苛需求。此外,与竞品相比,HBM3E的功耗降低了约30%,实现了在提供最大吞吐量的同时,将功耗降至最低,有助于数据中心降低运营支出。HBM3E目前提供的24GB容量,使得数据中心在扩展AI应用时更加轻松,无论是训练大规模神经网络还是加速推理任务,都能提供必要的内存带宽。
美光科技执行副总裁兼首席商务官Sumit Sadana对此表示:“美光科技凭借HBM3E的这一里程碑,实现了在上市时间、行业性能和能效方面的三连胜。随着人工智能工作负载对内存带宽和容量的需求不断增长,美光科技凭借业界领先的HBM3E和HBM4路线图,以及我们为AI应用提供的完整DRAM和NAND解决方案组合,处于支持未来AI显著增长的有利位置。”
HBM作为美光科技最盈利的产品之一,其构造涉及的技术复杂性极高。美光科技此前曾预测,到2024财年,其HBM收入将达到数亿美元,并在2025年继续保持增长势头。此外,美光科技还计划在3月18日召开的全球人工智能大会上,分享更多关于其领先的人工智能内存产品组合和路线图的信息,届时我们有望看到美光科技在AI领域的更多布局和突破。