ITBear旗下自媒体矩阵:

英伟达推出全新双GPU产品H100 NVL,满足庞大数据流应用需求

   时间:2023-03-22 13:57:22 来源:ITBEAR编辑:茹茹 发表评论无障碍通道

【ITBEAR科技资讯】3月22日消息,英伟达在GTC Spring 2023主题演讲中推出了全新的双GPU产品H100 NVL,该产品可满足不断增长的人工智能市场需求。据悉,H100 NVL在顶部配备了3个NVlink连接器,使用两个相邻的PCIe显卡插槽。H100 NVL最高可提供188GB HBM3显存,单卡显存容量为94GB。这在运行大型语言模型(LLM)时非常重要,因为常规显卡的显存无法驾驭庞大的数据流。H100 NVL的显存容量更高,能够满足这种需求。

H100 NVL的功耗略高于H100 PCIe,每个GPU的功耗为350-400瓦(可配置),比H100 PCIe增加了50W。然而,总性能实际上是H100 SXM的两倍。FP64为134 teraflops,TF32为1979 teraflops,FP8为7916 teraflops,INT8为7916 teraops。此外,内存带宽也比H100 PCIe高得多,每个GPU为3.9TB/s,总和为7.8TB/s,而H100 PCIe仅为2TB/s,H100 SXM为3.35TB/s。

据ITBEAR科技资讯了解,H100 NVL为大型语言模型等需要大量显存的应用提供了更好的解决方案,同时提供了高性能和高内存带宽。这将使研究人员更容易处理海量数据,训练出更准确的模型,从而加速人工智能的发展。英伟达表示,H100 NVL已经开始出货,但并未透露其价格。

标签: 英伟达
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version