ITBear旗下自媒体矩阵:

英伟达宣布为DGX H100 AI平台选用Sapphire Rapids处理器

   时间:2022-06-08 13:50:08 来源:cnBeta编辑:星辉 发表评论无障碍通道

美银证券 2022 全球技术大会期间,Nvidia CEO 黄仁勋终于证实了将选用英特尔 Sapphire Rapids 至强处理器,为其基于 DGX H100 Hopper GPU 的 AI 系统提供支持。而在早前的 GTC 2022 大会上,该公司仅在发布 DGX H100 新系统时披露会使用 x86 CPU,而未进一步揭示到底会选择与 AMD 还是 Intel 联手。

1.jpg

(via WCCFTech)

黄仁勋在周二的 BofA Securities 2022 Global Technology Conference 活动现场表示:

我们购买了许多 x86 产品,并与 Intel 和 AMD 都建立了很好的合作伙伴关系。

但鉴于 Nvidia 致力于让新品适用于世界各地的超大规模计算机和数据中心服务器,具有出色单线程性能的英特尔 Sapphire Rapids 就成为了我们的首选。

2.jpg

有趣的是,这家 AI 巨头在基于 Ampere GPU 的 DGX A100 系统上,才从英特尔切换到了 AMD 平台方案。

作为参考,DGX A100 配备了双路 AMD EPYC Rome CPU(最高可选 64C / 128T SKU)。

3.jpg

至于 DGX H100 将采用英特尔家的哪款 Xeon SKU,目前暂不得而知。

不过就算 Sapphire Rapids 最高仅提供了 56C / 112T 的选项,Golden Cove 架构的单线程性能还是可以扳回一局。

4.jpg

另一方面,如果英特尔着眼于多线程性能,那 AMD EPYC 路线图还是相当值得期待的 —— 尤其是即将到来的 Zen 4 Genoa 产品线提供了最高 96C / 192T 的选项。

此前 Server The Home 曾报道,英伟达分别有围绕 AMD / Intel 服务器 CPU 的 DGX H100 两种平台配置。至于后续是否会放弃 Sapphire Rapids“独占”,仍有待时间去检验。

5.jpg

规格方面,英伟达 DGX H100 系统在 SXM 配置中配备了 8 块 H100 加速卡,辅以高达 640 GB 的 HBM3 高带宽缓存 / 32 PFLOPs 峰值计算性能。

相比之下,现有的 DGX A100 系统配备了 8 块 A100 GPU 和 640 GB HBM2e 缓存,AI / INT8 峰值计算性能仅 5 / 10 PFLOPs 。

6.jpg

Sapphire Rapids Xeon CPU 为该平台提供了完整的 PCIe 5.0 支持,可通过 DGX 独显适配器提供四路 DisplayPort @ 4K 输出。

此外系统配备了四个 NVSwitch 转换芯片、2TB 系统内存、以及两块系统用的 1.9 TB NVMe M.2 存储 + 内置的 8 块 3.84 TB NVMe U.2 SSD 。

7.jpg

DGX H100 选择了将采用主动式散热的 AIC 扩展卡安装到机箱背面,且四块 GPU + CPU 均辅以安静、免维护的制冷剂散热方案。

压缩机本体也被塞进了 DGX 机箱内,标称峰值功耗高达 10.2kW 。最后,按照计划,DGX H100 预计将于 2022 年 3 季度正式推向市场。


举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version