美银证券 2022 全球技术大会期间,Nvidia CEO 黄仁勋终于证实了将选用英特尔 Sapphire Rapids 至强处理器,为其基于 DGX H100 Hopper GPU 的 AI 系统提供支持。而在早前的 GTC 2022 大会上,该公司仅在发布 DGX H100 新系统时披露会使用 x86 CPU,而未进一步揭示到底会选择与 AMD 还是 Intel 联手。
(via WCCFTech)
黄仁勋在周二的 BofA Securities 2022 Global Technology Conference 活动现场表示:
我们购买了许多 x86 产品,并与 Intel 和 AMD 都建立了很好的合作伙伴关系。
但鉴于 Nvidia 致力于让新品适用于世界各地的超大规模计算机和数据中心服务器,具有出色单线程性能的英特尔 Sapphire Rapids 就成为了我们的首选。
有趣的是,这家 AI 巨头在基于 Ampere GPU 的 DGX A100 系统上,才从英特尔切换到了 AMD 平台方案。
作为参考,DGX A100 配备了双路 AMD EPYC Rome CPU(最高可选 64C / 128T SKU)。
至于 DGX H100 将采用英特尔家的哪款 Xeon SKU,目前暂不得而知。
不过就算 Sapphire Rapids 最高仅提供了 56C / 112T 的选项,Golden Cove 架构的单线程性能还是可以扳回一局。
另一方面,如果英特尔着眼于多线程性能,那 AMD EPYC 路线图还是相当值得期待的 —— 尤其是即将到来的 Zen 4 Genoa 产品线提供了最高 96C / 192T 的选项。
此前 Server The Home 曾报道,英伟达分别有围绕 AMD / Intel 服务器 CPU 的 DGX H100 两种平台配置。至于后续是否会放弃 Sapphire Rapids“独占”,仍有待时间去检验。
规格方面,英伟达 DGX H100 系统在 SXM 配置中配备了 8 块 H100 加速卡,辅以高达 640 GB 的 HBM3 高带宽缓存 / 32 PFLOPs 峰值计算性能。
相比之下,现有的 DGX A100 系统配备了 8 块 A100 GPU 和 640 GB HBM2e 缓存,AI / INT8 峰值计算性能仅 5 / 10 PFLOPs 。
Sapphire Rapids Xeon CPU 为该平台提供了完整的 PCIe 5.0 支持,可通过 DGX 独显适配器提供四路 DisplayPort @ 4K 输出。
此外系统配备了四个 NVSwitch 转换芯片、2TB 系统内存、以及两块系统用的 1.9 TB NVMe M.2 存储 + 内置的 8 块 3.84 TB NVMe U.2 SSD 。
DGX H100 选择了将采用主动式散热的 AIC 扩展卡安装到机箱背面,且四块 GPU + CPU 均辅以安静、免维护的制冷剂散热方案。
压缩机本体也被塞进了 DGX 机箱内,标称峰值功耗高达 10.2kW 。最后,按照计划,DGX H100 预计将于 2022 年 3 季度正式推向市场。