【ITBEAR科技资讯】2月27日消息,近日有报道称,英伟达针对人工智能(AI)和高性能计算(HPC)推出的H100 GPU交货周期出现显著缩短,由此前的8-11个月锐减至仅3-4个月。这一变化导致部分囤积该芯片的公司开始寻求出售其过剩的H100 80GB处理器,原因在于如今从亚马逊云服务、谷歌云及微软Azure等大型云服务提供商处租用芯片已变得更为便捷。
据ITBEAR科技资讯了解,The Information的一份报告指出,鉴于H100 GPU稀缺性的降低以及维护未使用库存所带来的高昂成本,部分公司开始转售其手中的H100 GPU或减少相关订单。这与去年众多企业争相抢购英伟达Hopper GPU的情况形成了鲜明对比。尽管芯片的可用性有所提升且交货周期大幅缩短,但报告仍指出,AI芯片的需求依然旺盛,尤其是对于需要训练大型语言模型(LLM)的公司,如OpenAI等。
云服务提供商(CSP)如亚马逊AWS等提供的按需租用H100 GPU服务,在一定程度上缓解了需求压力,缩短了用户的等待时间。然而,由于训练大型语言模型需要大规模的GPU集群,这类公司仍面临着供应瓶颈的挑战,有时甚至需要等待数月才能获得所需的处理能力。因此,尽管交货周期缩短,但英伟达H100等处理器的市场价格并未出现明显下降,公司依然能够保持较高的利润率。
随着芯片供应瓶颈的逐步缓解,买家的行为也在发生变化。企业开始更加注重价格和采购/租赁的合理性,倾向于选择规模更小的GPU集群,并更加关注其业务的经济可行性。此外,随着替代方案(如AMD或AWS的处理器)在性能和软件支持方面的不断提升,以及企业在AI处理器支出方面的日益谨慎,AI领域有望迎来一个更加平衡的市场格局。