在近期于上海圆满落幕的2024中国生成式AI大会(上海站)上,一场关于AI全球化的深度探讨吸引了众多行业目光。此次大会由智猩猩与智东西联合主办,汇聚了众多业内精英,共同探讨AI技术的最新发展趋势。在大会的第二日,“AI Infra峰会”成为了焦点,其中GMI Cloud亚太区总裁King Cui的演讲尤为引人注目。
King Cui以其深厚的云计算领域经验,为与会者带来了题为《全球化布局:AI企业如何补齐算力短板,保障GPU集群稳定性》的精彩分享。GMI Cloud,这家成立于2023年的AI Native Cloud服务商,正迅速崛起,为全球新创公司、研究机构和大型企业提供稳定、高效、经济的AI云服务解决方案。
演讲中,King Cui指出,中国AI出海正处于加速阶段,算力作为核心生产资料,其重要性不言而喻。构建高稳定性的GPU集群,是AI出海企业降本增效的关键路径,也是在全球AI浪潮中脱颖而出的重要保障。GMI Cloud凭借其尖端GPU芯片优势,以及自主研发的Cluster Engine,为客户提供了裸机、虚拟机、容器等多种核心服务形态,全面支持AI机器学习、基础平台设施以及HPC高性能运算。
GMI Cloud不仅是全球Top10的Nvidia Cloud Partner,还与Nvidia建立了战略合作伙伴关系,获得了全球顶级GPU ODM厂商的投资,在亚太区享有GPU的优先分配权。这使得GMI Cloud能够在最短时间内获取最新最强的GPU,为客户提供前沿的云服务。目前,GMI Cloud在美国、中国台湾、泰国、马来西亚等多个国家和地区提供H100和H200云服务,集群总规模接近万卡。
King Cui进一步分析,中国AI出海是大势所趋。他回顾了中国经济高速发展的两大核心因素:人口红利与城镇化,以及通信基础设施的发展。然而,这两个因素目前已进入失速期,AI时代的到来,出海成为了新的增长极。AI出海不仅是中国企业产品力竞争的体现,更是算力需求和GPU集群稳定性等核心痛点的考验。
在海外市场中,中国AI企业面临着算力不足和GPU集群稳定性不足的双重挑战。GMI Cloud通过自主研发的Cluster Engine平台,以及严格的Nvidia NCP验证体系和交付测试体系,确保GPU集群的高稳定性。同时,GMI Cloud还提供灵活的选型方案,满足各类AI出海企业的需求。无论是私有云定制服务,还是按需付费的标准产品,GMI Cloud都能为客户提供端到端的解决方案。
King Cui还分享了GMI Cloud在故障预防策略和应对措施上的独到之处。他强调,虽然无法保证集群稳定性达到100%,但GMI Cloud通过快速硬件替换、深度合作关系以及主动运维监控策略,确保在最短时间内恢复集群运行。这使得GMI Cloud能够对外承诺使用Cluster Engine的GPU云服务可达到99%的SLA,成为全球少数能在合同中约定如此高SLA的GPU云服务厂商之一。
演讲的最后,King Cui结合两个实际案例,分享了AI Infra选型的思考。一个是某大型互联网招聘平台,GMI Cloud在海外为其构建私有GPU集群,提供端到端解决方案,助力其加速模型训练。另一个是在线直播平台,GMI Cloud的按需付费服务帮助其完成模型fine-tuning和调优。这两个案例充分展示了GMI Cloud在AI全球化布局中的强大实力和独特优势。