在2024杭州云栖大会上,阿里云CTO周靖人描绘了一个充满未来感的愿景:数据中心将演变为一台超级计算机,为各类AI应用提供强劲、高效的计算能力。这一观点揭示了AI时代基础设施的新趋势,即头部云服务商正积极推动技术架构体系的全面革新。
随着AI技术的迅猛发展,传统的以CPU为核心的计算体系已逐渐让位于GPU主导的AI计算体系。这一转变对基础设施的性能和效率提出了更高要求,促使从服务器到计算、存储、网络等各个层面进行深刻变革。周靖人指出,云服务商凭借全栈技术储备,正致力于推动这一基础设施的全面升级,以更好地支持AI训练、推理、部署和应用的全生命周期。
据ITBEAR了解,为应对GPU算力的指数级增长需求,特别是即将到来的推理市场爆发,领先企业已做好充分准备。在此背景下,周靖人发布了开源模型Qwen2.5系列,涵盖语言、音频、视觉等多个领域的100多款全模态模型。这些模型的推出,不仅展示了云服务商在AI技术方面的深厚实力,也为各行各业提供了更为丰富和多样的智能化转型抓手。
过去一年里,大模型技术取得了显著进步,从语言理解到视频生成,再到多模态融合,其能力边界不断扩展。与此同时,大模型在数学、代码及推理等方面的性能也持续提升。这些进步为大模型在各行各业的广泛应用奠定了坚实基础。
随着大模型技术的日益成熟,应用已成为大模型产业的主旋律。魔搭社区公布的数据显示,该平台已吸引超过690万开发者用户,并与行业合作伙伴共同贡献了超过10000款模型。这一数据充分表明,大模型正以前所未有的速度融入各行各业,推动智能化转型的深入进行。
面对这一趋势,周靖人强调,云服务商应致力于降低企业和开发者使用AI的成本,让更多人能够轻松接触到最先进的大模型技术。这一愿景的实现,不仅将加速AI技术的普及和应用,也将为整个社会的智能化进程注入新的活力。
#AI时代# #数据中心# #超级计算机# #云服务商# #大模型技术#