近期,OpenAI的首席执行官奥尔特曼透露,由于GPU资源的严重短缺,公司最新研发的GPT-4.5模型将无法一次性全面推出,而是需要分阶段实施。
在一篇发布于某平台的帖子中,奥尔特曼详细介绍了GPT-4.5模型的情况。他指出,这一模型不仅规模庞大,而且构建成本高昂,需要增加数万个GPU才能满足更多ChatGPT用户的需求。因此,GPT-4.5将首先向ChatGPT Pro的订阅用户开放,随后在下周逐步推广至ChatGPT Plus用户。
GPT-4.5的高成本主要源于其巨大的规模。据奥尔特曼介绍,OpenAI对于每百万个输入tokens的收费为75美元(当前约合546元人民币),而对于每百万个生成的tokens,收费则高达150美元。这一收费标准相较于其主力模型GPT-4o,输入费用高出30倍,输出费用高出15倍。
面对GPU资源紧缺的问题,奥尔特曼坦言:“我们一直在快速发展,但现在GPU资源已经无法满足需求。”他进一步表示,公司计划在下周增加数万个GPU,并届时向Plus用户推出GPT-4.5模型。然而,他也承认这并不是理想的操作方式,因为公司很难准确预测导致GPU短缺的增长波动。
奥尔特曼还透露,计算能力的不足已经对公司产品的发布造成了延迟。为了彻底解决这一问题,OpenAI正在积极开发自有AI芯片,并计划建设庞大的数据中心网络。这一举措旨在未来几年内大幅提升公司的计算能力,以满足日益增长的AI模型需求。