ITBear旗下自媒体矩阵:

李彦宏揭秘DeepSeek挑战,文心大模型双版本升级应对痛点

   时间:2025-04-26 10:46:08 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

百度在武汉隆重举行的Create2025 AI开发者大会上,其创始人李彦宏围绕“模型世界与应用领域的交融”发表了约一小时的演讲,正式揭晓了文心大模型的最新版本——4.5Turbo与X1Turbo。同时,他还分享了DeepSeek模型在百度生态系统内的应用进展及其面临的挑战。

李彦宏透露,百度的核心应用如文小言、搜索及地图等,已经接入了DeepSeek的完全版模型,这些应用在智能客服、搜索功能强化等方面均实现了效率上的显著提升。然而,他也坦诚地指出了DeepSeek的局限性:“目前,该模型仅限于文本处理,尚不支持图像、音频及视频等多模态内容的生成,而百度智能云的六成以上企业客户明确表达了对多模态能力的需求。”他以电商直播为例,说明了DeepSeek因较高的错误生成率(即幻觉率高),在金融、医疗等高风险领域难以直接应用,“如果在直播中错误推送‘买一送十’的优惠信息,商家将面临巨大的经济损失”。其响应速度较慢以及调用成本偏高的问题,也限制了其规模化应用——当前市场上大多数大模型的API调用成本均低于DeepSeek完全版,且响应速度更快。

针对上述问题,百度此次发布的文心大模型双版本提出了三大核心升级:多模态、强化推理能力以及低成本。李彦宏着重指出,多模态已成为下一代AI模型的必备要素,“纯文本模型的市场份额将迅速减少,企业需要能够同时处理图文、音视频等内容的通用型模型”。在性能方面,文心4.5Turbo每百万token的输入价格降至0.8元,输出价格为3.2元,与前代相比,推理速度提升了2倍,成本降低了80%;而X1Turbo版本的输入价格为1元,输出价格为4元,在性能提升的同时,价格再降50%,并支持中英双语以及法律、医疗等领域的推理优化。

李彦宏直言不讳地指出,成本是AI应用广泛普及的主要障碍,“目前,开发者在构建AI应用时面临的最大难题是算力成本过高,而技术创新的本质通常源于成本结构的突破”。他以自动驾驶为例,说明2015年激光雷达的单价超过10万美元,如今已降至千元级别,直接推动了L4级技术的普及。文心大模型的此次降价,旨在降低企业部署的门槛,“我们希望让中小企业能够负担得起大模型的使用成本,让创业者敢于尝试和犯错,最终推动各行各业AI原生应用的诞生”。

据百度技术团队透露,文心4.5Turbo与X1Turbo已经同时开放公有云及私有化部署,支持按需调用及定制化训练。市场分析认为,百度通过技术迭代与成本重构,正试图在模型能力与商业化应用之间找到最佳的平衡点,而多模态能力和价格优势将成为其吸引企业客户的关键因素。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version