DeepSeek,这款近期迅速崛起的人工智能应用,犹如一颗投入平静湖面的巨石,不仅吸引了全球的瞩目,还意外地开启了无数新的机遇之门。从默默无闻到成为全球增速最快的AI应用,DeepSeek的崛起之路令人瞩目。上线不足一个月,其日活跃用户数已突破2000万大关,这一数字甚至超越了字节跳动的豆包,达到了ChatGPT日活用户数的41.6%。
然而,随着用户量的激增,DeepSeek也面临了前所未有的挑战。用户反馈显示,在与DeepSeek进行深度对话时,系统时常出现卡顿,甚至回复“服务器繁忙,请稍后再试”。这一现象被用户戏称为“R1每天只能运行(Run)一次”。面对服务器资源的紧张,DeepSeek不得不暂停API服务的充值,直至本文发稿时,充值服务仍未恢复。
DeepSeek的爆火不仅让AI领域迎来了“破圈”时刻,也为上下游产业链带来了无限商机。云厂商和芯片厂商迅速行动起来,纷纷加入这场“抢滩”大战。微软、亚马逊等云巨头率先在自家平台上接入了DeepSeek-R1模型,而国内的华为云、阿里云、百度智能云等也紧随其后,宣布上线DeepSeek模型,为开发者和企业提供模型部署服务。
国产芯片厂商同样不甘落后,已有十数家国产芯片完成了对DeepSeek模型的适配和上线。这些芯片厂商或与下游的AI Infra平台联手,或基于自身构建的算力平台,支持DeepSeek模型的部署。尽管国产芯片在硬件上使用的指令集与英伟达不同,需要额外的适配和移植工作,但它们仍然积极参与其中,希望借此机会提升国产算力的利用率。
DeepSeek的爆火也引发了关于AI应用落地的广泛讨论。随着DeepSeek热潮的蔓延,智能硬件、汽车、金融等各行各业都在积极接入DeepSeek模型,希望借助其能力来升级自身服务。阅文集团旗下的作家辅助创作产品“作家助手”就集成了DeepSeek-R1模型,为作家提供查资料、找灵感的智能问答功能。DeepSeek对于作家的提问意图有着较强的理解推导能力,能够听懂潜台词和言外之意,为网文作家提供了极大的启发和思考梳理。
在DeepSeek带来的竞争压力下,其他AI公司也开始加大投入,提升模型性能。OpenAI上周宣布将其最新模型的思维链公开,以应对DeepSeek的挑战。同时,DeepSeek的低价策略也引发了国内大模型“价格战”的升级,进一步推动了AI应用的落地。
对国内AI产业链来说,DeepSeek的崛起无疑是一个重大的利好消息。它不仅提升了国产算力的利用率,还推动了AI应用的爆发式增长。随着DeepSeek所引发的涟漪不断扩散,我们有理由相信,AI产业的未来将更加光明。