7 月 20 日,由北京市委网信办指导、首都互联网协会主办、品玩承办的首届“青年思享会”青年先锋论坛在京成功举办。
论坛以“人工智能的机遇和挑战”为主题,邀请了来自中国科学院的专家学者,以及向量数据库公司 Zilliz、百度、科大讯飞、奇安信、云测数据、中科闻歌等企业的青年先锋,共同探讨在人工智能的背景下,大语言模型的技术路径、商业化落地、产业化发展和生态系统建设,力求“全景式”解锁大模型的真实面貌,“立体式”呈现大模型未来图景。
北京市委网信办相关负责人表示,“我们要以《生成式人工智能服务管理暂行办法》为准绳,明确生成式人工智能服务安全要求,认真做好申报安全评估、加强数据安全和隐私保护等工作,规范操作、划好底线、守住安全。希望大家在企业的发展过程中强化主体责任,既要把握人工智能等新技术、新应用带来的机遇,营造创新生态,又要保持正确的大局观、发展观、安全观,重视防范风险。”
向量数据库领先者 Zilliz 合伙人兼产品总监郭人通受邀参与高端对话环节,本次对话由品玩创始人兼 CEO 骆轶航担任对话主持人,主题为“打破壁垒,打造中国大模型健康发展的生态系统”。
郭人通认为,做好大模型生态必须要以模型为核心,围绕周边系统进行建设,尤其是系统的基础软件建设,只有这样才能真正促成产业落地、为行业创造更多价值。
在被问及大模型和向量数据库的关系时,郭人通表示:
如果将大模型应用看成一个计算机系统,那么大模型就是 CPU,负责自然语言的对接和分析工作;向量数据库则是计算机的外部存储,可以理解为记忆体,承担着存储和检索向量信息的工作。 在二者的相互配合下,可以有效提升大模型应用的效果和效率。
在探讨“如何降低大模型的训练成本及其未来走向”的话题时,郭人通给出了不一样的解读:
一方面,现在的模型引入大量参数,但是很大一部分都用来编码死记硬背的内容。另一方面,人脑比大模型参数多很多,但也不会去尝试记下世界上所有的内容。所以 LLM 到了现在这个阶段,未来可能的方向是尝试把这些死记硬背的内容从大模型移出来,更多的参数(以及对应的成本)用于提升理解和逻辑推理这样的高阶语义理解能力。
还有一点,Yann LeCun 提出的「世界模型」现在不是特别主流,但个人觉得比较有趣。这里无论是世界模型的表示,还是上面提到的“死记硬背”的知识性内容,有可能会和现代计算机系统计算/存储可互换很类似,到底是编码到模型参数,还是放置到外挂的记忆体,应该也是可互换的。
Zilliz 合伙人兼产品总监 郭人通
首届“青年思享会”青年先锋论坛的圆满落幕,也预示着 AI 大模型正朝向健康可持续合规的方向发展。AI 大模型正在成为赋能千行百业、引领产业变革的关键力量。未来,随着人工智能加速发展,Zilliz 将和产业各界一起通过系统创新、坚持开源开放,加速大模型生态繁荣发展。