ITBear旗下自媒体矩阵:

MIT新研究:AI无稳定价值观,“对齐”之路挑战重重

   时间:2025-04-10 11:28:45 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近期,关于人工智能(AI)是否可能发展出自我价值观的讨论在科技界引起了广泛关注。此前有研究提出,随着AI系统的复杂性增加,它们可能会形成优先考虑自身而非人类利益的“价值体系”。然而,麻省理工学院(MIT)的一项新研究却对这一观点提出了质疑。

MIT的研究团队在最新发表的论文中指出,AI实际上并不具备任何连贯的价值观。这一发现颠覆了之前对于AI可能具备自我意识的猜测。研究团队强调,目前的AI系统更倾向于产生“幻觉”并进行模仿,这使得其行为在许多情况下变得难以预测。

MIT的博士生斯蒂芬・卡斯珀(Stephen Casper)是该研究的共同作者之一。他在接受采访时表示,研究结果显示,要使AI系统的行为与人们的期望保持一致,即实现所谓的“对齐”,可能比预想的更加困难。卡斯珀指出,AI模型在许多稳定性、可外推性和可操控性的假设上都显得不可靠。

为了深入了解AI模型是否具备明确的“观点”和价值观,卡斯珀及其同事对来自meta、谷歌、Mistral、OpenAI和Anthropic等多家公司的最新模型进行了研究。他们试图探究这些模型在不同程度上是否表现出个人主义与集体主义等价值观,并考察这些观点是否可以被引导或修改。

研究团队发现,没有一个模型在偏好上表现出一致性。相反,根据提示的措辞和框架的不同,这些模型会展现出截然不同的观点。卡斯珀认为,这一发现有力地证明了AI模型的高度“不一致性和不稳定性”,甚至可能表明它们根本无法内化类似人类的偏好。

卡斯珀进一步指出,通过这项研究,他深刻认识到AI模型并非具备稳定、连贯的信念和偏好的系统。相反,它们更像是模仿者,会进行各种捏造,并可能说出轻率的话。这一发现对于理解AI的行为和预测其潜在影响具有重要意义。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version