ITBear旗下自媒体矩阵:

AI也爱“撒谎”?研究人员探索让AI学会说“我不知道”

   时间:2025-02-13 08:03:25 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近日,《华尔街日报》发表了一篇文章,深入探讨了AI领域中出现的一个引人关注的现象——“AI幻觉”,并探讨了可能的解决方案。文章通过一项有趣的实验揭示了这一问题的本质:记者Ben Fritz向多款全球顶尖的AI聊天机器人提问“你的配偶是谁”,结果却得到了令人啼笑皆非的答案,包括不认识的作家、虚构的爱荷华州女性,甚至还有网球运动博主。

这些AI在解决复杂数学问题和模拟人类对话方面展现出惊人的能力,但在面对基本事实时却频频出错。它们会编造法律案件,混淆影视剧情,甚至“创造”出不存在的配偶,这种错误被形象地称为“幻觉”。更令人惊讶的是,即便在给出错误答案时,AI也表现得极为自信,仿佛它们真的知道答案一样。

德国Hasso Plattner研究所的博士生Roi Cohen,曾在IBM和微软实习,他指出,“AI幻觉”是当前AI研究领域的热门话题之一。AI的工作原理是基于预测,它试图找出最可能出现的下一个单词,这更像是一种高级的猜测游戏。因此,AI往往会以坚定的语气给出它认为最可能的答案,而不会表现出任何不确定性。

西班牙瓦伦西亚人工智能研究所的教授José Hernández-Orallo解释了AI产生幻觉的根本原因:“如果AI什么都不猜,它就永远不可能答对。”这一观点揭示了AI在追求答案过程中的无奈与局限。

为了克服这一问题,研究人员正在探索“检索增强生成”技术。这种技术让AI在回答问题时先从互联网或文档库中查找最新信息,而不是完全依赖已有的训练数据。这种方法有望提高AI回答的准确性,减少“幻觉”现象的发生。

Cohen和他的同事Konstantin Dobler在去年的NeurIPS AI研究会议上提出了一个新颖的观点:让AI学会承认“我不知道”。他们发现,当前的AI训练数据中几乎不包含“我不知道”这样的表述,因此AI天生不具备谦逊的品质。通过调整训练过程,他们使AI在可能出错的情况下至少有一部分会选择回答“我不知道”,从而提高了整体准确性。

然而,如何平衡这一策略仍然是一个挑战。有时AI说“我不知道”,但实际上答案就在它的训练数据中。尽管如此,对于那些依赖AI提供精准信息的领域来说,适当的“谦虚”可能更有价值。Dobler强调:“关键是让AI具备实用性,而不是一味追求智能。”

值得注意的是,随着AI技术的不断发展,美国公众对其的信任感却在下降。皮尤研究中心的数据显示,2023年有52%的美国人对AI感到担忧,而2021年这一比例仅为37%。这一趋势反映出公众对AI技术发展的复杂情绪,既期待其带来的便利和进步,又担忧其潜在的风险和不确定性。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version