ITBear旗下自媒体矩阵:

谷歌的Bard聊天机器人演示失败,AI算法难以避免“错觉”现象

   时间:2023-02-12 18:01:35 来源:ITBEAR编辑:汪淼 发表评论无障碍通道

【ITBEAR科技资讯】2月12日消息,当谷歌在去年11月推出其人工智能聊天机器人Bard时,市场对此的反应是热烈的。随着OpenAI公司推出ChatGPT,聊天机器人的热度持续攀升,引发了投资者的极大关注。然而,最近谷歌的一次演示却暴露出人工智能聊天机器人的弊端:AI会出现错觉。

谷歌高级副总裁兼谷歌Search负责人普拉巴卡尔·拉加万在接受采访时表示:“我们现在谈论的这种人工智能,有时会导致出现某种我们所谓的错觉(hallucination)……机器会以一种令人信服但完全编造的方式来表达自己。”虽然人工智能目前的基本任务之一是将这种情况控制在最低限度,但事实上,这种“错觉”现象是当前聊天机器人普遍存在的弊端。

无法保证信息准确性,是当前聊天机器人普遍的弊端,哪怕是备受热捧的ChatGPT也不能幸免。近日,社交媒体上已经有不少人抱怨ChatGPT会犯一些明显的错误,比如无法解决简单的数学方程式或逻辑问题。苹果联合创始人Steve Wozniak也警告称,虽然ChatGPT表现令人印象深刻,但“它也会因为不了解人性而犯下可怕的错误”。

在谷歌演示Bard时,该机器人回答“如何向9岁小孩介绍詹姆斯·韦伯空间望远镜成果”时,提到该望远镜拍摄到首张地球外行星的照片,但这一成就实际上是智利甚大望远镜在2004年达成的。这一错误信息在演示视频中被公开,导致谷歌股价当天直线下跌超7%,市值在一夜之间蒸发了1000亿美元。

不仅谷歌,其他公司也在开发自己的聊天机器人,以迎合消费者对人工智能的追求。据市场研究机构Gartner的数据,预计到2025年,人工智能聊天机器人将成为全球最常用的企业应用程序,消费者也会更多地采用这种工具。但如何控制聊天机器人产生的“错觉”现象,使得这种智能应用程序受到了更多的关注和担忧。

事实上,AI产生的“错觉”现象并非新鲜事物。在计算机科学中,这种现象称为“神经网络的误差扩散”,是由于模型的复杂性和训练数据的质量问题所导致的。对此,谷歌和其他公司已经在尝试开发更加精确和可靠的人工智能算法。但是,由于聊天机器人需要处理的信息量非常庞大,所以想要消除“错觉”现象并不容易。

尽管如此,对于开发聊天机器人的公司来说,处理“错觉”现象至关重要。因为当聊天机器人在面对用户的问题时出现错误信息,不仅会影响用户的体验,而且还会对公司的声誉造成损害。当然,对于聊天机器人来说,控制“错觉”现象的同时也要保持一定的智能和独立性,才能真正满足用户的需求。

对于消费者来说,使用聊天机器人时也应该保持一定的警惕性。虽然聊天机器人可以提供便捷的服务和快速的答案,但在某些情况下,它们可能会提供错误的信息,从而误导用户。所以在使用聊天机器人时,用户应该保持一定的理性,尤其是在处理重要信息时,还应该采取更加谨慎的态度。

据ITBEAR科技资讯了解,人工智能聊天机器人的出现,标志着科技发展的新一步。尽管目前还存在着“错觉”等问题,但这并不影响聊天机器人在未来的发展趋势。对于开发公司来说,处理“错觉”现象至关重要,只有这样,才能让聊天机器人真正满足用户的需求。而对于用户来说,保持理性和警惕性也是使用聊天机器人的必备条件。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version