ITBear旗下自媒体矩阵:

AWS新推“自动推理检查”,能否有效遏制AI模型的幻觉问题?

   时间:2024-12-04 10:12:20 来源:ITBEAR图源:IT之家编辑:瑞雪 发表评论无障碍通道

在科技巨头亚马逊云科技(AWS)的最新动作中,一项旨在解决AI模型产生幻觉问题的新工具正式亮相。这一消息在AWS于拉斯维加斯举办的re:Invent 2024大会上发布,引起了业界的广泛关注。

AWS推出的这款名为“自动推理检查”的工具,其工作原理是通过交叉引用客户提供的信息来验证AI模型生成的响应是否准确。AWS自信地宣称,这是首个也是唯一一个专门针对AI幻觉问题的防护措施。然而,这一说法并非毫无争议。事实上,微软在今年早些时候推出的“校正”功能与“自动推理检查”有着异曲同工之妙,都能标记出AI生成文本中可能存在的事实错误。谷歌的Vertex AI平台也提供了一个类似工具,允许客户利用第三方数据、自有数据集或谷歌搜索来增强模型回答的可靠性。

“自动推理检查”依托AWS的Bedrock模型托管服务中的Guardrails工具,致力于探究模型得出答案的过程,并判断其准确性。客户可以上传信息以建立事实基础,随后“自动推理检查”会根据这些信息创建规则,这些规则经过优化后应用于模型。当模型生成回答时,“自动推理检查”会对其进行验证,一旦发现幻觉问题,便利用事实基础得出正确答案,并与可能的错误答案一同呈现给客户,以便他们了解模型偏离正确答案的程度。

AWS透露,普华永道已经率先采用“自动推理检查”为其客户设计AI助手,这一消息进一步证明了该工具的市场潜力。AWS的AI和数据副总裁Swami Sivasubramanian也暗示,正是这类工具吸引了客户选择Bedrock。然而,尽管AWS对“自动推理检查”寄予厚望,但并非所有人都对其持乐观态度。有专家指出,试图消除生成式AI的幻觉无异于从水中消除氢,因为AI模型本质上并不“知道”任何事情,它们只是基于统计系统的预测工具,通过识别数据模式来预测下一个数据点,因此模型的响应只是在一定误差范围内的预测,而非确切答案。

AWS声称,“自动推理检查”利用“逻辑准确”和“可验证的推理”来得出结论,但遗憾的是,该公司并未提供任何数据来支持这一工具的可靠性。尽管如此,随着AI技术的不断发展和普及,如何有效解决AI模型的幻觉问题仍将是业界持续关注的焦点。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version