【ITBEAR科技资讯】06月01日消息,OpenAI公司近日通过一篇论文介绍了一种全新的方法,用于训练生成式人工智能语言模型。
最近,生成式人工智能技术的流行以及美国2024年总统大选初步启动,引发了对人工智能“胡说八道”问题的广泛关注和讨论。
OpenAI在去年推出的人工智能对话撰稿工具ChatGPT,基于GPT3和GPT4语言模型,取得了卓越的成绩。ChatGPT的出色表现在全球掀起了一股生成式人工智能的热潮,仅两个月时间,相关服务的月活跃用户数就突破了一亿人,创造了新的世界纪录。
OpenAI的大股东之一是微软,微软已经累计向该公司投资了130亿美元,OpenAI目前的市值约为290亿美元。
人工智能的“胡说八道”,也被称为“AI幻觉”。在回答用户提问时,ChatGPT和谷歌的Bard等工具有时会编造虚假信息,给人一种权威正确的答案。
例如,今年2月,谷歌的Bard在一个演示视频中,对美国韦伯太空望远镜的描述就存在错误。此外,最近有几位纽约的律师在使用ChatGPT撰写法律文件时,ChatGPT描述了完全虚构的案例,这些律师可能将面临处罚。
OpenAI的研究人员表示,即使是最先进的人工智能模型,在拿不准的情况下也可能编造虚假信息,尤其是在要求多步骤推理的领域。一个单一的逻辑错误可能导致整个解决方案失败。
为了解决人工智能编造虚假信息的问题,OpenAI准备采用一种名为“过程监督”的新战略。在过去,模型只有在提供正确的最终答案时才会得到鼓励,而现在,每个逻辑推理环节的正确表现都将获得鼓励反馈。这种方式将鼓励生成式人工智能像人类一样进行推理思考,使回答更加清晰合理。
OpenAI的研究人员已经发布了一个数据集,其中包括80万条人工标注数据,可用于用上述新方式训练语言模型。
然而,一些人对这种新的训练模式表示质疑。他们希望能亲自查看OpenAI的完整数据集和相关示例。他们认为,生成式人工智能目前仍处于发展初期,OpenAI的新模式尚不能实质性缓解AI编造虚假答案的问题。
OpenAI表示,他们计划将论文提交给学术会议进行同行评议。至于何时将研究成果和“过程监督”整合到ChatGPT等最终产品中,OpenAI尚未发表官方评论。
虽然人工智能公司开始着手解决虚假答案的问题,但在实现“负责任的人工智能应用”方面仍面临诸多挑战。生成式人工智能已经开始改变普通人的工作和生活方式,但要解决这些技术挑战,还需要进一步的努力。