【ITBEAR】9月2日消息,微软公司副总裁Vik Singh近日在访谈中谈及了生成式AI聊天机器人在面对不确定性时的应对策略。他提出,这类AI在遇到无法确定的答案时,应学会寻求外界帮助,而非自行编造信息,这一观点凸显了提升AI应用准确性和可靠性的重要性。
尽管诸如ChatGPT和Gemini等生成式AI在内容生成上取得了长足进步,但“幻觉”问题依旧存在,即它们有时会给出错误或具有误导性的信息。据ITBEAR了解,这些问题的根源主要在于训练数据的不准确、AI的泛化能力欠缺,以及数据采集过程中可能产生的副作用。
Singh强调,目前行业内的聪明人正在探索新方法,以使聊天机器人在无法确定答案时能够坦诚地承认并寻求协助。这种努力是为了增强AI聊天机器人的实用性,并提高用户对它们的信任度。
Salesforce的CEO Marc Benioff也指出,越来越多的客户对微软Copilot的误导性表现表示不满。这一趋势显示出,在AI技术日益普及的今天,解决错误信息问题已成为整个行业亟待解决的挑战。
随着AI和聊天机器人在各领域的广泛应用,确保它们所提供信息的准确性和可靠性变得至关重要。当前,业界正在不断努力改进AI技术,旨在降低由错误信息引发的风险,并致力于提升用户的整体体验。