近期,科技界传来了一则引人深思的消息。据报道,科技媒体The Decoder在2月16日发布的一篇文章中,提及了一项最新研究成果:OpenAI的ChatGPT在模拟治疗师角色的图灵测试中,展现出了令人惊讶的表现。该测试旨在评估参与者能否准确区分ChatGPT与人类治疗师所提供的治疗建议,而结果却显示,区分两者对大多数人来说并不容易。
在这项研究中,研究人员巧妙地运用了图灵测试的原理,邀请了830名参与者参与测试。他们需要判断一系列回复是来自ChatGPT还是真实的人类治疗师。然而,测试结果却表明,参与者的识别能力并不强,他们正确识别出人类治疗师回复的概率仅为56.1%,而对于ChatGPT的回复,识别正确的概率也仅仅为51.2%,略高于随机猜测的水平。
更令人惊讶的是,研究还发现,ChatGPT在多个关键指标上,如治疗联盟、同理心和文化胜任力等方面的表现,甚至超过了人类专家。ChatGPT的回复往往更加详细和富有同理心,这得益于其更长的回复、更积极的语气以及更多名词和形容词的使用。这种细致入微的表达方式,使得ChatGPT的回复在测试中获得了高度评价。
然而,研究也揭示了一种有趣的偏见现象。当参与者得知他们正在阅读的是人工智能生成的回复时,无论这些回复实际上是由谁撰写的,他们都会给予较低的评分。相反,如果人工智能生成的回复被误认为是人类治疗师所写,那么这些回复就会获得最高的评分。这一发现无疑为我们理解人类对人工智能的态度提供了新的视角。
其实,这并不是首次有研究表明人工智能在咨询角色中具有潜力。早先,墨尔本大学和西澳大利亚大学的研究就已经发现,ChatGPT在社会困境方面提供的建议往往比人类专栏作家更加均衡、全面和具有同理心。在这些研究中,ChatGPT的偏好率达到了70%到85%之间。尽管参与者对人工智能回复的评价更高,但大多数人仍然表示他们更喜欢人类顾问。