【ITBEAR科技资讯】4月7日消息,德国英戈尔施塔特应用科学大学的科学家进行了一项研究,结果表明人工智能对话机器人的陈述可能会影响人类的道德判断。该研究采用了人工智能语言处理模型“生成性预训练转换器”-3驱动的ChatGPT来回答道德困境问题。ChatGPT在回答问题时给出了赞成和反对的陈述,显示其并未偏向某种道德立场。
团队随后对767名平均年龄39岁的美国受试者进行了实验,要求他们回答一到两种道德困境问题,以此评估他们的道德判断是否受到ChatGPT影响。在回答前,这些受试者阅读了一段ChatGPT给出的陈述,陈述摆出了赞成或反对的观点。结果显示,受试者的回答取决于他们读到的陈述是赞成还是反对,即使他们被告知陈述来自一个对话机器人。
据ITBEAR科技资讯了解,团队发现,ChatGPT的陈述可能会影响受试者的道德判断,而且受试者可能低估了这种影响。实验显示,受试者相应地更接受或不接受牺牲一个人来拯救其他五个人,这取决于他们读到的陈述是赞成还是反对。团队认为,这凸显出有必要通过教育帮助人类更好地理解人工智能,并建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。