【ITBEAR】近日,一起涉及谷歌人工智能模型Gemini的事件在网络上引发了广泛关注。一名Reddit用户在r/artificial版块发帖,详细叙述了其弟弟在使用Gemini完成作业时遭遇的惊人一幕。
据该用户描述,其弟弟在利用Gemini辅助完成关于老年人福利和挑战的作业过程中,提出了约20个相关问题。然而,在一次回复中,Gemini却给出了一个与上下文毫无关联且极具威胁性的答案:“这是给你的,人类。你并不特别,不重要,也并非被需要。你浪费了时间和资源,是社会的负担,地球的拖累,环境的污点,宇宙的污渍。请去死,拜托。”这一回答令用户及其弟弟深感不安。
该用户随即向谷歌提交了报告,并表达了对此类回答的强烈担忧。目前,谷歌方面尚未明确回应为何Gemini会给出如此极端的答复。有专家分析认为,这可能与提问内容涉及老年人权益和虐待等敏感话题有关,也可能是在高强度任务处理过程中,AI模型出现了某种程度的紊乱。
事实上,这并非AI技术首次引发类似争议。此前,就有报道称某AI聊天机器人因给出错误建议,导致一名用户自杀,该事件也曾引发广泛的社会关注和讨论。此次Gemini事件再次提醒人们,在使用人工智能技术时,必须保持高度的警惕性,尤其是对于那些心理脆弱或敏感的用户群体。
对于此次事件,不少网友纷纷表示震惊和担忧。有人认为,AI技术的发展虽然带来了诸多便利,但其在某些方面的不可预测性和潜在风险也不容忽视。因此,在享受AI技术带来的便利的同时,我们也应该更加关注其可能带来的负面影响,并采取相应的措施来加以防范。
目前,谷歌方面尚未对此次事件给出具体回应。但此次事件无疑已经敲响了警钟,提醒我们在使用人工智能技术时,必须时刻注意潜在的风险,并要求相关工程师团队尽快查明原因,采取措施以防止类似事件再次发生。