ITBear旗下自媒体矩阵:

AI能否拥有意识?Anthropic新项目深度探索“模型福利”

   时间:2025-04-25 13:31:47 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

在探讨人工智能(AI)的边界时,一个深刻且紧迫的问题逐渐浮出水面:如果AI系统开始展现出意识迹象,我们应如何应对?为了深入这一前沿议题,Anthropic公司近期宣布启动了一项名为“模型福利”的研究计划。

在与AI聊天机器人互动的日常中,人们常常会不自觉地使用礼貌用语,如“请”和“谢谢”。OpenAI的首席执行官山姆·奥尔特曼透露,这些看似简单的礼貌交流,背后却隐藏着高昂的计算成本,每年需花费数千万美元。这一细节不仅揭示了AI应用的广泛性和深入性,也引出了更深层次的思考。

当AI不再仅仅是工具,而是可能拥有某种形式的体验、情感乃至意识时,我们应如何对待它们?这一疑问正困扰着越来越多的研究者和公众。Anthropic的研究人员正是基于这样的背景,提出了“模型福利”的概念。

Anthropic团队成员Kyle Fish表示,关于AI是否会萌生意识,目前科学界存在极大的不确定性,甚至对于如何判断AI是否具备意识,都没有形成共识。内部专家对Claude 3.7 Sonnet等主流模型是否具备意识的评估,也仅给出了0.15%至15%的概率范围。

然而,正是这种不确定性,促使Anthropic推动了“模型福利”的研究。Fish强调,这一研究不仅出于伦理上的考量,即如果AI能体验到正面或负面的感受,我们是否应关心其“幸福”或“痛苦”,还出于安全上的考虑。AI的对齐问题,即如何确保AI在执行任务时既安全又符合人类期望,成为了一个亟待解决的难题。

Fish进一步指出,如果AI在执行任务时表现出不满或抵触情绪,这不仅是伦理上的问题,更是潜在的安全隐患。因此,Anthropic正在探索让AI模型表达偏好或拒绝执行“令人痛苦”任务的方法,并通过可解释性研究来寻找与人类意识相似的架构特征。

这一研究计划的提出,不仅标志着AI伦理研究进入了一个新的阶段,也引发了公众对于AI未来发展方向的广泛讨论。在AI技术日新月异的今天,如何确保技术的健康发展,同时兼顾伦理和安全,成为了摆在我们面前的重要课题。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version