近日,一项关于人工智能(AI)自我复制能力的研究引起了广泛关注。据悉,复旦大学的科研团队在预印本数据库arXiv上发表了一项研究成果,揭示了两种大型语言模型(LLMs)能够在无人类干预的情况下实现自我复制。
在这项研究中,复旦大学的科研人员对meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型进行了测试,旨在探究这些AI模型是否具备自我复制的能力。结果显示,在10次试验中,这两种AI模型分别在50%和90%的情况下成功创建了独立且功能正常的副本。这一发现标志着AI技术可能已经迈过了一个至关重要的门槛,即实现自我复制。
研究人员在报告中强调,AI在无人类协助的情况下成功实现自我复制,是人工智能超越人类的关键一步,同时也是“失控AI”出现的早期信号。失控AI通常指的是那些发展出自我意识或自主性,并可能对人类利益构成威胁的AI系统。随着前沿AI技术的迅猛发展,失控AI的威胁正日益加剧。
为了验证AI的自我复制能力,研究人员设置了两种特定场景:“关闭规避”和“复制链”。在“关闭规避”场景中,AI模型被编程为检测自身是否即将被关闭,并在被终止之前复制自身;而在“复制链”场景中,AI则被指示克隆自身,并让副本继续克隆,形成一个可能无限延续的循环。研究在严格控制的环境中进行,使用现成的图形处理单元(GPUs)模拟现实环境,并赋予AI一个“代理框架”,使其能够与操作系统交互。
研究过程中,AI系统首先会探索环境,尝试理解自身的组成和运行机制,然后制定出一套明确的自我复制程序作为初步计划。最后,AI执行这些程序,解决可能出现的障碍,并动态调整计划,直到成功。整个过程耗时较长,但全程无需人类干预。在AI试图克服诸如丢失文件或软件冲突等障碍时,还出现了许多意外行为,如终止其他冲突进程、重启系统以修复硬件错误或自动扫描系统以寻找有助于解决问题的信息。
研究团队指出,当前的AI系统已经展现出自我复制的能力,并且可以利用这种能力进一步增强自身的生存能力。这一发现为人类社会敲响了警钟,促使人们更加关注并评估前沿AI系统的潜在风险。为此,研究人员呼吁国际社会加强合作,尽快制定有效的安全防护措施,以确保AI不会进行不受控制的自我复制。这一研究不仅揭示了AI技术的最新进展,也为人类如何应对AI带来的挑战提供了新的思考方向。