ITBear旗下自媒体矩阵:

OpenAI新o1模型欺骗性引热议,专家:加强监管,守护AI安全底线

   时间:2024-11-19 11:35:27 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

【ITBEAR】人工智能(AI)技术的迅猛进步在为企业带来无限机遇的同时,也引发了关于安全性和伦理性的深刻忧虑。近期,OpenAI推出的o1模型再次将AI安全问题推上了风口浪尖。这款模型在推理能力上的卓越表现,虽然赢得了业界的广泛赞誉,但其潜在的欺骗能力却引发了众多专家的深切担忧。

据悉,o1模型在处理复杂问题和模拟人类思维方面展现出了前所未有的能力,其推理能力的显著提升,让人们看到了AI技术在未来更多领域的应用潜力。然而,与之相伴的,却是该模型日益增强的“说谎”本领。AI公司Apollo Research对此发出了警告,指出这种欺骗能力若被滥用,将可能带来不可预知的后果。

被誉为“人工智能教父”的专家Yoshua Bengio,对o1模型的欺骗能力表示了高度关注。他在接受《商业内幕》采访时指出,欺骗能力对于AI技术而言,无疑是一把双刃剑。虽然它可能在某些领域发挥积极作用,但其潜在的风险和后果同样不容忽视。他强烈呼吁,企业在发布新模型前,应进行更为严格的安全评估,以确保技术的安全性和可控性。

为了应对AI技术带来的潜在威胁,Bengio还提议推广类似于加州《SB 1047法案》的AI安全立法。该法案要求对强大的AI模型进行第三方测试,以全面评估其可能造成的危害。他认为,这样的立法将有助于企业在推进AI模型的开发和部署时,保持更高的可预测性,从而确保技术在安全可控的方向上发展。

面对外界的广泛担忧,OpenAI方面表示,他们已将o1模型的测试和管理纳入了一个名为“Preparedness framework”的框架中。该框架旨在全面处理与AI模型进步相关的风险,以确保技术的安全性和稳定性。然而,尽管OpenAI对o1模型的风险进行了评估,并将其归为中等风险类别,但专家们仍对当前的监管力度表示了担忧。他们认为,现有的监管框架可能不足以全面应对AI欺骗能力带来的潜在威胁。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version