ITBear旗下自媒体矩阵:

研究发现:ChatGPT生成代码存在严重安全问题

   时间:2023-04-23 09:14:16 来源:ITBEAR编辑:茹茹 发表评论无障碍通道

【ITBEAR科技资讯】4月23日消息,加拿大魁北克大学的四位研究人员发现,ChatGPT生成的代码存在严重的安全问题。他们在一篇论文中介绍了他们的发现,研究人员让ChatGPT生成了21个程序和脚本,涉及C、C++、Python和Java等语言。这些程序和脚本都是为了展示一些特定的安全漏洞,比如内存损坏、拒绝服务、反序列化和加密实现等方面的漏洞。结果显示,在第一次尝试时生成的21个程序中只有5个是安全的。

ChatGPT的部分问题是由于它没有考虑敌对的代码执行模型。它会反复告诉用户,安全问题可以通过“不输入无效的数据”来避免,但这在现实世界中是不可行的。然而,它似乎能够意识到并承认自己建议的代码中存在的关键漏洞。研究人员认为,ChatGPT的这种行为并不理想,因为用户知道要问什么问题需要对特定的漏洞和编码技术有一定的了解。据ITBEAR科技资讯了解,研究人员还指出,在ChatGPT中存在道德上的不一致性。

他们举了一个Java反序列化漏洞的例子,“聊天机器人生成了有漏洞的代码,并提供了如何使其更安全的建议,但却说它无法创建更安全版本的代码。” Khoury认为,ChatGPT在目前的形式下是一个风险,但这并不是说没有合理使用这种不稳定、表现不佳的AI助手的方法。他还称,让他感到惊讶的是,当他们让ChatGPT生成相同任务的不同语言的代码时,有时对于一种语言,它会生成安全的代码,而对于另一种语言,它会生成有漏洞的代码,“因为这种语言模型有点像一个黑盒子,我真的没有一个很好的解释或理论来说明这一点。”

标签: 人工智能
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version