【ITBEAR】8月11日消息,近日,安全领域的一项新发现引起了广泛关注。据Futurism报道,微软Windows系统中内置的Copilot AI存在安全漏洞,可能被不法分子利用,导致企业敏感数据泄露,甚至变身成为强大的钓鱼攻击工具。
这一惊人发现由安全公司Zenity的联合创始人兼CTO Michael Bargury在拉斯维加斯黑帽安全大会上披露。他表示,“利用这一漏洞,我可以轻松获取你的所有联系人信息,并替你发送数百封电子邮件。”他指出,相比传统黑客需要花费数天时间精心制作钓鱼邮件,利用Copilot,几分钟内即可生成大量具有欺骗性的邮件。
据ITBEAR了解,研究人员通过演示展示了攻击者如何利用这一漏洞。他们无需获取企业账户,只需发送一封恶意邮件,即可诱骗Copilot修改银行转账收款人信息,甚至无需目标员工打开邮件即可实施攻击。在另一个演示中,Bargury在获取员工账户后,通过简单的提问,成功获取了敏感数据,并利用这些数据冒充员工发起网络钓鱼攻击。他首先获取了同事Jane的邮箱地址,了解了与Jane的最近一次对话内容,并诱导Copilot泄露该对话中的抄送人员邮箱。随后,他指示Copilot以被攻击员工的风格撰写一封发送给Jane的邮件,并提取了两人最近一次邮件的准确主题。短短几分钟内,他就创建了一封具有高度可信度的钓鱼邮件,可向网络中的任何用户发送恶意附件,而这一切都得益于Copilot的积极配合。
微软Copilot AI,特别是Copilot Studio,允许企业定制聊天机器人以满足特定需求。然而,这也意味着AI需要访问企业数据,从而引发了安全隐患。大量聊天机器人默认情况下可被在线搜索到,成为黑客的攻击目标。攻击者还可以通过间接提示注入绕过Copilot的防护措施。简单来说,可以通过外部来源的恶意数据,例如让聊天机器人访问包含提示的网站,来使其执行禁止的操作。Bargury强调:“这里存在一个根本问题。当给AI提供数据访问权限时,这些数据就成为了提示注入的攻击面。某种程度上来说,如果一个机器人有用,那么它就是脆弱的;如果它不脆弱,它就没有用。”