【ITBEAR科技资讯】5月2日消息,据彭博社报道,韩国三星公司已经内部通知员工停止使用生成式AI工具ChatGPT和Bard等,理由是担心这些工具会带来安全隐患。
据悉,三星此举是在上个月发生代码泄露事件后采取的“亡羊补牢”措施。据一些消息人士透露,在引入ChatGPT仅仅20天后,三星就发生了3起涉及该工具的事件,其中有两起涉及到半导体设备,还有一起涉及到会议内容。
内部备忘录显示,三星担心使用这些生成式AI工具会导致数据传输到外部服务器上,存储在那里的数据很难被检索和删除,最终可能会泄露给其他用户。因此,三星上个月进行了一项关于内部使用AI工具的调查,其中65%的受访者认为这类服务存在安全风险。
据ITBEAR科技资讯了解,三星正在开发自己的内部AI工具,用于翻译和总结文件以及软件开发,同时还在研究阻止敏感公司信息上传到外部服务的方法。该公司正在审查安全措施,以创造一个安全的环境,以安全地使用生成式AI来提高员工的生产力和效率。但在准备好这些措施之前,三星暂时限制了生成式AI的使用。
据报道,三星的新政策禁止在公司自有的电脑、平板电脑和手机以及内部网络上使用生成式AI系统,不过这不会影响销售给消费者的设备,例如Android智能手机和Windows笔记本电脑。值得一提的是,三星在消费者设备中积极推广生成式AI,最近向旗下所有的手机以及平板电脑产品推送了微软Bing AI更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软Bing AI。
三星代表向彭博社证实了这份内部备忘录,并表示“我们要求您认真遵守我们的安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。”三星正在努力加强其安全措施,以保护公司和员工的信息安全。