【ITBEAR科技资讯】5月4日消息,随着生成式AI的普及,这种技术的安全风险和隐私问题也逐渐浮出水面。近日,三星电子发布了一项新规,禁止员工使用流行的生成式AI工具,如ChatGPT、Google Bard和Bing等。
据ITBEAR科技资讯了解,三星电子此举是为了避免员工使用这些工具导致公司数据外泄和安全风险。此前三星电子引入聊天型机器人ChatGPT后不到20天时间,就曝出有机密数据外泄,甚至有员工将代码上传。内部调查显示,有65%的受访者认为使用AI工具存在安全风险。
因此,三星电子的新规禁止在公司所属的电脑、平板电脑、电话及内部网络使用生成式AI系统。但不影响出售给消费者的设备,由用户自行决定。三星电子已通知公司最大的部门,并敦促他们遵守这项规定,避免安全事故的发生。
值得注意的是,三星电子并非唯一一家对生成式AI技术的安全性存疑的公司。摩根大通、美国银行和花旗等华尔街大行已经限制或禁止使用ChatGPT等生成式AI工具。尽管这些工具具有智能的表现力,但它们背后的算法和模型复杂,难以完全解释,因此难以控制其输出内容的准确性和安全性。