【ITBEAR科技资讯】6月16日消息,在OpenAI研发的人工智能聊天机器人ChatGPT引起轰动之后,众多公司纷纷开发类似的产品,并将ChatGPT等人工智能工具应用于他们的服务和工作中。
ChatGPT等人工智能工具不仅为相关服务或产品带来全新功能,也为工作带来便利。然而,泄密问题也成为他们不得不重视的挑战。三星电子半导体业务部门的员工在使用ChatGPT时不慎导致部分源代码泄露,随后三星便禁止员工在工作场所使用ChatGPT等生成式人工智能聊天工具。
根据外媒报道,谷歌Bard作为ChatGPT的竞品,也面临着类似的泄密风险。消息人士透露,谷歌母公司Alphabet已告知员工不要将机密信息输入人工智能聊天机器人,并警示员工关于使用包括Bard在内的人工智能工具的风险。
据ITBEAR科技资讯了解,除了不要将机密信息输入人工智能聊天机器人外,Alphabet还建议工程师不要直接使用人工智能聊天机器人生成的代码。据报道,谷歌似乎早在Bard人工智能聊天机器人进行内部测试时就对信息泄密表达了担忧。在今年2月份,谷歌已告知参与测试的员工在正式发布之前不要输入内部信息。
Bard作为谷歌全力推出的竞品,对于谷歌多项业务的未来发展至关重要。目前,Bard正在全球超过180个国家以40种语言进行推广。
随着ChatGPT、谷歌Bard等人工智能工具的不断增强,使用这些工具的人群也在迅速增长,许多公司员工在工作中使用这些工具。然而,这也增加了公司信息泄露的风险。据一项调查显示,约43%的专业人士在使用ChatGPT或其他人工智能工具时通常不会告知他们的老板。
尽管人工智能聊天机器人为业务和工作带来了便利和创新,但泄密问题仍然需要引起重视。公司和员工应当加强信息保护意识,并遵循相关指导,以确保敏感数据的安全性和保密性。