【ITBEAR科技资讯】6月16日消息,据报道,谷歌母公司Alphabet正全球范围内推广其聊天机器人软件,与此同时,该公司也在内部提醒员工在使用Bard等聊天机器人时需谨慎行事。
知情人士透露,基于长期以来的信息保密政策,Alphabet建议员工不要在聊天机器人中输入机密信息。Bard和ChatGPT等聊天机器人可以以人类类似的风格与用户对话,凭借生成式人工智能技术,它们能根据用户的提示作出回复。然而,在聊天机器人使用过程中,人工审核员可能会查阅聊天记录。研究人员还发现,人工智能模型能够复制其在训练过程中接触到的数据,从而引发数据泄露的风险。
据ITBEAR科技资讯了解,一些知情人士称,Alphabet已提醒工程师们避免直接使用聊天机器人生成软件代码。Alphabet对此回应称,Bard可能会提供不合适的代码建议,但仍然能够为程序员们提供帮助。此外,该公司致力于保持对技术局限性的透明态度。
这一消息表明,尽管谷歌推出了与ChatGPT竞争的自家软件,但谷歌也在竭力避免该软件对其业务造成损害。谷歌目前正与ChatGPT的开发者OpenAI和微软展开竞争,这些新的人工智能软件将对广告和云计算行业带来深远影响。
此外,该消息还显示,在面对生成式人工智能技术时,企业正在制定新的信息安全标准,包括要求员工不使用公开的聊天机器人软件。
一些公司,如三星、亚马逊和德意志银行等,已表示已针对人工智能聊天机器人设立了"护栏"。有消息称,苹果也采取了类似措施。
据社交网站FishBowl对近1.2万名受访者进行的一项调查显示,截至今年1月,大约43%的专业人士正在使用ChatGPT或其他人工智能工具,通常不会告知他们的老板。受访者中包括部分美国大公司的员工。
谷歌曾在今年2月要求测试Bard聊天机器人的员工,在Bard发布之前不要将内部信息输入其中。目前,谷歌正在全球180多个国家推出40多个语言版本的Bard,用于辅助用户的创意工作。然而,谷歌对内部员工的警示已扩展至Bard提供的代码建议。
谷歌表示,该公司已与爱尔兰数据保护委员会进行具体对话,正回答监管机构的问题。据本周二的报道称,谷歌将推迟在欧盟推出Bard的计划,以等待有关聊天机器人隐私问题的更多信息。
生成式人工智能技术可以用于起草电子邮件、文档甚至开发软件本身,极大地提升任务执行速度。然而,人工智能生成的内容中可能包含错误信息、敏感数据以及《哈利波特》等受版权保护的段落。
在6月1日更新的隐私声明中,谷歌写道:"在与Bard的对话中请不要包含机密或敏感信息"。
一些公司已开发软件以解决相关担忧。例如,信息安全公司Cloudflare正在推广一项新服务,帮助企业标记和限制数据的外流。
谷歌和微软也同时向商业客户提供非公开的人工智能对话工具。这些工具价格更高,但不会将数据吸收到公开的人工智能模型中。Bard和ChatGPT的默认设置会保存用户的对话历史,用户可以选择删除。
微软消费者业务首席营销官优素福·迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作时使用公开的聊天机器人,这是"有道理的"。他解释了微软免费的必应聊天机器人与企业版软件的区别,并表示:"公司采取适当的保守立场,(企业软件)的政策要严格得多"。
微软拒绝回应是否会全面禁止员工将机密信息输入公开的人工智能软件,包括微软自己的软件。不过,微软的另一名高管表示他个人会限制对公开聊天机器人的使用。
Cloudflare首席执行官马修·普林斯(Matthew Prince)表示,在聊天机器人上输入机密信息就像"让一群博士生获得你的所有私人记录"。