据报道,知情人士表示,谷歌母公司Alphabet在全球范围内推销聊天机器人软件的同时,正警告内部员工在使用Bard等聊天机器人时应该保持谨慎。

消息称,基于长期以来的信息保密政策,Alphabet建议员工不要将机密信息输入聊天机器人。

包括Bard和ChatGPT在内的聊天机器人可以用与人类类似的风格与用户对话。它们基于生成式人工智能技术,能根据用户输入的提示做出回复。然而在使用聊天机器人的过程中,人工审核员可能会阅读聊天记录。研究人员也发现,人工智能模型可以复制在训练过程中接收的数据,从而产生数据泄露风险。

一些知情人士还说,Alphabet已经提醒工程师,避免直接使用聊天机器人去生成软件代码。

对于这一消息,Alphabet回应称,Bard可能会提出不合适的代码建议,但仍可以给程序员带来帮助。此外,该公司的目标是对技术局限性保持透明的态度。

这一消息表明,尽管谷歌推出了自己的软件与ChatGPT竞争,但谷歌也极力避免这样的软件对公司业务造成损害。谷歌正在与ChatGPT的开发者OpenAI和微软展开竞争,新的人工智能软件将对广告和云计算行业造成深远影响。

这也表明,在面对生成式人工智能技术时,企业正在制定新的信息安全标准,包括要求员工不使用公开的聊天机器人软件。

来源:新浪科技