据报道,知情人士表示,谷歌母公司Alphabet在全球范围内推销聊天机器人软件的同时,正警告内部员工在使用Bard等聊天机器人时应该保持谨慎。
(资料图片)
消息称,基于长期以来的信息保密政策,Alphabet建议员工不要将机密信息输入聊天机器人。
包括Bard和ChatGPT在内的聊天机器人可以用与人类类似的风格与用户对话。它们基于生成式人工智能技术,能根据用户输入的提示做出回复。然而在使用聊天机器人的过程中,人工审核员可能会阅读聊天记录。研究人员也发现,人工智能模型可以复制在训练过程中接收的数据,从而产生数据泄露风险。
一些知情人士还说,Alphabet已经提醒工程师,避免直接使用聊天机器人去生成软件代码。
对于这一消息,Alphabet回应称,Bard可能会提出不合适的代码建议,但仍可以给程序员带来帮助。此外,该公司的目标是对技术局限性保持透明的态度。
这一消息表明,尽管谷歌推出了自己的软件与ChatGPT竞争,但谷歌也极力避免这样的软件对公司业务造成损害。谷歌正在与ChatGPT的开发者OpenAI和微软(348.1,10.76,3.19%)展开竞争,新的人工智能软件将对广告和云计算行业造成深远影响。
这也表明,在面对生成式人工智能技术时,企业正在制定新的信息安全标准,包括要求员工不使用公开的聊天机器人软件。
三星、亚马逊(127.11,0.69,0.55%)和德意志银行等公司都表示,全球越来越多的企业已经针对人工智能聊天机器人设置了“护栏”。有消息称,苹果(186.01,2.06,1.12%)也采取了类似做法。
社交网站FishBowl对近1.2万名受访者进行的一项调查显示,截至今年1月,大约43%的专业人士正在使用ChatGPT或其他人工智能工具,并且通常不会告知他们的老板。受访者中包括部分美国大公司的员工。
今年2月,谷歌曾对测试Bard聊天机器人的员工表示,在Bard推出之前不要向其输入内部信息。目前,谷歌正在180多个国家推出40多个语言版本的Bard,辅助用户的创意工作。但同时,谷歌对内部员工的警示已经拓展到了Bard提供的代码建议。
谷歌表示,该公司已经与爱尔兰数据保护委员会进行了具体的对话,正在回答监管机构的问题。本周二有报道称,谷歌将推迟本周在欧盟推出Bard的计划,等待有关聊天机器人隐私问题的更多信息。
生成式人工智能技术可以起草电子邮件、文档,甚至开发软件本身,从而极大地加快任务的执行速度。然而,人工智能生成的内容中可能包含错误信息、敏感数据,以及《哈利波特》等小说中受版权保护的段落。
谷歌在6月1日更新的隐私声明中也写道:“不要在与Bard的对话中包含机密或敏感信息。”
一些公司已经开发软件来解决这方面担忧。例如,信息安全公司Cloudflare正在推广一项新服务,帮助企业标记和限制数据的对外流动。
谷歌和微软同时也在向商业客户提供非公开的人工智能对话工具。这些工具的价格更高,但不会将数据吸收到公开的人工智能模型中。Bard和ChatGPT的默认设置会保存用户的对话历史,用户可以选择删除。
微软消费者业务首席营销官优素福·迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作时使用公开的聊天机器人,这是“有道理的”。他解释了微软免费的必应聊天机器人与企业版软件的不同,并表示:“公司采取适当的保守立场,(企业软件)的政策要严格得多。”
微软拒绝回应,是否会全面禁止员工将机密信息输入公开的人工智能软件,包括微软自己的软件。不过微软的另一名高管表示,他个人会限制对公开聊天机器人的使用。
Cloudflare首席执行官马修·普林斯(Matthew Prince)说,在聊天机器人上输入机密信息就像“让一群博士生获得你的所有私人记录”。