FX168财经报社(北美)讯 四名知情人士告诉路透社,Alphabet公司在全球推广聊天机器人的同时,也在提醒员工如何使用聊天机器人,包括自己的聊天机器人Bard。
知情人士表示,谷歌已建议员工不要将机密材料输入人工智能聊天机器人,谷歌公司援引了长期以来的信息保护政策。
包括Bard和ChatGPT在内的聊天机器人都是人工智能程序,它们使用所谓的生成式人工智能与用户对话,回答无数的问题。人类评审员可能会阅读聊天记录,研究人员发现,类似的人工智能可以复制它在训练期间吸收的数据,从而产生泄漏风险。
一些知情人士说,Alphabet还提醒其工程师避免直接使用聊天机器人可以生成的计算机代码。
在被问及对此的评论时,Alphabet公司表示,Bard可能会提出一些不受欢迎的代码建议,但它还是为程序员提供帮助。谷歌还表示,它的目标是对其技术的局限性保持透明。
谷歌希望避免其在与ChatGPT竞争中推出的软件对公司业务造成损害。谷歌与ChatGPT的支持者OpenAI和微软公司之间的竞争关系到数十亿美元的投资,以及新人工智能项目带来的尚不可知的广告和云收入。
谷歌的谨慎也反映出企业正在成为一种安全标准,即警告员工不要使用公开的聊天程序。三星、亚马逊和德意志银行等公司对路透社表示,全球越来越多的企业已经对人工智能聊天机器人设置了“护栏”。
社交网站Fishbowl对近1.2万名受访者进行的一项调查显示,截至今年1月,约43%的专业人士正在使用ChatGPT或其他人工智能工具,而且往往没有告诉他们的老板。受访者中包括来自美国顶级公司的受访者。
据Insider报道,到今年2月,谷歌告诉在发布前测试Bard的员工不要透露内部信息。现在谷歌正在180多个国家以40种语言推出Bard,警告延伸到了代码建议上。
谷歌告诉路透社,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。此前,Politico网站周二(6月13日)报道称,谷歌将推迟本周在欧盟的发布,等待更多有关聊天机器人对隐私影响的信息。
人工智能技术可以起草电子邮件、文件,甚至软件本身,有望大大加快任务速度。然而,这些内容中可能包含错误信息、敏感数据,甚至是《哈利波特》小说中受版权保护的段落。
6月1日更新的谷歌隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”一些公司已经开发了软件来解决这些问题。例如保护网站免受网络攻击并提供其他云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记并限制其向外部流动。
谷歌和微软(也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的对话历史记录,用户可以选择删除。
微软消费者业务首席营销官Yusuf Mehdi表示,公司不希望员工在工作中使用公共聊天机器人是“有道理的”。Mehdi在解释微软免费的必应(Bing)聊天机器人与其企业软件的比较时说:“公司采取了适当的保守立场,我们的政策要严格得多。”