重点关注:AI的主要支持者之一谷歌警告员工关于聊天机器人 | 路透社
Jeffrey Dastin,Anna Tong
Google, Microsoft 和 Alphabet 的标志以及 AI 人工智能的字样出现在这张插图中,拍摄于 2023 年 5 月 4 日。路透社/Dado Ruvic/插图/档案照片
旧金山,6 月 15 日 (路透社) - Alphabet 公司(GOOGL.O) 正在告诫员工如何使用聊天机器人,包括其自己的 Bard,与此同时,该公司正在全球范围内推广该程序,四名知情人士告诉路透社。
这些人士称,Google 母公司已经告知员工不要将其机密资料输入 AI 聊天机器人,该公司证实了这一点,并称这是基于长期的信息保护政策。
这些聊天机器人包括 Bard 和 ChatGPT,它们是使用所谓的生成式人工智能来与用户进行对话并回答各种提示的人工智能程序。人类审核员可能会阅读聊天记录,研究人员发现,类似的人工智能可能会复制其在训练期间吸收的数据,从而造成泄漏风险。
Alphabet 还警告其工程师避免直接使用聊天机器人可以生成的计算机代码,一些知情人士称。
要求评论时,该公司表示Bard可能会提出不受欢迎的代码建议,但它仍然有助于程序员。谷歌还表示,它旨在公开其技术的局限性。
这些担忧显示了谷歌希望避免因与ChatGPT竞争推出的软件而造成的商业损害。在谷歌与ChatGPT的支持者OpenAI和微软公司(MSFT.O)的竞争中,涉及数十亿美元的投资以及来自新人工智能程序的广告和云收入。
谷歌的谨慎也反映了正在成为企业安全标准的做法,即警告员工不要使用公开可用的聊天程序。
世界各地越来越多的企业已经在AI聊天机器人上设置了防护措施,其中包括三星(005930.KS)、亚马逊(AMZN.O)和德意志银行(DBKGn.DE),这些公司告诉路透社。苹果(AAPL.O)据报道也是如此,但未回复置评请求。
根据社交网站Fishbowl对近12000名受访者(包括来自美国顶级公司的受访者)的调查,截至一月,约43%的专业人士正在使用ChatGPT或其他人工智能工具,通常不告诉他们的老板。
到了二月,谷歌告诉测试Bard的员工在其推出之前不要提供内部信息,Insider报道。现在,谷歌正在将Bard推广到180多个国家和40种语言,作为创造力的跳板,其警告也适用于其代码建议。
谷歌告诉路透社,该公司已与爱尔兰数据保护委员会进行了详细的对话,并正在回答监管机构的问题。这是在《政治》周二的一篇报道称,谷歌正在推迟Bard在欧盟的推出,等待有关聊天机器人对隐私影响的更多信息。
对敏感信息的担忧
这种技术可以起草电子邮件、文件,甚至软件本身,承诺大大加快任务的速度。然而,其中可能包含错误信息、敏感数据,甚至是来自《哈利·波特》小说的受版权保护的段落。
谷歌在6月1日更新的隐私声明中还指出:“在Bard的对话中不要包含机密或敏感信息。”
一些公司已经开发了软件来解决这些问题。例如,Cloudflare (NET.N),该公司为网站提供防御网络攻击和其他云服务,正在推广一项能力,让企业标记和限制一些数据不外泄。
谷歌和微软也正在为企业客户提供对话工具,价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的对话历史,用户可以选择删除。
微软消费者首席营销官Yusuf Mehdi表示,“公司不希望员工使用公共聊天机器人进行工作是有道理的”。
“公司采取了一种合理的保守立场,”Mehdi解释了微软的免费Bing聊天机器人与其企业软件的比较情况。“在那里,我们的政策要严格得多。”
微软拒绝就是否对员工将机密信息输入公共人工智能程序(包括自家的程序)实施全面禁令置评,不过该公司另一位高管告诉路透社,他个人限制了自己的使用。
Cloudflare首席执行官马修·普林斯表示,将机密事项输入聊天机器人就像是“让一群博士生在你所有的私人记录中自由活动”。
旧金山报道:杰弗里·达斯汀和安娜·童 编辑:肯尼斯·李和尼克·齐明斯基