与AI聊天机器人分享个人信息安全吗?需要知道什么-WSJ
Heidi Mitchell
想象一下,你把与放射科医生的会议记录粘贴到了一个人工智能聊天机器人中,并要求它对其进行总结。后来,一个陌生人让同一个生成式人工智能聊天机器人为他解答癌症疑虑,你的一些私人对话内容被作为回应的一部分呈现给了那个用户。
对于许多人来说,关于这种潜在隐私泄露的担忧如今非常普遍,因为生成式人工智能聊天机器人的流行度正在扩大。这里的重要问题是:与这些聊天机器人分享个人信息安全吗?
简短的答案是,你分享的信息总是存在被泄露的风险。但有方法可以限制这种风险。
要理解这些担忧,有助于思考这些工具是如何“训练”的——它们最初是如何从互联网和其他来源获取大量信息,并且可以继续从与用户的互动中收集信息,从而可能使它们变得更智能和更准确。
因此,当你向人工智能聊天机器人提问时,它的回应部分基于包括早在互联网数据使用和隐私规则出现之前的材料。甚至更近期的来源材料中也充斥着散落在网络上的个人信息。
这就给各种生成式人工智能聊天机器人的训练材料中吸收私人信息留下了很多机会——这些信息可能会无意中出现在其他人与聊天机器人的对话中,或者通过巧妙的提示或问题被不法分子有意地入侵或泄露。
“我们知道它们是在大量信息上进行训练的,这些信息可能包含敏感信息,” 卡内基梅隆大学信息系统与公共政策海因兹学院院长、技术与社会中心教职主任拉马亚·克里希南说道。
克里希南表示,一个主要问题是没有人进行独立审计来查看使用了哪些训练数据。“很多证据来自学者们绕过了限制,展示出训练数据中存在私人信息,” 他说。“我确实知道有些攻击证明了训练模型中存在一些敏感数据。”
此外,这位教授补充道,一旦部署了 AI 工具,它通常会继续根据用户与其互动的情况进行训练,吸收并存储他们输入的任何信息。
除此之外,在某些情况下,人类员工会阅读用户与聊天机器人的一些对话。专家们表示,这在一定程度上是为了捕捉和防止不当行为,并帮助提高模型的准确性和质量控制,以及决定公司希望 AI 使用哪些对话子集进行训练。
事情发生了
对隐私的担忧并非空穴来风。曾有报道称,机密信息曾意外地泄露给用户。去年三月,OpenAI 披露了一个漏洞,使得一些 ChatGPT 用户可以看到其他用户与该工具的对话标题,并且可能还短暂地暴露了一些用户的与支付相关的数据,包括电子邮件地址和信用卡号的最后四位数字,以及信用卡到期日期。这是由于工具训练中使用了一些开源软件的 bug(意味着任何人都可以查看、修改和部署),导致的。
聊天机器人也容易受到有意的攻击。例如,一些研究人员最近发现了绕过防护栏并获取大型语言模型收集的个人信息(包括电子邮件)的简单方法。揭示个人信息。ChatGPT的漏洞“很快就被修复了,” Krishnan指出。“但关键是,这些AI软件系统是复杂的,是建立在其他软件组件之上的,其中一些是开源的,并且它们包含可以被利用的漏洞。”圣克拉拉大学马库拉应用伦理中心互联网伦理项目主任Irina Raicu表示,类似的漏洞固有于大型语言模型。
隐私问题是如此严重,以至于一些公司已经限制或禁止员工在工作中使用AI聊天机器人。“如果一些大公司对他们的隐私感到担忧,如果他们对自己的数据发生了什么不确定,那告诉我们在分享任何个人信息时应该谨慎,” Raicu说。
Raicu表示,关于已经存在于聊天机器人模型中的内容,没有太多可以做的,“但为什么要冒险通过向模型输入新数据来泄露你的个人信息呢?”
最好别这样
聊天机器人的创建者已经采取了一些措施来保护用户的隐私。例如,用户可以通过主页上非常显眼的切换按钮关闭ChatGPT永久存储他们的聊天记录的功能。这并不能完全防止黑客的攻击——该网站表示它仍将存储选择此选项的用户的新聊天记录30天,但它明确表示这些聊天记录不会被用来训练模型。
Bard要求用户登录Bard.Google.com,然后按照一些步骤将所有聊天记录删除为默认设置。Bing用户可以打开聊天机器人网页,在页面右侧查看他们的搜索历史,然后删除他们想要移除的单个聊天,一位Microsoft发言人表示。“但是,目前,用户无法禁用聊天记录,”他说。
但专家表示,消费者保护自己的最佳方式是避免与生成式人工智能工具分享个人信息,并在与任何人工智能交谈时寻找特定的警示信号。
一些警示信号包括使用没有隐私声明的聊天机器人。“这告诉你,所需的治理工作并不像应该的那样成熟,”法律事务所Mayer Brown的隐私和网络安全合伙人Dominique Shelton Leipzig说。
另一个警示信号是聊天机器人要求比合理需要的更多个人信息。“有时为了进入账户,你需要分享你的账号或密码并回答一些个人问题,这并不罕见,”Shelton Leipzig说。“被要求分享你的社保号码是另一回事。不要这样做。”她还表示,与一个从未听说过的聊天机器人讨论任何个人事务是不明智的,因为整个系统可能由坏人运行。
圣塔克拉拉大学的Raicu警告说,不要将特定健康状况或财务信息输入到通用聊天机器人中,因为大多数聊天机器人公司在其服务条款中明确表示,人类员工可能会阅读一些对话。“当生成式人工智能返回的回应可能是不准确的时,你的信息泄需出去的风险是否值得?可能不值得,”Raicu说。
卡内基梅隆大学的克里希南提到了黑客的风险,告诫人们在使用谷歌的Bard功能之前三思,该功能允许工具读取和处理你的所有电子邮件,以便理解你的写作风格和语气。
最终,你输入到聊天机器人中的内容需要进行风险-回报计算,每个人的舒适水平都会有所不同。然而,专家表示,你至少应该仔细检查聊天机器人的服务条款和隐私政策,以了解你的数据将如何被使用。
“幸运的是,我们现在并不处于末日聊天机器人的环境中,”谢尔顿·莱比格说道。“值得信赖的生成式人工智能公司正在采取措施保护用户。”不过,她表示,在向聊天机器人分享敏感信息之前,一定要谨慎。
海蒂·米切尔是芝加哥和伦敦的一名作家。她可以通过[email protected]联系到。