ChatGPT的进展将AI虚假信息风险置于聚光灯下 - 彭博社
Joshua Brustein
图片插图:731;照片:Alamy2015年1月,新成立的、名字宏大的未来生命研究所(FLI)邀请人工智能专家在波多黎各圣胡安度过一个长周末。结果是一张合影,一份 研究优先事项清单以及一封关于如何调整人工智能研究以获得最大人类利益的公开信。这些文件的语气主要是乐观的。FLI预料到的潜在挑战之一是自动驾驶汽车将美国每年的4万起汽车死亡事故减少一半,不是“收到2万封感谢信,而是2万起诉讼。”该信承认很难预测人工智能对人类文明的确切影响会是什么——它列出了一些潜在的颠覆性后果——但也指出“消灭疾病和贫困并非难以想象。”
FLI于3月29日发布的公开信有所不同。该团体警告称,人工智能实验室正在参与“一个失控的竞赛,开发和部署越来越强大的数字思维,甚至它们的创造者也无法理解、预测或可靠控制。”它呼吁立即暂停最先进的人工智能研究,吸引了成千上万的签名,包括该领域许多知名人士,以及一轮主流媒体报道。
对于试图理解当前对人工智能的恐慌的任何人来说,这封信在多个层面上都具有启发性。这是一个生动的例子,说明关于新技术的讨论如何从目瞪口呆的乐观转变为深沉的悲观。FLI的副总裁兼董事会秘书安东尼·阿吉雷说,2015年波多黎各活动的氛围是积极的和友好的。他还帮助起草了最近的信函,受到他认为技术发展中令人不安的转变的启发。“当时没有的是巨大公司之间的竞争,”他说。
回顾过去,担心自私的科技公司会主导该领域的风险似乎是显而易见的。但这种担忧在2015年的文件中并没有体现出来。还没有任何提及工业规模的误导传播,这是许多技术专家现在认为是强大聊天机器人最令人恐惧的后果之一。
然后是对上个月信函的反应。可预见的是,领先的人工智能公司如OpenAI、Google、Meta Platforms和Microsoft都没有表明这会导致他们改变他们的做法。FLI还面临着许多知名人工智能专家的抨击,部分原因是因为它与极具争议性的有效利他主义运动和多次利益冲突和引人注目行为而闻名的捐赠人和顾问埃隆·马斯克有关。
除了硅谷内部的争吵之外,批评者表示FLI之所以造成伤害并不是因为发表关切,而是因为专注于错误的问题。FLI的信中明显带有一种存在威胁的色彩,明确提出了人类失去对我们建立的文明的控制的可能性。对于计算机超智能的恐惧在科技圈内是一个长期存在的话题,但同样存在一种倾向,即极大地夸大了当前处于最新炒作周期中的技术的能力(例如:虚拟现实、语音助手、增强现实、区块链、混合现实和物联网等)。
预测自动驾驶车辆可能会使交通事故死亡人数减半,并警告AI可能会终结人类文明,似乎处于技术乌托邦光谱的两端。但实际上,它们都推动了这样一种观点,即硅谷正在构建的东西比普通人理解的要强大得多。这种做法偏离了不那么轰动的对话,并破坏了解决更现实问题的努力,麻省理工学院AI政策论坛的学术联席主任Aleksander Madry表示。他说:“这实际上是适得其反的。”他谈到FLI的信时说:“这不会改变任何事情,但我们必须等待它消退才能回到严肃的关注点。”
AI领域的主要商业实验室正在迅速连续地发布重大公告。OpenAI不到六个月前发布了ChatGPT, 紧随其后推出了GPT-4,在许多方面表现更好,但其内部运作对公司外部的人来说基本上是一个谜。其技术正在为微软公司发布的一系列产品提供动力, 这是OpenAI最大的投资者,其中一些产品做出了令人不安的事情,比如表达对人类用户的爱。谷歌匆忙推出了一个竞争性的由聊天机器人驱动的搜索工具, 巴德。Meta Platforms Inc.最近向同意一定参数的研究人员提供了其一个AI模型,然后该代码很快就在网上其他地方出现了。
“从某种意义上说,我们已经处于最糟糕的情况下,”普林斯顿大学计算机科学教授阿尔温德·纳拉亚南说。他表示,最好的人工智能模型由少数几家公司控制,“而稍旧的模型则广泛可用,甚至可以在智能手机上运行。” 他表示,他更担心的是坏人获取人工智能模型,而不是人工智能的发展发生在公司研究实验室的闭门之后。
尽管名为OpenAI,但其实际观点基本相反。在2015年最初成立为一个将产生和分享人工智能研究的非营利组织后,它在2019年增加了一个盈利部门(尽管该部门限制了投资者可以实现的潜在利润)。 从那时起,它已成为保持人工智能技术严密保护的主要倡导者,以防止坏人滥用。
OpenAI less than six months ago 发布了 ChatGPT。摄影师:Gabby Jones/Bloomberg在博客文章中,OpenAI表示,它可以预见未来将其模型提交独立审查,甚至同意以关键方式限制其技术。但它尚未说明将如何做出这些决定。目前,它认为减少其技术可能造成的损害的方法是限制合作伙伴对其最先进工具的访问级别,通过许可协议来管理其使用。OpenAI联合创始人、现任总裁和主席格雷格·布罗克曼表示,对于较老和不那么强大的工具,控制不一定要那么严格。“你希望有一些差距,这样我们就有一些喘息的空间来真正专注于安全并做到位,”他说。
很难不注意到这种立场与OpenAI的商业利益如何契合——一位公司高管公开表示,竞争考虑也影响其对公开内容的看法。一些学术研究人员抱怨OpenAI决定限制对其核心技术的访问会使人工智能变得更加危险,因为这样会阻碍客观研究。一位公司发言人表示,他们与独立研究人员合作,并在发布最新版本模型之前经历了六个月的审查过程。
OpenAI的竞争对手对其围绕人工智能的重大问题的方法提出质疑。“作为一个公民,当那些拥有知识的人说‘这太危险了’时,我总是有点疑惑,”Meta公司AI研究副总裁、麦吉尔大学教授Joelle Pineau说。Meta允许研究人员访问其AI模型的版本,表示希望外部人员可以探究其中的潜在偏见和其他缺陷。
Meta的方法的缺点已经变得明显。今年二月底,该公司让研究人员访问了一个名为LLaMA的大型语言模型——这项技术类似于ChatGPT所使用的技术。斯坦福大学的研究人员很快表示,他们已经将该模型用作他们自己项目的基础,近似于投入约600美元的先进人工智能系统。Pineau表示,她尚未评估斯坦福的系统运行情况,尽管她表示这样的研究符合Meta的目标。
但是,Meta的开放性,从定义上来说,意味着对LLaMA发生的事情控制较少。大约一周后,它在4chan上出现了下载链接,这是互联网恶搞者首选的主要留言板之一。“我们对泄露并不感到高兴,”Pineau说。
关于OpenAI或Meta谁的想法更正确,可能永远没有明确的答案——这场辩论只是硅谷最古老的争论的最新版本。但它们不同的道路确实突显了AI安全保障决策完全由少数大公司的高管来做出的事实。
在其他行业中,潜在危险产品的发布只有在私人机构向公共机构证明其安全之后才会进行。在3月20日的一篇博客文章中,联邦贸易委员会警告技术专家,“已经起诉了散布潜在有害技术而未采取合理措施防止消费者受伤的企业。” 十天后,AI与数字政策中心,一个倡导团体,向委员会提交了申诉,要求停止OpenAI在GPT-4上的工作。
能够构建某物但选择不这样做并不是一个新颖的想法。但这与硅谷快速行动、破坏的持久冲动相悖。虽然AI与社交媒体大不相同,但许多参与这场淘金热的人之前也参与过社交媒体的竞争。在决策者开始认真回应之前,这些服务已经根深蒂固,而且可以说取得了很少的成就。2015年,似乎还有很多时间来应对AI可能带来的一切。但今天看来这种说法不太正确。阅读下一篇:当性聊天机器人抛弃它们的人类恋人会发生什么