谷歌因右翼抵制后撤销人工智能功能而陷入“可怕困境” - 彭博社
Davey Alba, Julia Love, Shirin Ghaffary, Rachel Metz
Google DeepMind 网站在美国纽约的智能手机上,日期为2023年12月9日。
摄影师:Gabby Jones/Bloomberg二月份对于谷歌雄心勃勃的人工智能战略来说,正在成为一个重要的月份。该公司将其聊天机器人重新命名为 Gemini,并发布了两个重要的产品升级,以更好地与各方的竞争对手在高风险的人工智能军备竞赛中竞争。在所有这些之中,谷歌还允许 Gemini 用户生成看起来逼真的人物图像。
起初并没有多少人注意到这个功能。其他公司如 OpenAI 已经提供了工具,让用户快速制作人物图像,然后可以用于营销、艺术和头脑风暴创意想法。然而,像其他人工智能产品一样,这些图像生成器存在着根据它们在开发过程中所接收的数据而延续偏见的风险。要求一个护士,一些人工智能服务更有可能展示一个女性;要求一个首席执行官,你通常会看到一个男性。
在谷歌推出该功能的几周内,Gemini 用户注意到了一个不同的问题。从2月20日开始,持续了一周,X 上的用户在社交媒体平台上充斥着 Gemini 不展示白人的例子 —— 即使在一个历史背景下,他们可能会主导描绘,比如当用户请求创始人或1943年的德国士兵的图像时。不久之后,具有大量右翼观众的公众人物和新闻媒体声称,使用可疑的证据,他们对 Gemini 的测试显示谷歌对白人有隐藏议程。
埃隆·马斯克,X公司的所有者,加入了这场争论,与数十篇关于毫无根据的阴谋论的帖子互动,其中包括一些将个别谷歌领导人指认为所谓的政策设计者。周四,谷歌 暂停了 Gemini 的人物图像生成。第二天,谷歌高级副总裁普拉巴卡尔·拉加万 发表了一篇博客文章,试图阐明公司的决定,但没有深入解释该功能为何出现故障。
谷歌发布了一个处理历史图像请求能力不足的产品,展示了科技公司面临的独特挑战,即如何防止他们的人工智能系统放大偏见和错误信息 — 尤其是考虑到市场竞争压力迫使他们迅速推出人工智能产品。谷歌没有推迟发布有缺陷的图像生成器,而是尝试了一个权宜之计。
据两位知情人士透露,当谷歌推出这个工具时,它包含了一个技术修复方案,以减少输出中的偏见,但这两位知情人士表示,谷歌这样做时并没有完全预料到工具可能出现问题的各种方式,并且没有公开透明地介绍他们的方法。
谷歌高级副总裁普拉巴卡尔·拉加万试图阐明公司的决定,但没有深入解释该功能为何出现故障。摄影师:朱莉娅·尼克森/彭博社谷歌为了AI对有色人种的偏见而进行的过度纠正使其在多样性问题上再次遭受抨击。这家科技巨头多年来一直因在用户在其照片应用中搜索“大猩猩”时错误返回黑人图片以及在是否适当地驱逐其道德AI团队领导者的持久公开争论中受到批评。
在迅速暂停这一工具的同时,没有充分解释系统为何会做出这样的反应,谷歌员工和硅谷的其他人现在担心公司的举动会产生冷漠效应。他们表示,这可能会阻止人才从事AI和偏见问题的研究——这对该领域至关重要。
“整个科技行业,尤其是谷歌,再次将自己置于一个由自己制造的可怕困境中,”东北大学助理教授劳拉·埃德尔森说道,她研究了AI系统和大型在线网络中信息流动。“该行业迫切需要将AI描绘成魔法,而不是随机鹦鹉,”她提到了一个流行的比喻,描述了AI系统如何通过统计模式匹配模仿人类语言,而没有真正的理解或领悟。“但他们只有鹦鹉。”
“双子座被构建为一种创造力和生产力工具,它可能并不总是准确或可靠,”谷歌的一位发言人在一份声明中表示。“我们正在迅速解决产品未适当响应的情况。”
在周二晚些时候发给员工的一封电子邮件中,谷歌首席执行官桑达尔·皮查伊表示,员工们一直在“日以继夜地工作”来解决用户指出的双子座响应问题,他补充说公司在“各种提示方面取得了实质性改进。”
“我知道它的一些回应冒犯了我们的用户并显示了偏见 - 明确地说,这是完全不可接受的,我们搞错了,”皮查伊在备忘录中写道,该备忘录首次由Semafor报道。“没有一种人工智能是完美的,尤其是在这个行业发展的初期阶段,但我们知道对我们来说标准很高,我们将继续努力,无论需要多长时间。我们将审查发生了什么,并确保我们在规模上修复它。”阅读更多: 生成式人工智能将刻板印象和偏见恶化
致力于伦理人工智能的谷歌员工在过去一年中一直在努力,因为公司加快了推出人工智能产品的步伐,以跟上OpenAI等竞争对手。尽管在双子座图像中包含有色人种显示了对多样性的考虑,但这表明公司未能充分考虑用户可能寻求创建图像的不同背景,前谷歌伦理人工智能研究组联席负责人、人工智能初创公司Hugging Face首席伦理科学家玛格丽特·米切尔表示。当用户搜索他们认为世界应该是什么样子的图像时,对多样性的不同考虑可能是适当的,而不是世界在某个历史时刻实际上是什么样子。
“谷歌关注肤色多样性的事实是谷歌在短短四年前的飞跃进步。所以,这有点像是两步前进,一步后退,”米切尔说。“他们应该因为真正关注这些事情而受到认可。只是,他们需要再进一步才能做到。”
谷歌的形象问题
对于谷歌来说,作为当今人工智能繁荣核心技术的先驱,长期以来一直面临着巨大的压力来正确生成图像。谷歌非常担心人们如何使用其AI图像生成模型Imagen,以至于在首次在2022年5月的研究论文中详细介绍其功能后,谷歌拒绝将该功能长时间释放给公众。首次详细介绍其功能后,谷歌拒绝将该功能长时间释放给公众。。
多年来,公司内部的团队就如何确保其AI工具在生成逼真的人物图像时负责任进行了辩论,两位熟悉此事的人士透露,他们要求不透露内部讨论。据一位人士透露,曾经,如果在谷歌的Imagen内部试验中要求程序生成一个人的图像,甚至是隐含包含人物的图像,比如一个足球场,它会用一个黑匣子回应。另一位人士表示,在进行多次审查后,谷歌才在Gemini中包含了生成人物图像的功能。
有人表示,谷歌并没有测试该功能可能产生意外结果的所有方式,但这被认为足够好,以至于将其首次向公众广泛提供。尽管谷歌的团队在创建该工具时表现谨慎,但内部普遍感觉公司对这种后果毫无准备。
玛格丽特·米切尔(Margaret Mitchell),谷歌前首席研究员,表示公司“应该因为真正关注多样性而受到认可”。“只是,他们需要再进一步才能做到。”摄影师:Chona Kasinger/Bloomberg当X上的用户传播了吉米尼(Gemini)对人物的非历史性描绘的图片时,据一位现任员工称,谷歌内部员工论坛上充斥着关于该模型缺陷的帖子。在Memegen上,这是一个员工分享公司搞笑图片的内部论坛,一篇热门帖子展示了电视主持人安德森·库珀(Anderson Cooper)用手捂脸的图片。
“这是一个捂脸动作,”该员工说。“有一种感觉,明显这还没有准备好……公司实际上正在试图赶上潮流。”
谷歌、OpenAI和其他公司在其人工智能产品中设置防护栏,并经常进行对抗性测试 — 旨在探究工具如何应对潜在的恶意行为者 — 以限制潜在的问题输出,如暴力或冒犯性内容。他们还采用多种方法来抵消数据中发现的偏见,比如让人类对聊天机器人的回复进行评分。另一种方法,一些公司用于生成图像的软件是扩展用户输入到AI模型的具体提示词,以抵消有害的刻板印象 — 有时不告诉用户。
两位知情人士表示,谷歌的图像生成是这样工作的,尽管用户并不知情。这种方法有时被称为提示工程或提示转换。一份最近的 Meta 白皮书关于负责任地构建生成式人工智能的解释是“在将文本输入发送到模型之前直接修改文本输入,通过添加更多信息、上下文或约束来引导模型行为。”
以请求生成一张护士的图片为例。根据 Meta 的白皮书,提示工程“可以为模型提供额外的单词或上下文,例如更新和随机旋转使用不同修饰语的提示,比如‘护士,男’和‘护士,女’。”这正是谷歌的人工智能在被要求生成人物图像时所做的,根据知情人士的说法 — 它可能在原始提示中添加各种性别或种族,而用户从未看到它这样做,从而颠覆了该工具可能产生的刻板输出。
“这是一个快速的技术修复,”加州大学圣巴巴拉分校的助理教授 Fabian Offert 表示,他研究数字人文和视觉人工智能。“这是实现他们想要的部分内容的计算成本最低的方式。”阅读更多: AI 如何放大极端的种族、性别刻板印象
OpenAI 采用了类似的方法来处理其图像生成软件。例如,当用户要求 ChatGPT 使用其 Dall-E 3 图像生成软件创建一张图片时,OpenAI 的软件会自动详细说明用户输入的提示。如果用户通过 OpenAI 的网站访问聊天机器人,他们可以看到实际使用的更详细的提示。但谷歌并没有让 Gemini 用户轻松查看幕后发生的事情。
谷歌决定对其图像生成过程保持保密是一个错误,Offert说。正如他所指出的,这些努力 — 无论是对用户隐藏还是公开 — 都无法解决源自先进AI系统通常训练的数据的根本问题。
“因为它们是基于被刮取的网络数据进行训练的,这些数据具有极大的偏见和固有的偏见,所以它们是垃圾,在政治意义上,因此它们必须以某种形式操纵它,以产生较少垃圾的东西,” Offert说。
此外,AI图像生成系统的目的并不是创建历史准确的图像,华盛顿大学计算语言学教授Emily Bender说。“如果图像是合成的,它就不是准确的历史再现,”她说。生成式AI系统也是“未限定范围的”,这意味着它们没有为任何特定目的而开发,Bender补充说。无法预料人们可能以何种方式使用这项技术,更不用说为每种用例测试系统的安全性和有效性。
‘好战的哭泣’
但在媒体领域,保守派批评谷歌在努力使其AI的输出多样化方面做得太过分。“谷歌的觉醒AI让维京人变黑,教皇变成女人,”2月22日《纽约邮报》头版大标题如此宣称。极右政治评论员本·夏皮罗写道,谷歌被抓住了“觉醒的议程”。尤其在X上,愤怒情绪不断升级。风险投资家乔·朗斯代尔写道,谷歌“在很大程度上由种族主义意识形态者和活动人士控制”。
马斯克,这位亿万富翁拥有X公司,他在社交网络上引起了大部分讨论。根据彭博社的审查,自2月20日以来,马斯克至少155次发布或回复有关谷歌对白人有秘密仇恨阴谋论的帖子。在十多篇帖子中,马斯克还单独指责了谷歌的个别领导人,包括双子座产品负责人杰克·克劳奇克和谷歌人工智能伦理顾问詹·詹奈,毫无根据地声称他们是公司人工智能被指控偏袒白人的幕后策划者。马斯克和其他保守派人士突出了谷歌员工多年前的演讲和帖子,作为这些领导人被指是“觉醒”人工智能政策的设计者的可疑证据。马斯克没有回应评论请求。
在他突出双子座的例子的几天里,马斯克还利用这场争议来推广他自己的生成式人工智能工具Grok,他将其推销为对抗“觉醒思维病毒”的解药 —— 极右派对企业多样性目标的简称 —— 影响其他科技公司。2月23日,马斯克表示,谷歌的一位高管向他保证公司正在“立即采取行动解决双子座中的种族和性别偏见问题。”
信号基金会总裁、前谷歌经理梅雷迪思·惠特克表示,听到这么多声音批评谷歌未能通过其产品确保公平代表性,这是一种讽刺。“当你在搜索‘美丽女人’时,搜索结果出现了一页又一页的白人女性,这已经是被默认为正常现象的几十年了,”惠特克说。“我们没有听到很多互联网评论者对这种不平等发出同样响亮的哭泣声。”
Meredith Whittaker,Signal总裁,前Google经理,表示听到很多声音批评Google未能通过其产品确保公平代表性,这是一种讽刺。摄影师:Zed Jameson/BloombergGoogle内部员工现在担心社交媒体的攻击将使负责减轻其AI产品在现实世界中造成的伤害的内部团队更难以应对,包括技术是否能隐藏系统性偏见的问题。一名员工表示,对AI工具的愤怒意外地使一个在大多数训练数据集中已经过度代表的群体被边缘化,这可能会导致一些Google员工主张减少AI输出的防护措施或保护措施 —— 如果走得太远,可能对社会造成伤害。
目前,Google仍处于损害控制模式。2月26日,Google DeepMind研究部门负责人Demis Hassabis表示,公司希望在“接下来的几周内”重新上线Gemini功能。但在周末,保守派人士继续抨击Google,这一次将矛头对准了Gemini对用户查询的文本回复。
“Google的屈服只会助长这种在线暴民,而不是平息它,”大西洋理事会的常驻高级研究员Emerson Brooking表示。他研究了在线网络骚扰的动态。“Google越早认识到这一点,就越好。”