谷歌、微软、OpenAI等科技公司寻求按照他们的条件对人工智能进行监管 - 彭博社
Jillian Deutsch
Sam Altman 几周前出现在国会,讨论人工智能带来的危险。
摄影师:Eric Lee/Bloomberg
OpenAI 首席执行官 Sam Altman 上个月出人意料地向国会发出警告,称人工智能带来的危险。突然间,科技公司似乎从社交媒体的问题中吸取了教训,并希望以不同方式推出人工智能。更令人瞩目的是:他们希望政治家的帮助。
但一周后,Altman 在伦敦向记者讲述了不同的故事。ChatGPT 创造者的负责人表示,他将尝试遵守欧盟规定,但如果这太困难,他的公司将在该地区“停止运营”。这一言论引发了内部市场专员 Thierry Breton 指责 Altman “企图勒索”。Altman 在第二天澄清了他的言论,当首席执行官和专员上周见面时,他们一致认为他们在监管方面是一致的。
山姆·奥特曼在5月24日的伦敦。摄影师:克里斯·J·拉特克利夫/彭博社人工智能发展正在迅猛前进。仅在今年前四个月,该领域风险投资资金就超过了10亿美元,各种系统已经在从牙刷到无人机的各个领域投入使用。未来事物的发展程度和速度将在很大程度上取决于政府是否介入。
大型科技公司表示他们希望监管。现实情况更为复杂。在美国,谷歌、微软、IBM和OpenAI已要求立法者监督人工智能,他们表示这对确保安全性和与中国的竞争力是必要的。与此同时,在欧盟,政客们最近投票通过了一项草案立法,将对生成式人工智能设定限制,而这些同样公司的游说者正在反对他们认为会不必要地限制科技最热门新领域的措施。
收听 • 2分钟55秒
Jillian Deutsch谈欧盟的人工智能监管(音频)
两岸科技监管规则存在巨大差异。欧盟已经有全面的数据保护法律已经实施了五年多,正在实施严格的竞争和内容管理指南。然而,在美国,两十多年来几乎没有任何监管。在国内呼吁监督一直是大型科技公司在引导欧洲立法朝更有利方向发展时制造良好公关的方式,根据许多参与该集团即将出台的人工智能法案的官员的说法。
科技公司知道他们不能忽视欧盟,特别是因为其社交媒体和数据保护规则已成为全球标准。欧盟的AI法案可能会在未来两到三年内出台,这将是西方政府首次尝试对人工智能进行监管,并且支持严厉的处罚。如果公司违反该法案,欧盟可能会对公司年营业额的6%进行罚款,并禁止其产品在欧盟运营,欧盟估计占全球AI市场的20%至25%,该市场预计在未来10年内将超过1.3万亿美元。价值超过1.3万亿美元。
这让该行业处于一个微妙的位置。如果该法案的某个版本成为法律,DataEthics智库联合创始人Gry Hasselbalch表示,最大的AI提供商“将需要从根本上改变他们的透明度、风险处理方式和部署模式。”
风险业务
欧洲议会议员于6月14日就《人工智能法案》进行投票。摄影师:Frederick Florin/AFP/Getty Images草案的大部分内容集中在“高风险”案例的规定上。例如,发布用于预测犯罪或筛选工作申请的AI系统的公司将被限制只能使用高质量数据,并需要进行风险评估。此外,草案要求在深度伪造和聊天机器人方面进行透明度:人们必须被告知他们正在与AI系统交谈,并且生成或篡改的内容需要被标记。文本中没有提及生成式AI,这是一类机器学习算法,能够创建新的图像、视频、文本和代码,但尚未大规模爆发。
大型科技公司对这种方法表示欢迎*。*他们还试图软化边缘。虽然草案表示开发人员应对其系统的使用负责,但公司及其行业团体认为用户也应承担责任。微软在一份立场文件中辩称,由于生成式AI的潜力使得公司“无法预料部署场景的全部范围及其相关风险”,因此“着眼于部署者对AI系统的实际使用”尤为关键。在闭门会议中,科技公司的官员们坚持认为AI本身只是一个反映用户意图的工具。
更重要的是,IBM希望确保“通用人工智能” — 一个更广泛的类别,包括图像和语音识别、音频和视频生成、模式检测、问题回答和翻译 — 被排除在监管之外,或者在微软的情况下,由客户来处理监管检查,根据发送给立法者的修正草案。
许多公司坚持这一立场。IBM欧盟事务负责人让-马克·勒克莱克在给彭博社的声明中写道,与其“试图将技术作为一个整体来控制”,不如“我们敦促继续采取基于风险的方法。”
一些最强大的人工智能系统可能基本上避开监管的观念引起了行业观察者的警觉。未来生命,一个最初部分由埃隆·马斯克资助的非营利组织,当时写道,“未来的人工智能系统将比GPT-3更通用”,需要明确进行监管。未来生命的主席马克斯·泰格马克写道,“而不是‘按照有限的一组声明的预期目的对其进行分类’,提案应要求对所有预期用途(和可预见的误用)进行完整的风险评估。”
威胁评估
看起来大科技公司将得到他们想要的 — 有一段时间,一些国家甚至考虑完全排除通用人工智能的文字 — 直到2022年春季,政治家们开始担心他们低估了其风险。在很大程度上是在法国的敦促下,欧盟成员国开始考虑对所有通用人工智能进行监管,无论用例如何。
这是OpenAI参与欧洲立法过程的时刻。2022年6月,该公司的公共政策负责人在布鲁塞尔会见了官员。不久之后,该公司向委员会和一些国家代表发送了一份立场文件,首次由《时代》报道,称他们“担忧”一些提案“可能会无意中导致所有我们的通用人工智能系统被默认捕获。”
然而,欧盟国家继续推动,要求所有通用人工智能符合一些高风险要求,如风险评估,具体细节将在以后解决。包含这一内容的草案立法在12月获得批准 — 就在ChatGPT发布一周后。
受到聊天机器人的能力和前所未有的流行度的冲击,欧洲议会成员在下一份草案中采取了更加严厉的态度。最新版本,两周前获得批准,要求像OpenAI这样的“基础模型”开发者必须总结用于训练大型语言模型的受版权保护的材料,评估系统可能对民主和环境构成的风险,并设计出无法生成非法内容的产品。
Dragos Tudorache在6月13日欧洲议会人工智能法案全体会议上。来源:Mathieu Cugnot/欧洲议会“最终,我们要求生成式人工智能模型透明一点,”AI法案的两位主要作者之一Dragos Tudorache解释道。如果“将算法暴露于不良事物存在危险,那么开发者必须努力提供保障。”
尽管Meta、苹果和亚马逊基本保持沉默,其他关键开发者正在反击。在向立法者发表评论时,谷歌表示,议会的控制措施实际上将把通用人工智能视为高风险,而事实并非如此。公司还抗议称,新规定可能干扰现有规定,有几家公司表示他们已经实施了自己的控制措施。“仅仅是声誉受损的可能性已经足够激励公司大规模投资于用户安全,”来自行业团体CCIA的Boniface de Champris表示。
大语言
随着公众实时目睹生成式人工智能的缺陷,科技公司越来越强烈地要求监管—而且,据官员称,更愿意进行谈判。在Altman和谷歌的Sundar Pichai在五月底与欧盟监管机构进行见面会后,竞争主管Margrethe Vestager承认大科技公司 正在改变态度,接受透明度和风险要求。
这种方法是“非常务实的,”Tudorache说,并补充说,反对监管的开发者将“站在历史的错误一端[并且会]冒着自己的商业模式受到风险”的风险。
一些批评者还提出,早期遵守监管可能是大公司确保市场主导地位的一种方式。“如果政府现在介入,”柏林赫蒂学院(Hertie School)的伦理与技术教授Joanna Bryson解释说,“那么他们就可以巩固自己的领先地位,并找出谁会接近他们。”
如果你问科技公司,他们会告诉你他们并不反对监管 —— 他们只是不喜欢一些提议。“我们从一开始就认识到微软将在技术堆栈的几个层面受到监管;我们并不逃避监管,”微软的一位发言人写道,表达了许多开发者的观点。该公司还声援建立一个新的AI监管机构以确保安全标准并发放许可证。
与此同时,科技公司和贸易团体继续抵制议会和成员国对AI法案的修改。开发者一直在要求更多关于监管在实践中会是什么样子,以及比如OpenAI将如何评估ChatGPT对民主和环境的影响。在某些情况下,他们接受了某些参数,同时挑战了其他参数。
例如,OpenAI在四月份写信给立法者,表示支持监控和测试框架,以及一套新的通用AI标准,据彭博社看到的评论称。谷歌 —— 最近在美国支持了一个“轮辐和轮毂”监管模式,要求监管分散到许多不同的机构,而不是一个单一的中央机构 —— 支持风险评估,但继续支持基于风险的方法。谷歌没有回应评论请求。
法国总统埃马纽埃尔·马克龙上周在一次法国科技大会上表示,欧盟需要小心不要对人工智能进行过度监管。摄影师:Yoan Valat/AFP/Getty Images然而,随着人工智能的盈利潜力变得更加清晰,一些政客开始接受行业的观点。法国前数字大臣、转型为科技顾问的塞德里克·奥上个月发出警告,称监管过度可能会损害欧洲的竞争力。法国总统埃马纽埃尔·马克龙支持他的观点,在议会投票后不久在一次法国科技大会上表示,欧盟需要注意不要对人工智能进行过度监管。上个月警告。直到AI法案的最终投票结束,欧盟到底会在多大程度上决定对这项技术进行监管还不清楚。但即使谈判代表尽可能快地行动,公司也不需要在2025年左右之前遵守这项法案。与此同时,这个行业正在向前发展。