欧洲就具有里程碑意义的人工智能监管协议达成一致 | 路透社
Foo Yun Chee,Martin Coulter,Supantha Mukherjee
布鲁塞尔/伦敦/斯德哥尔摩,12月8日 (路透社) - 欧洲周五就管理人工智能使用的欧盟规则达成了临时协议,其中包括政府在生物识别监视中使用人工智能以及如何监管ChatGPT等人工智能系统。
通过这项政治协议,欧盟朝着成为第一个制定人工智能法律的主要世界大国迈出了一步。周五欧盟国家和欧洲议会成员之间的协议是在经历了近15小时的谈判后达成的,而这之前的一天几乎进行了24小时的辩论。
双方将在未来几天内商定细节,这可能会改变最终的立法形式。
欧洲委员会Thierry Breton在新闻发布会上表示:“欧洲已经定位自己为一个先锋,理解其作为全球标准制定者的重要性。我相信,这是一个历史性的一天。”
该协议要求基础模型如ChatGPT和通用人工智能系统 (GPAI) 在上市前遵守透明度义务。这包括起草技术文件、遵守欧盟版权法并传播有关训练内容的详细摘要。
具有系统风险的高影响基础模型将需要进行模型评估,评估和减轻系统风险,进行对抗性测试,向欧洲委员会报告严重事件,确保网络安全并报告其能源效率。
具有系统风险的GPAI可能依赖于实践准则来遵守新的法规。
政府只能在公共场所使用实时生物识别监控,用于某些犯罪受害者、预防真实、现有或可预见的威胁,如恐怖袭击,以及搜索涉嫌最严重犯罪的人。
协议禁止认知行为操纵、对互联网或闭路电视录像中的面部图像进行无针对性的删除、社会评分和生物特征分类系统来推断政治、宗教、哲学信仰、性取向和种族。
消费者将有权提出投诉并收到有意义的解释,违规的罚款将从750万欧元(810万美元)或营业额的1.5%到3500万欧元或全球营业额的7%不等。
文件照片:先进的人形机器人“索菲亚”在2023年7月6日瑞士日内瓦举行的AI for Good全球峰会上展出。路透社/Pierre Albouy/文件照片
商业团体DigitalEurope批评这些规定是对公司的又一重负担,叠加在最近的其他立法之上。
“我们达成了协议,但代价是什么?我们完全支持基于AI的使用而不是技术本身的基于风险的方法,但最后一刻试图对基础模型进行监管已经颠倒了这一切,”其总干事塞西莉亚·博内菲尔德-达尔说。
隐私权利团体欧洲数字权利也同样批评。
“对于欧盟首次在全区范围内合法化公共现场面部识别的法律,我们很难感到兴奋,”该机构的高级政策顾问埃拉·亚库博夫斯卡说。
“尽管议会努力限制损害,但生物识别监控和个人画像的整体方案充其量也只是温和的。”
预计该立法将在双方正式批准后于明年初生效,并在两年后开始实施。
世界各国政府正试图在技术的优势(可以进行类似人类的对话、回答问题和编写计算机代码)与设置监管框架的需求之间取得平衡。
欧洲雄心勃勃的人工智能规定出台之际,像微软(MSFT.O)投资的OpenAI等公司不断发现其技术的新用途,引发了赞誉和担忧。谷歌母公司Alphabet(GOOGL.O)周四推出了新的人工智能模型Gemini,以与OpenAI竞争。
欧盟的这项法律可能成为其他国家的蓝本,也是对美国轻触式方法和中国临时规定的一种替代方案。
(1美元=0.9293欧元)
约瑟芬·梅森撰写;辛西娅·奥斯特曼和斯蒂芬·科茨编辑