新的欧盟人工智能法规:它们对ChatGPT等模型意味着什么?- 彭博社
Jillian Deutsch
ChatGPT 应用程序的标志。
摄影师:Kirill Kudryavstev/AFP/Getty Images
欧盟达成了初步协议,限制了先进的 ChatGPT 模型的运作方式,这被视为世界上第一个全面人工智能监管的关键部分。
所有通用人工智能系统的开发者(即具有广泛可能用途的强大模型)必须满足基本的透明度要求,除非它们是免费且开源的,根据彭博社看到的欧盟文件。
这些要求包括:
- 拥有可接受的使用政策
- 及时更新有关模型训练方式的信息
- 报告用于训练模型的数据的详细摘要
- 拥有尊重版权法的政策
根据文件,被认为构成“系统性风险”的模型将受到额外规定。欧盟将根据用于训练模型的计算能力量确定该风险。阈值设定为每秒使用超过 10 万亿万亿(或者是 septillion)次运算的模型。
据专家称,目前唯一能够自动满足这一阈值的模型是 OpenAI 的 GPT-4。欧盟的行政机构可以根据数据集的大小、在欧盟注册的企业用户数量、或者注册终端用户数量等其他可能的指标来指定其他模型。
阅读更多: 欧洲与首个协议确立AI监管立场
这些高度能干的模型应该签署行为准则,与此同时欧洲委员会将制定更加协调和长期的控制措施。那些不签署的模型将需要向委员会证明它们遵守AI法案。对于被视为构成系统风险的模型,开源模型的豁免不适用。
这些模型还需要:
- 报告它们的能源消耗
- 进行红队测试,或者内部或外部进行对抗性测试
- 评估和减轻可能的系统风险,并报告任何事件
- 确保它们使用足够的网络安全控制
- 报告用于微调模型和系统架构的信息
- 如果开发了,符合更加节能的标准
这项暂定协议仍需获得欧洲议会和欧盟27个成员国的批准。法国和德国此前曾表示担忧,认为对通用AI模型施加过多监管可能会扼杀法国的 Mistral AI 或德国的 Aleph Alpha 等欧洲竞争对手。
目前,Mistral可能不需要遵守通用AI控制措施,因为该公司仍处于研发阶段,西班牙国务秘书Carme Artigas在上周六早些时候表示。