OpenAI表示董事会可以否决CEO关于新人工智能发布安全性的决定 - 彭博社
Rachel Metz
Sam Altman, OpenAI首席执行官,于2023年12月11日星期一在美国乔治亚州亚特兰大举行的Hope Global Forums年会上。
摄影师:Dustin Chambers/BloombergOpenAI表示,即使公司领导层认为其安全,其董事会也可以选择暂停发布AI模型,这是这家人工智能初创公司授权其董事加强开发尖端技术的保障措施的又一迹象。这一安排在周一发布的一份指南中详细说明了ChatGPT制造商计划如何处理其最强大AI系统可能被视为极端风险的情况。这些指南的发布是在OpenAI首席执行官Sam Altman被董事会短暂罢免后,OpenAI经历了一段动荡时期,这凸显了董事和公司高管之间权力平衡的问题。OpenAI最近宣布的“准备”团队表示,它将持续评估其AI系统,以确定它们在四个不同类别中的表现,包括潜在的网络安全问题以及化学、核和生物威胁,并努力减少技术可能带来的任何危险。具体来说,该公司正在监测其所谓的“灾难性”风险,这在指南中被定义为“可能导致数千亿美元的经济损失或导致许多人的严重伤害或死亡的任何风险。”领导准备组的Aleksander Madry,他目前休假,曾在麻省理工学院担任教职,他告诉彭博新闻,他的团队将向一个新的内部安全咨询小组发送每月报告。然后,该小组将分析Madry团队的工作,并向Altman和公司董事会发送建议,这个董事会在罢免首席执行官后进行了重组。根据文件,Altman和他的领导团队可以根据这些报告做出是否发布新AI系统的决定,但董事会有权推翻该决定。OpenAI在十月宣布成立了“准备”团队,使其成为这家初创公司三个负责监督AI安全的独立团队之一。还有“安全系统”,它关注当前产品如GPT-4,以及“超对齐”,它专注于可能存在于未来的极其强大的AI系统。 Madry表示,他的团队将反复评估OpenAI最先进的未发布AI模型,对它们在不同类型的潜在风险中进行“低”、“中”、“高”或“关键”评级。该团队还将进行更改,以期减少他们在AI中发现的潜在危险,并衡量其有效性。根据新的指南,OpenAI只会推出被评为“中”或“低”的模型。
“AI不是一种只会发生在我们身上的事情,可能是好的也可能是坏的,” Madry说。“这是我们正在塑造的东西。”
Madry说,他希望其他公司也会使用OpenAI的指南来评估他们的AI模型可能面临的风险。他说,这些指南是OpenAI在评估其已经发布的AI技术时先前遵循的许多流程的正式化。他说,他和他的团队在过去几个月里制定了细节,并从OpenAI内部的其他人那里得到了反馈。