OpenAI和Sam Altman可以通过变得更加开放来重建信任-彭博社
Parmy Olson
Sam Altman可以让OpenAI的未来更加光明。
摄影师:David Paul Morris/BloombergOpenAI员工现在称之为“The Blip”的董事会丑闻正在威胁着与其绰号相符 —— 这不应该发生。
该公司最近宣布了对首席执行官Sam Altman去年十一月被解雇的独立法律审查结果,并将结果描述为在很大程度上洗清罪名。OpenAI的新董事会“对Altman继续领导表示充分信任”,这是基于法律公司的分析;科技行业的大部分人已经忘记了这件事,急切地等待今年晚些时候ChatGPT的升级。
但这场丑闻并不是小事,调查结果值得审视。
OpenAI表示,律师证实其董事会并非因为担心产品安全性或公司财务状况而解雇Altman。相反,公司与Altman之间存在“信任破裂”,他的行为“并未要求解雇”。这仍然是对OpenAI的更广泛的保密外衣的谴责,因为它向世界发布强大的AI模型。随着包括Alphabet Inc.的Google和Microsoft Corp.在内的少数不透明技术公司控制着商业和社会多年来见过的一些最具变革性的创新,信任变得愈发关键。
值得注意的是,OpenAI自己的沟通方式削弱了其信誉。本月早些时候,作为对埃隆·马斯克的诉讼的回应,它发布了高管的早期电子邮件,其中包括其首席科学家承认OpenAI分享技术细节是“为了招聘目的”,而不是出于真正的为人类服务的愿望。也许OpenAI知道其公开表述在很大程度上被视为幻象。
但Altman可以改变这一点,不仅修复与董事会的信任,还与公众建立信任,并通过一些关键步骤将“开放”重新放回OpenAI。首先,使公司像其名称所暗示的那样透明,特别是围绕其用于训练模型的数据。我们知道OpenAI四年前使用了45TB的纯文本数据来构建其GPT-3模型因为在一篇研究论文中如此说明。但它没有说明使用了哪些网站,甚至对支撑ChatGPT的新模型更加守口如瓶,称“竞争环境[和]安全影响”。
发布训练数据的细节不会不安全。这只会使研究人员更容易审查一个已经显示出在招聘决策中存在种族和性别偏见的工具,根据最近彭博新闻的调查。
它可以揭示用于训练的网站是哪些 —— 类似于《华盛顿邮报》进行的流行数据集的分析 —— 更好的是,使这些信息易于访问,以便那些不是程序员的人可以探索它是否存在有害副作用。这将为“社会科学家、监管机构、记者和权利活动人士”打开大门,如Google道德AI团队的前联合负责人、目前担任AI公司Hugging Face Inc首席伦理科学家的玛格丽特·米切尔所说。
OpenAI拥有安全机制和过滤器,以确保ChatGPT不会说出冒犯性的话,但并没有说明这些系统是如何运作的。根据Hugging Face的另一位AI科学家Sasha Luccioni的说法,这种情况应该改变。
最后,该公司已经与Axel Springer SE和美联社等组织签订了一些许可协议,向它们支付特别访问数据以训练AI模型。但有成千上万的艺术家和作家的数据已经被未经同意地免费获取,而且他们没有资源达成协议。要求OpenAI对其中一些创作者进行补偿可能是不现实的,因为这将是昂贵且耗时的。但至少,Mitchell表示,它可以为他们提供一个选择退出让其内容用于训练AI的系统。
OpenAI的女发言人拒绝置评。
Sam Altman表示他“很高兴整个事情结束了”,据Axios报道,这是指律师事务所WilmerHale的调查。现在那两位迫使他离开的董事会成员已经离职,他正在与一个更加友好的企业董事会合作,其中包括来自索尼集团、Instacart Inc.和Salesforce Inc.等公司的高管,这可能会使OpenAI的AI发展比以往更快。再加上OpenAI从非营利性质转变为更广泛的趋势,使其引入新的举报热线显得空洞。
Altman被解雇是因为原董事会严格遵守了对“人类”的受托责任,他们认为他没有向他们坦诚,从而损害了OpenAI的使命。他的无罪释放加强了他在公司的地位,但也使那些看到潜在危害的员工更难开口。这是一个非常渺茫的可能性,但如果Altman至少朝着更加透明的方向迈出一步,这将在一定程度上恢复对企业的信心。当只有少数几家大公司控制AI的发展时,信任是社会依赖的基础;目前,这种信任供应不足。
更多来自彭博观点:
- AI革命需要 芯片、软件和管道:Liam Denning
- 埃隆·马斯克对 OpenAI的虚伪是正确的:Parmy Olson
- 开源软件的价值 将继续增长:Tyler Cowen
想要更多彭博观点吗? OPIN <GO>。网页读者,请点击 这里 。或订阅 我们的每日新闻简报 。