Sam Altman在OpenAI的解雇反映了对人工智能发展未来的分歧|路透社
Greg Bensinger
微软支持的OpenAI和ChatGPT的创始人Sam Altman在以色列特拉维夫大学的演讲中讲话,照片拍摄于2023年6月5日。路透社/Amir Cohen/文件照片
旧金山,11月20日(路透社) - 造成人工智能奇才Sam Altman失去OpenAI首席执行官职位的分歧反映了两个开发改变世界软件并思考其社会影响的阵营之间在安全性方面的根本分歧。
一方面是像Altman这样的人,他们认为人工智能的快速发展,尤其是公开部署,对于对技术进行压力测试和完善至关重要。另一方面是那些认为未来最安全的道路是首先在实验室中充分开发和测试人工智能,以确保它在某种程度上对人类消费是安全的。
38岁的Altman,于周五被解雇,他曾被认为是生成式人工智能的人类代表。
一些人警告称,超智能软件可能变得不受控制,导致灾难 - 这是科技工作者中关注“有效利他主义”社会运动的人的担忧,他们认为人工智能的进步应该造福人类。OpenAI的首席科学家和董事会成员Ilya Sutskever也分享了这样的担忧,并批准了Altman的解雇。
对生成式人工智能的担忧随着阿尔特曼的意外下台而达到高潮,他也是OpenAI的联合创始人。生成式人工智能是指能够根据简单提示生成连贯内容的软件,比如文章、计算机代码和类似照片的图像。过去一年中,OpenAI的ChatGPT的流行加速了关于如何最好地监管和发展这种软件的辩论。
“问题是,这只是另一种产品,就像社交媒体或加密货币,还是这是一种有能力超越人类并变得不可控的技术,” ConjectureAI的CEO兼安全倡导者康纳·利希说道。“未来是否属于机器?”
据报道,苏茨克维尔认为阿尔特曼过快地将OpenAI的软件推向用户手中,可能会危及安全。
“我们没有解决方案来引导或控制潜在的超智能人工智能,防止其变得失控,”他和一位副手在七月的一篇博客文章中写道。“人类将无法可靠地监督比我们聪明得多的AI系统。”
据报道,特别令人担忧的是,OpenAI在本月早些时候的开发者活动上宣布推出了一系列新的商业产品,包括其ChatGPT-4软件的版本和所谓的代理人,这些代理人可以像虚拟助手一样工作。
苏茨克维尔没有回应评论请求。
许多技术专家认为OpenAI的命运对人工智能的发展至关重要。周末讨论阿尔特曼是否重新上任的计划未能实现,令前首席执行官的追随者们的希望破灭。
ChatGPT的去年11月发布引发了对人工智能公司的投资狂潮,包括微软投资100亿美元到OpenAI,以及来自谷歌母公司Alphabet和亚马逊等其他初创公司的数十亿美元。
这可以解释为什么新的人工智能产品如Anthropic和ScaleAI等公司竞相向投资者展示进展。与此同时,监管机构也在努力跟上人工智能的发展步伐,包括拜登政府的指导方针以及一些国家对“强制自我监管”的推动,同时欧盟也在努力制定对软件的广泛监管。
大多数公司使用生成式人工智能软件,比如ChatGPT,来辅助他们的工作,比如快速总结冗长文件,但观察者对可能出现的被称为“人工通用智能”或AGI的版本持谨慎态度,这种版本可以在没有任何提示的情况下执行越来越复杂的任务。这引发了担忧,认为这种软件可能会独自接管国防系统,制造政治宣传或生产武器。
OpenAI成立于8年前,是一个非营利性组织,部分原因是为了确保其产品不受追逐利润的驱使,这可能会使其陷入危险的AGI的泥沼,公司章程中称之为“对人类造成伤害或过度集中权力”的威胁。但自那时以来,Altman帮助在公司内部创建了一个营利实体,以筹集资金和其他目标。
周日晚些时候,OpenAI被任命为临时CEO艾米特·谢尔,这位前流媒体平台Twitch的负责人。他在九月份在社交媒体上倡导“减缓”人工智能的发展。“如果我们现在的速度是10,那么暂停就是减缓到0。我认为我们应该将目标定在1-2之间,”他写道。
截至周一,阿尔特曼被解职的确切原因仍不清楚。但可以肯定的是,OpenAI面临着严峻的挑战。