AI安全已死,舒默面临风险 - 彭博社
Tyler Cowen
当涉及到人工智能时,他们实际上是在说有道理。
摄影师:Graeme Sloan/Bloomberg
混乱。
摄影师:David Ramos/Getty Images Europe2024年5月将被铭记为AI安全运动消亡的月份。也将被铭记为实际上开始认真使人工智能更安全的时刻。
一些历史:在2000年代中期,一个被称为“有效利他主义”的运动将AI安全作为首要任务,基于担心高度先进的AI模型可能会消灭我们所有人,或至少会引起重大的全球混乱。两家领先的AI公司,Anthropic和OpenAI,建立了复杂的董事会结构,其中混合了非营利元素,以防止这些公司生产危险系统。
Bloomberg观点英国拥有价值50亿美元的比特币储备。里夫斯可以释放它。中国的愤怒?毛泽东的山里厨房CrowdStrike的全球故障不必成为一场反复发生的噩梦尼泊尔的婴儿潮只会越来越大安全运动可能在2023年3月达到顶峰,当时有一份请愿书要求暂停六个月的AI开发,许多专家,包括AI领域的专家,都签署了。正如我当时所说,这是一个坏主意,没有任何进展。
快进到现在。参议院多数党领袖查克·舒默和他的人工智能工作组发布了一份联邦政策指导文件。 这些计划涉及联邦对人工智能研发的大量支持,以及一贯认识到美国保持在人工智能领域领先地位对国家安全的重要性。立法者似乎明白他们宁愿面对基于美国的人工智能系统的风险,也不愿意在没有美国对抗力量的情况下应对中国的发展。新冠疫情早期,中国政府的鲁莽和不透明行为已经让人深刻认识到这一点。
同样重要的是主要科技公司自身的行为。OpenAI、Anthropic、Google和Meta在今年春季都发布了重大的服务升级。他们的新服务更智能、更快速、更灵活、更有能力。竞争加剧,这将推动进一步创新。
广泛社会证据对人工智能的危险有何说法?至少从市场角度来看,世界运行得很好;市场正在创下新高。如果世界末日即将来临,这不是我们所预期的。投资者似乎更关注通货膨胀、利率和中东冲突。
关于学术界呢?顶尖科学家们并没有在*《科学》或《自然》*等知名期刊上发表新模型,这表明人工智能可能会带来世界末日。在经济学领域,达伦·阿塞莫格鲁(Daron Acemoglu)可以说是他这一代发表论文最多的经济学家,最近发表了一篇模型,表明人工智能将会轻微提升全球GDP。我认为他低估了潜在的好处,但无论如何,他的论文并没有预示末日。值得注意的是,这正是那位一年多前签署呼吁暂停人工智能研究六个月的达伦·阿塞莫格鲁。
至于哲学家们,尼克·博斯特罗姆,曾是牛津大学未来人类研究所的所长,是最早提出和传播人工智能安全担忧的人之一,这涵盖了更广泛的“存在风险”概念。在他最近出版的书籍中,他转向了更加乐观的立场。此外,由于未知原因,该研究所已关闭。
AI发展目前面临的最大障碍是美国许多州正在审议的数百项AI监管法案。其中许多法案有意或无意地会严重限制AI的发展,比如加利福尼亚的一项法案要求对先进系统进行预先批准。过去,这种州级立法的急速增长通常会导致联邦整合,以便协调整体监管并不至于过于繁重。尽管从这个过程中能否得出一个好的最终法案还不确定,但舒默的项目表明联邦政府更感兴趣的是加速AI的发展而不是阻碍它。
然而,回到我开始的地方:AI安全运动的消亡是否值得恐慌?几乎不值得。提前完全工程化安全从来都不是一个现实的前景。当人类发明计算机,或者说印刷术时,很少有安全问题是事先解决的,也不可能事先解决。相反,随着历史的进展,安全问题是逐案解决的。并非每一项安全努力都成功了——确实出版了危险的书籍——但印刷术仍然是人类的福音。
如果我们想这一次做得更好,构建安全的AI系统——而我们应该这样做——那么达到目标的最佳途径就是继续前进:构建系统并向用户提供服务,一边不断迭代和改进。幸运的是,现在似乎正发生着这种情况。AI安全运动的影响可能已经减弱,但使AI更安全的机会才刚刚开始。
在彭博观点的其他地方:
- 如果人工智能破坏了民主,我们可能永远不会知道:Parmy Olson
- 从深度伪造到军备竞赛,人工智能政治已经来临:Niall Ferguson
- 谷歌的人工智能对网络经济不利:Dave Lee
更多内容,请订阅我们的新闻简报。
星期五全球IT系统的毁灭性全球性故障中最令人不安的事情之一是这类毁灭性事件变得多么常见。
在过去几年里,来自亚马逊公司等公司的类似故障曾暂时关闭了全球范围内的系统,而这最新问题是由网络安全公司 CrowdStrike Holdings Inc. 的一次失败的软件更新引起的,该公司与大客户微软公司的联系导致了全球性问题 — 包括机场混乱、股票交易所和医院,尽管现在已部署了修复方案。