为什么人工智能如此昂贵 - 彭博社
Seth Fiegerman, Matt Day
Nvidia Corp. HGX H100人工智能图形处理单元
摄影师:I-Hwa Cheng/Bloomberg中心的Satya Nadella在4月30日抵达雅加达独立宫与Joko Widodo会面。摄影师:Bay Ismoyo/AFP/Getty Images在生成式人工智能狂热持续近18个月后,一些最大的科技公司证明了人工智能可以成为真正的收入驱动力。但这也是一个巨大的金钱陷阱。
微软公司和Alphabet Inc.的谷歌报告显示,他们的最新季度业绩中云服务收入激增,因为企业客户在人工智能服务上的支出增加。而Meta Platforms Inc.虽然在技术商业化方面落后,但表示其人工智能工作已帮助增强用户参与度和广告定位。
为了实现这些早期收益,这三家公司已经花费数十亿美元来开发人工智能,并计划进一步加大这些投资。
4月25日,微软表示,在最近一个季度,其资本支出达到了140亿美元,并预计这些成本将“大幅增加”,部分原因是人工智能基础设施投资。这比去年同期增长了79%。Alphabet表示,在该季度花费了120亿美元,比去年同期增长了91%,并预计今年其余时间将“达到或超过”这一水平,因为公司专注于人工智能机遇。而Meta则提高了全年投资预期,现在认为资本支出将达到350亿至400亿美元,这将是该范围的高端增长42%。公司指出正在积极投资于人工智能研究和产品开发。
人工智能的成本上升让一些投资者措手不及。特别是 Meta 的股票,在支出预测和增长速度低于预期的情况下下跌。但在科技行业内部,长期以来一直认为人工智能成本会上升。这其中有两个关键原因:人工智能模型变得越来越大且开发成本更高,全球对人工智能服务的需求需要建立更多数据中心来支持。正在尝试使用这类人工智能服务的企业可能会花费数百万美元来定制来自 OpenAI 或 Google 的产品。一旦运行起来,每次有人与聊天机器人交互或请求人工智能服务分析销售数据时都会有额外成本。但更昂贵的工作是为这些人工智能系统打下基础。以下是这些努力的一瞥。
大型语言模型变得更大
如今最知名的人工智能产品,包括 OpenAI 的 ChatGPT,都是由大型语言模型驱动的 — 这些系统被喂入大量数据,包括书籍、文章和在线评论,以便为用户的查询提供最佳可能的回应。许多领先的人工智能公司押注的是,通往更复杂人工智能的道路 — 甚至可能是能够在许多任务上胜过人类的人工智能系统 — 就是使这些大型语言模型变得更大。这需要获取更多数据、更多计算能力,还需要对人工智能系统进行更长时间的训练。在四月初的一次 播客采访中,OpenAI 竞争对手 Anthropic 的首席执行官 Dario Amodei 表示,目前市场上的人工智能模型训练成本约为1亿美元。“目前正在训练中的模型,以及将在今年晚些时候或明年初推出的模型,成本接近10亿美元,”他说。“然后我认为在2025年和2026年,我们将更接近50亿或100亿美元。”
芯片和计算成本
其中大部分成本与芯片有关。这些不是让英特尔公司闻名的中央处理单元(CPU),也不是为数十亿智能手机提供动力的精简版移动芯片。为了训练大型语言模型,人工智能公司依赖于可以以高速处理大量数据的图形处理单元(GPU)。这些芯片不仅供应短缺,而且价格昂贵,最尖端的功能主要由一家公司生产:英伟达公司。
英伟达的H100图形芯片,是训练人工智能模型的黄金标准,据估计售价为30,000美元 — 一些转售商甚至以多倍的价格出售。大型科技公司需要大量这些芯片。Meta首席执行官扎克伯格之前表示,他的公司计划在今年年底前收购35万个H100芯片,以支持其人工智能研究工作。即使他获得批量购买折扣,这也很容易累积到数十亿美元。
公司可以在不购买实际芯片的情况下进行这项工作,但借用也很昂贵。例如:亚马逊公司的云计算部门将以大约每小时6美元的价格租给客户由英特尔制造的大型工作处理器集群。相比之下,一组英伟达H100芯片的成本几乎是每小时100美元。
上个月,英伟达推出了一款名为Blackwell的新处理器设计,处理大型语言模型的速度是多倍于H100系列的Hopper线,价格预计也会相似。英伟达表示,需要大约2,000个 Blackwell GPU来训练一个1.8万亿参数的人工智能模型。这是OpenAI的GPT-4的估计大小,根据一份针对这家初创公司使用其文章训练人工智能系统的《纽约时报》诉讼。相比之下,英伟达表示,需要8,000个Hopper GPU来执行相同的任务。但这种改进可能会被行业推动构建更大的人工智能模型所抵消。
数据中心
购买这些芯片的公司需要一个地方来放置它们。Meta与最大的云计算公司 — 亚马逊、微软和谷歌 — 以及其他提供计算能力租赁的公司正在竞相建设新的服务器农场。这些建筑通常是定制建造的。它们容纳硬盘架、处理器、冷却系统、电气设备和备用发电机。
研究机构Dell’Oro Group估计,今年公司将花费2940亿美元建设和装备数据中心,而2020年这个数字为1930亿美元。其中很大一部分的扩张是由数字服务的广泛增长所推动 — 视频流媒体、企业数据的爆炸增长,以及你的社交媒体信息。但越来越多的支出被用于购买昂贵的英伟达芯片和其他专门硬件,以支持人工智能的蓬勃发展。
交易和人才
尽管芯片和数据中心占据了大部分成本,一些人工智能公司也花费数百万美元从出版商那里获取数据许可。OpenAI已经与几家欧洲出版商达成协议,将他们的新闻内容纳入ChatGPT,并训练其人工智能模型。这些协议的财务条款尚未披露,但彭博新闻此前曾报道,OpenAI同意支付数千万欧元给Politico和Business Insider的德国出版商Axel Springer SE,以使用其新闻文章的权利。这家初创公司还与时代、CNN和福克斯新闻进行了许可内容的谈判。尽管OpenAI在获得许可协议方面更为活跃,大型科技公司也在寻找获取构建引人注目人工智能工具所需的语言数据的方法。据路透社报道,谷歌已经达成了价值6000万美元的协议,从Reddit许可数据。据纽约时报报道,Meta员工据称讨论过收购书商西蒙与舒斯特公司。科技公司还在为人工智能人才展开激烈的争夺战。去年某个时候,Netflix Inc.发布了一个AI产品经理职位的广告,薪资高达90万美元。
更便宜的替代方案
微软,它在推动大型语言模型狂热方面做得比大多数公司都多,最近表示将尝试一种不同的方法。该公司预告了三个较小的AI模型,计算量较小。微软表示大型语言模型“仍将是解决许多复杂任务的黄金标准”,比如“高级推理、数据分析和上下文理解”。但对于某些客户和用例来说,较小的模型可能已经足够了。其他公司,包括Sakana AI,一家由两名前谷歌员工创立的初创公司,也在专注于较小的模型。“你并不总是需要一辆跑车,”弗雷斯特研究公司的高级分析师罗温·柯兰说道,他专注于人工智能。“有时候你需要一辆面包车或皮卡。并不是每个用例都需要每个人都在使用的一类模型。”然而,目前在人工智能领域的共识是,越大越好。这将是昂贵的。
微软公司将投资17亿美元在印度尼西亚建设云计算和人工智能基础设施,押注于东南亚最大经济体的增长。
首席执行官萨蒂亚·纳德拉在周二与印尼总统佐科·维多多会面后宣布了这一支出,将在四年内完成。该公司还承诺帮助东南亚250万人获得人工智能技能培训,其中包括印度尼西亚的84万人。