人工智能支出将会减缓云芯片的增长 - 华尔街日报
Dan Gallagher
Nvidia的H100数据中心处理器在上周的Google会议上受到了赞扬。照片: Google上周宣布的Google雄心勃勃的生成式人工智能计划对一个芯片制造商来说是个好消息。只有一个。
在周三举行的为期两个小时的I/O开发者大会上,Google特别强调了其使用的Nvidia的H100,这是一款高端数据中心处理器,这家芯片制造商今年早些时候才开始发货。没有其他芯片制造商或数据中心组件供应商得到这样的赞扬。而且不仅仅是Google;微软首席执行官Satya Nadella在上个月的公司财报电话会议上提到了Nvidia,作为支持其声称“我们拥有最强大的人工智能基础设施”这一观点的关键支撑点,用以训练大型数据模型。同样,没有提到其他芯片制造商。
这些对Nvidia来说是好迹象,这是市场上市值最高的芯片公司。自年初以来,其市值已经几乎翻了一番。
预计在本月晚些时候公布的自己的业绩中,Nvidia预计报告数据中心收入同比增长4%,达到40亿美元,截至4月份的财季。对于去年增长高两位数的业务部门来说,这可能看起来有点微弱,但与英特尔在三月季度报告的数据中心部门的38%暴跌形成鲜明对比。即使是一直在这一关键市场上赶超英特尔的AMD,在三月份的数据中心基本没有增长,并且预计六月季度将会下降。
Nvidia的优势在于其专为人工智能设计的图形处理器。随着科技巨头如Alphabet的 Google,Microsoft,Amazon和Facebook-母公司Meta Platforms现在急于建立类似于流行的ChatGPT技术的生成式人工智能能力,他们需要像Nvidia的H100芯片这样的组件。但这些公司也面临核心业务放缓的压力,因此不得不减缓最近一直飙升的资本支出。
在三月季度,这四家公司的综合资本支出同比下降了4%,这是四年来首次出现的下降。市场研究公司Dell’Oro Group预计,与2022年36%的激增相比,今年数据中心特定的资本支出将以中单位数增长。
但这种放缓的痛苦不会平均分布。需要投资于昂贵芯片如Nvidia的H100来支持生成式人工智能产品意味着必须在数据中心支出的其他方面削减开支。根据摩根士丹利分析师乔·摩尔周五的一份报告写道,“很明显,客户正在整合传统服务器的采购,以在预算中为价格提高20倍的GPU服务器腾出空间。”
Google计划将聊天机器人功能融入其庞大的搜索业务本身就是一项昂贵的计划:New Street Research的Pierre Ferragu表示,用Nvidia的芯片为所有Google查询提供动力将额外增加800亿美元的资本支出,尽管他补充说他预计该公司将用其自己的内部TPU芯片抵消部分这些计算需求。
去年芯片购买激增的消化过程可能会在今年的进展中帮助其他数据中心芯片制造商。摩根士丹利的摩尔先生表示,对于AMD来说,人工智能的机会“看起来是我们最初评估的数倍”,最初预计该芯片制造商在2024年的人工智能收入为1亿美元。摩尔先生现在认为这个数字在4亿美元左右。
然而,人工智能带来的收益将是芯片行业中为数不多的亮点之一,该行业仍然陷入严重的销售低迷中。半导体工业协会本月早些时候报告称,三月份的行业销售额比去年同期下降了21%——这是自2009年以来该行业见过的最严重的月度下滑。该组织追踪的上一个主要放缓期持续了13个月,而当前的放缓期仅为8个月。即使是大科技公司的深口袋也有限。
请写信给丹·加拉格尔,邮箱为 [email protected]
发表于2023年5月16日的印刷版上,标题为“人工智能支出将掩盖半导体放缓”。