AMD(AMD)通过MI300人工智能加速器芯片系列挑战Nvidia(NVDA)- 彭博报道
Ian King, Edward Ludlow
Advanced Micro Devices Inc.(AMD)正在瞄准由Nvidia Corp.主导的蓬勃发展的市场,推出了新的所谓的加速器芯片,据称能够比竞争对手的产品更快地运行人工智能软件。
该公司在加利福尼亚州圣何塞举行的周三活动上推出了一款备受期待的MI300系列。首席执行官Lisa Su还对人工智能芯片行业的规模做出了惊人的预测,称其在未来四年内可能会超过4000亿美元。这比AMD在8月份给出的预测高出一倍多,显示了人工智能硬件的预期正在迅速改变。
这次发布是AMD五十年历史上最重要的之一,与Nvidia在炙手可热的人工智能加速器市场上展开了一场对决。这些芯片通过向其大量输入数据来帮助开发人工智能模型,这是它们比传统计算机处理器更擅长的任务。
观看:AMD首席执行官Lisa Su谈论他们的新人工智能芯片。
“构建能与人类智慧媲美的人工智能系统——被视为计算机的圣杯——现在已经触手可及,”Su在一次采访中说道。但是,该技术的部署仍然只是刚刚开始。她表示,需要时间来评估其对生产率和经济其他方面的影响。
“事实是我们还处于非常早期阶段,”Su说。“这不是一时的风尚。我相信这一点。”
AMD越来越有信心,MI300系列可以赢得一些科技巨头的青睐,潜在地将数十亿美元的支出转向该公司。使用这些处理器的客户将包括微软、甲骨文和Meta Platforms Inc.,AMD表示。
Nvidia股价周三在纽约下跌2.3%,至455.03美元,这表明投资者认为新芯片构成威胁。尽管如此,AMD股价并未出现相应增长。在科技股普遍下跌的一天,AMD股价下跌1.3%,至116.82美元。
数据中心运营商对Nvidia芯片需求激增,帮助推动该公司股价今年上涨,使其市值超过1.1万亿美元。一个重要问题是它将在加速器市场独占多久。
AMD看到了机会:大型语言模型(如OpenAI的ChatGPT等AI聊天机器人所使用的)需要大量计算机内存,而这正是芯片制造商认为自己具有优势的地方。
新的AMD芯片拥有超过1500亿个晶体管,比Nvidia的H100(目前的市场领导者)多2.4倍的内存。它还拥有1.6倍的内存带宽,进一步提升性能,AMD表示。
AMD在数据中心芯片销售中追赶Nvidia
Nvidia在该市场的人工智能优势提升了其收入
来源:彭博社编制的公司数据
苏(AMD首席执行官)表示,新芯片在训练AI软件方面与Nvidia的H100相当,并且在推理方面要好得多——即软件准备投入实际应用后的运行过程。
虽然公司对其产品性能表示信心,苏表示这不仅仅是两家公司之间的竞争。许多其他公司也将争夺市场份额。
与此同时,Nvidia正在开发自己的下一代芯片。H100将会被H200在明年上半年取代,从而获得新的高速内存类型。这应该至少能与AMD的产品相匹敌。然后Nvidia预计在年底推出处理器的全新架构。
AMD预测,人工智能处理器将发展成为一个价值4000亿美元的市场,这凸显了人工智能行业的无限乐观。根据IDC的数据,2022年整个芯片行业的规模为5970亿美元。
观看:在Sam Altman重返OpenAI一周后,我们揭开了发生了什么以及对人工智能未来意味着什么。
就在8月,AMD还对同一时期的市场做出了更为谨慎的预测,仅为1500亿美元。但公司需要一段时间才能在该市场上占据一席之地。AMD表示,到2024年,其加速器的收入将超过20亿美元,分析师估计该芯片制造商的总销售额将达到约265亿美元。
这些芯片基于一种称为图形处理单元(GPU)的半导体类型,通常被视频游戏玩家用来获得最逼真的体验。它们通过同时进行大量计算来迅速执行某种类型的计算,因此成为训练人工智能软件的首选。