Wallstreetcn
2023.11.06 07:23
portai
I'm PortAI, I can summarize articles.

AMD MI300 绝杀英伟达 H100?

跑 GPT-4 性能超 25%,AI 芯片大决战一触即发!业内甚至认为,MI300X 第四季度的出货量可以达到 110,000 台!

面对即将到来的 AI 芯片大决战,不少芯片初创公司跃跃欲试,希望一举打破英伟达的垄断地位。而 AMD 的 MI300,在部署 32K 上下文窗口的 GPT-4 模型时,居然比 H100 效果更好?

AI 芯片大决战,即将来临!

AI 硬件开发商初创公司的未来会怎样?

Tenstorrent CEO David Bennett 直言不讳地表示,在我们这个行业,大部分初创公司的结局就是倒闭。

该如何生存?他建议初创企业应该保持灵活性,避免将自己局限在狭隘的用例中。

这里,Bennett 指的并不是某个小众市场, 而是由 SiMa.ai 到 Cerebras 等数十家公司组成的一个广泛集团。他们共同筹集了数十亿美元的风投,来对抗这个市场的领导者——英伟达。

Bennett 深谙此道。他曾在 AMD 从事销售工作十多年。

而他目前的雇主 Tenstorrent 的 CEO,是 Jim Keller,一位硬件传奇人物。他曾开发出支持 iPhone 4 和 iPad 2 的苹果 A4 和 A5 处理器,并在 2016 年至 2018 年负责特斯拉自动驾驶汽车的硬件工作。

Tenstorrent 公司已经从富达风投和现代汽车等投资者筹集了超过 3 亿美元的资金,它遵循了 Bennett 的建议:从芯片到云计算等,提供一切服务。

Bennett 表示,如今的芯片初创公司,大致都是在「为 AI 制造专用硬件」和「依赖当下流行模式」这两者之间徘徊。

英伟达的劣势:很难从头制造芯片

英伟达的 AI 芯片 GPU 起家的故事,实际上为今天的芯片初创公司提供了优势。

图形处理单元起初是为计算机图形学提供动力的,但由于它能并行执行多种计算,才在 AI 应用领域大放异彩。

不过,但这一意外也给英伟达带来了不利因素——现在,英伟达很难在不影响现有 GPU 业务的情况下,从头开始制造芯片了,而这,就给了新兴初创公司提供了机会,制造专为 AI 打造的新硬件。

比如,Tenstorrent 的工程师就为未来的稀疏神经网络设计了 Grayskull 芯片,在这种网络中,冗余信息可以被去除。

尽管如此,Bennett 认为,专注于为大语言模型构建芯片的初创公司,和 Transformer 架构捆绑得太紧了。

在这种架构下,基于 Transformer 的模型基本是在预测最有可能出现的下一个单词,因此它们一直被诟病生成的回答是基于概率,而非基于推理。

这也就意味着,在当前的 AI 热潮中,这些模型架构可能无法幸存下来。

毕竟,由于发展速度太快,如今的 LLM 寿命相对较短。昨天还炙手可热的模型,一两周后可能就会销声匿迹。

另一个对硬件公司来说风险很大的领域,就是制造专门用于推理的芯片。

这方面的代表是芯片开发商 d-Matrix,它计划在明年上半年发布推理专用芯片。

乍一看,这个策略似乎不错。生成式 AI 应用的用户现在会越来越多地利用现有的专有或开源模型,而不是从头开始构建自己的模型。

正因如此,许多人认为,应该在模型推理上花更多钱,而非模型训练上。

虽然从商业角度来看,这可能是一个明智之举,但 Bennett 认为,过于狭隘地专注于推理,会阻碍硬件开发人员为其他可能更受欢迎的用例提供服务。

例如,对于运行模型所需的低精度计算,纯推理芯片就够了。

但是,如果开发者想要微调大模型,就很可能需要能处理更高精度计算的芯片了。

尖端芯片,把 GPU 和 CPU 放在一起

为了在即将到来的 AI 芯片大决战中幸存,芯片开发商需要改变芯片的架构。

今天,大多数芯片都是把 GPU 和 CPU 分开的。前者能够同时执行多种计算,后者负责执行更多的通用指令,管理更广泛的系统操作。

然而越来越多的尖端芯片(如英伟达的 Grace Hopper 超级芯片和 AMD 即将推出的 MI300A),都将 GPU 和 CPU 放在一起。

这种布局可以让 CPU 更快地准备数据,将数据加载到 GPU 上,从而加快模型的训练。

另外,硬件初创公司想要打破英伟达的市场主导地位,还面临着一个最大的障碍,就是软件优势。

英伟达用于编写机器学习应用程序的 Cuda 软件,只能在自家芯片上运行。而这实际上就把开发者锁定在了英伟达 GPU 上。

AMD MI300 跑 GPT-4 更 6

英伟达的霸主地位,就这么难以撼动?

Semianalysis 记者 Dylan Patel 和 Myron Xie 最近就发文称,AMD 的 MI300 在性价比方面,将会明显优于英伟达的 H100!

他们表示,随着新一代 MI300 的推出,AMD 即将成为英伟达和谷歌在 LLM 推理领域唯一的竞争对手。

相比之下,Groq、SambaNova、英特尔、亚马逊、微软等公司仍无法与之抗衡。

此外,为了应对英伟达基于 CUDA 构建的护城河,AMD 一直在大力投资自己的 RoCM 软件、PyTorch 生态系统和 OpenAI 的 Triton。

随着 Databricks、AI21、Lamini、Moreph 等公司开始使用 AMD GPU 进行推理/训练,AMD 自己的生态也愈发完善。

据业内人士透露,拥有更大显存的 MI300,在部署 32K 上下文窗口的 GPT-4 模型时效果更好。

具体来说,与 H100 相比,MI300 的性能优势在 20% 到 25% 之间,具体取决于上下文长度和提示长度/每次查询输出的 token 数量。

再加上更低廉的价格,MI300 在性价比方面,将会明显优于英伟达的 H100,甚至是 H200。

大厂纷纷下单

目前,微软、Meta、甲骨文、谷歌、Supermicro/Quantadirect、亚马逊等公司已经向 AMD 下了大约 205,000 台 MI300 的订单。

在这之中,有 120,000 台专门供应给微软,25,000 台给 Meta,12,000 台给甲骨文,8,000 台给谷歌,5,000 台给亚马逊公司,35,000 台给其他公司。

而且由于数量巨大,微软购买 MI300 的价格预计要比其他客户低上不少。

为了计算 MI300 在明年为 AMD 带来的收入,需要从两个角度进行分析:AMD 能确保多少供应量,以及主要客户会订购多少。

在供应方面,MI300 的产能将在年内逐步提升,但由于英伟达 B100 会在第二季度开始出货,并在第三季度随着性价比更高的风冷版的推出而大幅提升,这将在很大程度上影响 AMD 在第四季度的出货量。

同时,还需要考虑内存制造商的 HBM 产量、CoWoS 产量、封装产量以及使用 CoWoS 生产的每种加速器的情况,包括英伟达、AMD、Google/Broadcom、Meta/Broadcom、Intel/Al Chip、Amazon/Al Chip、Amazon/Marvell、Microsoft/GUC 等。

即便如此,业内依然认为 MI300X 第四季度的出货量可以达到 110,000 台。

客户方面,微软、Meta、甲骨文、谷歌、Supermicro/Quantadirect 和亚马逊是订单的主要来源,但也有一些订单来自供应链的其他部分,包括一些用于 HPC 型应用的 MI300A。

利润方面,英伟达并没有降价的迹象,只是在价格不变的情况下增加了 HBM 容量/带宽。而与英伟达超过 80% 的利润率相比,AMD 在 MI300 上的利润率仅勉强超过了 50%。

AMD 首席执行官苏姿丰表示,基于公司在 AI 方面的快速进展以及云计算客户的购买承诺,数据中心 GPU 的收入预计将在第四季度达到 4 亿美元,2024 年将超过 20 亿美元。

这一增长也将使 MI300 成为 AMD 历史上销售额最快达到 10 亿美元的产品。

对此,业内对于 MI300X 的销售额则更加乐观——预期可以达到 35 亿美元。

从 AMD 目前在 LLM 训练和推理领域小于 0.1% 的市场份额来看,AMD 在数据中心领域的市场份额依然会稳步增长。

本文作者:好困 Aeneas,本文来源:新智元,原文标题:《AMD MI300 绝杀英伟达 H100?跑 GPT-4 性能超 25%,AI 芯片大决战一触即发》

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。