Wallstreetcn
2024.02.26 02:12
portai
I'm PortAI, I can summarize articles.

AI 芯片主战场,变了

英伟达公司的 AI 芯片主战场正在从训练芯片转向推理芯片,这是一个更具竞争力的领域。英伟达通过提供训练人工智能模型所需的芯片,成为一家价值 2 万亿美元的公司。然而,随着行业的发展,更大的机会将是销售推理芯片,为快速增长的实际使用生成式人工智能工具的公司和个人生产文本和图像。英伟达的首席财务官表示,去年超过 40% 的收入用于推理系统,这是一个重要的转变迹象。英特尔公司相信,随着客户专注于降低人工智能模型的运行成本,推理芯片将变得越来越有吸引力。

英伟达主导的 AI 芯片大战已经转向了一个新的战线——一个规模更大但也更具竞争力的战线。

英伟达通过提供训练人工智能模型这一极其复杂的工作所必需的芯片,将自己打造成一家价值 2 万亿美元的公司。随着行业的快速发展,更大的机会将是销售芯片使这些模型在训练后运行的芯片,为快速增长的实际使用生成式人工智能工具的公司和人们生产文本和图像。

目前,这种转变正在增加英伟达的销量。首席财务官科莱特·克雷斯 (Colette Kress) 上周表示,去年 Nvidia 数据中心业务的 40% 以上(收入超过 470 亿美元)用于部署人工智能推理系统,而不是训练。这一百分比是转变正在进行的第一个重要迹象。

克雷斯的评论缓解了一些担忧,即向部署人工智能系统的芯片(即执行所谓 “推理” 工作的芯片)的转变威胁到了英伟达的地位,因为与制造英伟达的芯片相比,这项工作可以使用功能更弱、成本更低的芯片来完成。

Melius Research 分析师 Ben Reitzes 在给客户的一份报告中表示:“人们认为 Nvidia 在推理领域的份额将低于训练领域。” “这一发现有助于揭示其从即将到来的推理爆炸中受益的能力。”

许多竞争对手认为,随着推理芯片变得更加重要,他们在人工智能市场上拥有更好的机会。

生产数据中心中央处理器的英特尔公司相信,随着客户专注于降低人工智能模型的运行成本,其芯片将越来越有吸引力。英特尔专门生产的芯片类型已经广泛用于推理,在执行该任务时,拥有 Nvidia 的尖端且更昂贵的 H100 AI 芯片并不那么重要。

英特尔首席执行官帕特·基辛格 (Pat Gelsinger) 在去年 12 月的一次采访中表示:“推理的经济学是,我不会承受 40,000 美元的 H100 环境,因为它会消耗太多电量,需要新的管理和安全模型以及新的 IT 基础设施。” “如果我可以在标准 [英特尔芯片] 上运行这些模型,那是理所当然的。”

美国银行分析师 Vivek Arya 表示,向推理的转变可能是英伟达季度收益报告周三出现的最重要消息,该报告超出了华尔街的预期,导致其股价本周上涨 8.5%,推动该公司估值约为 2 万亿美元。

Arya 表示,随着对人工智能模型的训练投资激增,焦点转向从人工智能模型中创收,推理能力将会上升。与英伟达占据主导地位的人工智能训练相比,这可能更具竞争力。

推理增长的速度可能比之前预期的要快。今年早些时候,瑞银分析师估计 90% 的芯片需求来自训练,而这一推论到明年只会推动 20% 的市场份额。分析师在一份报告中表示,英伟达大约 40% 的数据中心收入来自推理,“这个数字比我们预期的要大”。

事实上,英伟达周三的财务业绩表明,其在人工智能芯片领域超过 80% 的市场份额尚未受到严重挑战。英伟达用于训练人工智能系统的芯片预计在可预见的未来仍将保持旺盛的需求。

在训练人工智能系统时,公司通过模型运行海量数据,教它们以能够实现人类发音表达的方式预测语言。这项工作需要强大的计算能力,非常适合 Nvidia 的图形处理单元(GPU)。

推理工作是指这些模型被要求处理新的信息并做出响应——更轻松的提升。

除了英特尔和 AMD 等 Nvidia 的老牌竞争对手之外,随着推理成为焦点,许多人工智能芯片初创公司也可能获得发展动力。

“我们看到我们的推理用例呈爆炸式增长,” SambaNova 的首席执行官罗德里戈·梁 (Rodrigo Liang) 说,SambaNova 是一家初创公司,将人工智能芯片和软件相结合,可以进行推理和训练。“人们开始意识到 80% 以上的成本将用于推理,我需要寻找替代解决方案,” 他说。

Groq 是一家由前谷歌人工智能芯片工程师乔纳森·罗斯 (Jonathan Ross) 创立的初创公司,近几个月来,该公司主页上的演示展示了其推理芯片可以如何快速地从大型语言模型中生成响应,因此引起了人们的兴趣激增。罗斯表示,该公司预计今年将部署 42,000 个芯片,明年将部署 100 万个芯片,但正在探索将芯片总数今年增加到 220,000 个,明年增加到 150 万个。

他说,推动这一转变的一个因素是,一些最先进的人工智能系统正在被调整,以产生更好的响应,而无需重新训练它们,从而将更多的计算工作推向推理。他说,Groq 的专业芯片比 Nvidia 或其他芯片公司的产品运行速度更快、成本更低。

“据此推断,你可以部署什么取决于成本,” 他说。“有很多模型可以在谷歌接受训练,但它们中大约 80% 没有得到部署,因为它们太贵了,无法投入生产。”

大型科技公司——包括 Meta、微软,谷歌和亚马逊——一直致力于内部开发推理芯片,认识到即将到来的转变以及能够更便宜地进行推理的好处。

例如,亚马逊自 2018 年以来就拥有推理芯片,该公司云计算部门数据和机器学习副总裁斯瓦米·西瓦苏布拉马尼安 (Swami Sivasubramanian) 去年表示,推理占其 Alexa 智能助手计算成本的 40%。

就英伟达而言,它正在寻求在向推理过渡的过程中保持领先地位。去年,一款即将推出的芯片在一项关键的人工智能推理基准测试中取得了行业领先的结果,延续了该公司多年来在竞争中的主导地位。

去年 12 月,AMD 推出了新的人工智能芯片,据称其推理能力优于 Nvidia 的芯片后,Nvidia 在一篇博客文章中予以回击,对这一说法提出质疑。英伟达表示,AMD 在宣称其性能时并未使用优化软件,如果这样做,英伟达的芯片速度将是原来的两倍。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。