
Nvidia Is Opening Its NVLink Technology to Others: But Is That Bullish or Bearish for the Stock?

英偉達在台北國際電腦展上宣佈,將通過 NVLink Fusion 向其他芯片組開放其 NVLink 技術,從而允許與非英偉達系統的集成。這一舉措可以被視為在定製 AI 加速器和傳統技術競爭中擴展其網絡市場的戰略。儘管英偉達的 GPU 銷售依然強勁,但其網絡收入卻滯後,這促使其進行這一轉變,以提升銷售並適應不斷變化的市場動態。該決定可能有助於英偉達在定製 ASIC 在 AI 工作負載中獲得市場份額的情況下保持相關性
在上週末的台灣計算機展上,人工智能(AI)GPU 領導者 Nvidia(NVDA -0.99%)做出了一個非常有趣的宣佈:它將把其 NVLink 技術開放給其他芯片組,而不僅限於 Nvidia 自家的產品,這一產品被稱為 NVLink Fusion。
這一舉動無疑是有趣的,可以從正面和負面兩個角度進行解讀。深入細節來看,這一舉動對股東來説是好兆頭還是壞兆頭?
什麼是 NVLink?
如今,AI 處理遠不止是一個芯片的工作。相反,Nvidia 首席執行官黃仁勳認為,整個服務器甚至完整的機架可以作為一個 “巨型芯片” 來運作。例如,Nvidia 剛剛開始銷售 GB200 NVL72 機架,其中包含 72 個 Blackwell GPU 和 36 個 Grace CPU,所有這些都通過 Nvidia 自家的網絡技術連接在一起。
這些 Nvidia 網絡技術本質上是兩個產品系列:NVLink 和 Infiniband。NVLink 是一種連接技術,用於在服務器內連接 GPU,而 Infiniband 則用於將整個服務器連接在一起。
Nvidia 在做什麼
上週末,Nvidia 宣佈了 NVLink Fusion,使系統製造商能夠在不包含 Nvidia 芯片的服務器中集成 NVLink 技術。
例如,NVLink Fusion 可用於連接大型雲公司為自己設計的定製 ASIC。Marvell Technologies(MRVL -2.09%)被 Nvidia 指定為該項目的關鍵合作伙伴。Marvell 不僅為雲巨頭的芯片(如 Amazon 的 Trainium)製造定製的 AI 加速器組件,還生產各種數據中心互連技術。
此外,NVLink Fusion 還允許 Nvidia GPU 連接到非 Grace CPU。例如,Fujitsu 和 Qualcomm 正在嘗試進入數據中心 CPU 領域,並且根據新聞稿,他們也與 Nvidia 合作進行 NVLink Fusion,希望能夠被納入更多的 Nvidia AI 系統。
新聞稿中提到的其他合作伙伴包括電子設計自動化軟件巨頭 Synopsis 和 Cadence Design Systems,它們幫助芯片製造商設計芯片組和整個系統,以及其他數據中心連接公司。
圖片來源:Getty Images。
Nvidia 為什麼要這樣做?
有些人可能會想,Nvidia 為什麼要將其 NVLink 技術基本上開放給其他公司,考慮到擁有一個 “封閉” 的生態系統將迫使客户購買完整的 Nvidia 解決方案,包括 Nvidia 的 GPU 和 CPU。那麼,Nvidia 為什麼會如此 “友好” 和 “開放”?
Nvidia 已經向不使用其 NVLink 技術或 Infiniband 的系統銷售了大量 GPU,最近的結果顯示其網絡設備銷售遠遠落後於芯片銷售。上個季度,儘管 Nvidia 的數據中心半導體收入增長了 116%,但其數據中心網絡收入實際上下降了 9%。
原因可能是來自傳統網絡技術的競爭,這些技術正在被行業更新以適應 AI。例如,去年,一些主要科技巨頭組成的財團聯合創建了 UALink,這是 NVLink 的一個開源替代品。這是在 2023 年由這些公司成立的超以太網財團的基礎上,後者創建了一種基於以太網的替代方案,以對抗 Nvidia 的 Infiniband——即使在基於 Nvidia GPU 的系統中也是如此。
由於其網絡技術的採用程度不及其 GPU,Nvidia 可能試圖擴大其網絡可尋址市場,以便在非 Nvidia 系統中提升銷售。
這也可能是一個防禦性舉措
除了擴大網絡市場,Nvidia 可能還在承認定製設計的 AI 加速器相對於 Nvidia 芯片的採用率在增加。雖然 Nvidia 的 GPU 不會消失,但請記住,Nvidia 在極其昂貴的芯片上大約有 75% 的毛利率。當一家雲公司設計自己的定製 AI 加速器時,它只需支付給代工廠的毛成本。因此,這意味着雲公司在製造自己的定製芯片時,只需支付大約 25% 的 Nvidia 芯片成本。
雖然設計自己芯片會有額外的研發成本,但由於 AI 加速器非常昂貴,並且在最新的 AI 系統中以大規模部署,毛成本遠遠超過這些額外的研發設計成本。
因此,ASIC 的需求正在上升。根據 The Information Network 的數據,定製 ASIC 的市場份額從 2023 年的約 22% 增加到預計 2025 年的 30%,而 GPU 的市場份額則從 2023 年的約 72% 降至預計今年的 65%。根據分析師的説法,CPU 和 FPGA 佔據了剩餘的約 5% 的 AI 工作負載。
現在,Nvidia 仍然應該會增長,因為整體 AI 基礎設施市場仍在快速增長。然而,Nvidia 可能會隨着時間的推移繼續失去市場份額給成本更低的定製 ASIC。通過開放其 NVLink 技術,它可能仍然會找到進入這些雲巨頭系統的方法,即使 ASIC 從 GPU 中獲得了更多的市場份額,也能帶來增量收入機會。
這對股東意味着什麼
總體而言,Nvidia 嘗試獲得對雲巨頭 ASIC 系統的接觸可能是個好主意,因為這些系統可能會隨着時間的推移而獲得市場份額。然而,新的 NVLink Fusion 產品可能對那些預期 Nvidia GPU 長期超高速增長,或至少在這些相同利潤率下持續超高速增長的人發出警告。
雖然 Nvidia 目前確實擁有先發和軟件優勢,但云巨頭有能力投資於自己的硅,並且只要他們能夠節省數百億美元,他們就會繼續這樣做。看起來 Nvidia 可能正在通過 NVLink Fusion 承認這一現實。
