
AMD 全新 AI 芯片發售在即,大單已在手,有望叫板英偉達

一、事件:AMD 發售 MI300 系列 GPU 媒體報道,在 12 月 6 日於聖何塞舉辦的 Advancing AI 在線發佈會上,AMD 將發售 MI300 系列 GPU。根據此前發佈會,MI300 系列產品包含 MI300A 與 MI300X 芯片。其中,MI300A 是由 1460 億個晶體管組成的 CPU+GPU 加速器,這種佈局可以讓 CPU 更快地準備數據,將數據加載到 GPU 上,從而加快模型的訓練。
一、事件:AMD 發售 MI300 系列 GPU
媒體報道,在 12 月 6 日於聖何塞舉辦的 Advancing AI 在線發佈會上,AMD 將發售 MI300 系列 GPU。
根據此前發佈會,MI300 系列產品包含 MI300A 與 MI300X 芯片。其中,MI300A 是由 1460 億個晶體管組成的 CPU+GPU 加速器,這種佈局可以讓 CPU 更快地準備數據,將數據加載到 GPU 上,從而加快模型的訓練。
MI300X 則是專為數據中心市場設計的嚴格 GPU 產品。據稱,MI300X GPU 旨在推動 AI 計算的性能極限,預計將成為 AMD 在人工智能領域取得的新突破。AMD 執行長 Lisa Su 表示,MI300X 提供 5.2TBps 的內存帶寬,比 Nvidia 的 H100(SXM)GPU 好 1.6 倍。
據新智元,目前,微軟、Meta、甲骨文、谷歌、Supermicro/Quantadirect、亞馬遜等公司已經向 AMD 下了大約 205,000 台 MI300 的訂單。AMD 預測,MI300 芯片將是公司最快達到銷售額 10 億美元的產品。AMD 先前已上調本季 AI 相關 GPU 營收預測到 4 億美元,估計該公司明年 AI 相關營收將達到 24 億美元。
新品表現如何?
據,MI300 是 AMD 首款結合了 Zen4CPU 與 CNDA3GPU 的產品,也是市場上首款 “CPU+GPU+ 內存” 一體化產品。MI300 採用 3D 堆疊技術和 Chiplet 設計,在製程上 MI300 屬台積電 5nm,相較 MI200 系列的 6nm 實現了躍遷,並與英偉達 GraceHopper 的 4nm 製程(屬台積電 5nm 體系)看齊。
晶體管數量上,MI300 達到 1460 億,多於英偉達 H100 的 800 億,以及前代 MI250X 的 582 億晶體管數量。算力上,MI300 的性能逼近英偉達 GraceHopper,相較上一代的 MI250X,MI300 在 AI 上的算力(TFLOPS)預計能提升 8 倍,能耗性能(TFLOPS/watt)將優化 5 倍。
價格方面,AMD 管理層在 FY23Q1 財報電話會中表示將延續往日的高性價比定價風格,Semianalysis 記者近期發文稱,在性價比方面 AMD 的 MI300 將會明顯優於英偉達的 H100。
軟件生態是 AMD 最顯著的劣勢,認為,MI300 雖然目前可能在網絡互聯技術和生態圈較為受限,但在突出的性能和高性價比下或將成為 AMD 在 AI 競爭的關鍵拐點。
招商證券 [、]也表示,AMD 的 MI300A 和英偉達 GraceHopper 均屬於創新性 CPU+GPU 整體方案,MI300X 對標英偉達 H100,AMD MI300 系列產品在 HBM 等指標參數上顯著優於英偉達可比產品,未來或將有機會對英偉達近乎壟斷的高端計算市場發起衝擊。
此外,HBM 作為英偉達及 AMD 都在持續加碼的產品,招商證券 [、]指出,當前 AI 算力升級帶動服務器的 CPU 迭代並提升 GPU 需求,訓練型 AI 服務器中 GPU 承擔大部分算力,帶動 AI 服務器存儲容量和價值量較傳統服務器數倍增長,HBM(高帶寬存儲器)能夠突破訓練型 AI 服務器的 GPU 帶寬極限。根據 TrendForce,2023 年 HBM3 需求比重隨 NVIDIAH100、AMDMI300 量產而提升,預期 HBM3 與 HBM3e 將成為明年市場主流,預估 2024 年 HBM 營收年增長率將達 172%。
二、歷史龍頭表現
北京時間 6 月 14 日,AMD 在美國舊金山舉辦的 “數據中心和人工智能技術首映式” 活動上,介紹了 MI300 系列在內的一系列數據中心及人工智能相關技術產品。
5 月初至發佈會前夕,大漲超 50%。據悉,與 AMD 在封測領域有深度合作關係。
三、相關公司
據,AMD 產業鏈包括:
封測:
PCB:/
設計:
服務器:
風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。
