
華泰證券:AI 芯片競爭加劇 英偉達發佈 H200 新品迭代提速顯著

多方入局下,AI 芯片競爭已趨白熱化。
智通財經 APP 獲悉,華泰證券發佈研究報告稱,頭部科技大廠出於削減 TCO、提升研發可控性及集成生態等考量,均陸續自研芯片,他們或將成為英偉達 (NVDA.US) 最大競爭對手。英偉達剛推出 NVIDIA HGX H200,從 HBM3 內存升級到 HBM3e,也是首款採用 HBM3e 的 GPU,相較於前代 H100 展現了顯著的性能提升和效率革新。主要針對 AI 計算的兩大瓶頸:內存容量與帶寬。其旗艦芯片迭代週期也顯著加速,從大約兩年發佈轉為一年多版。AWS、谷歌雲、微軟 Azure 和甲骨文等將成為其主要客户。
華泰證券主要觀點如下:
多方入局下,AI 芯片競爭已趨白熱化
英偉達 GPU 一直是 AI 訓練端首選,華泰證券認為包括谷歌 TPU 和 AMD MI300 系列等少數芯片能與其匹敵。但當算法開始成熟,ASIC 定製芯片憑着專用性和低功耗,能承接部分算力。該機構認認為頭部科技大廠出於削減 TCO、提升研發可控性及集成生態等考量,均陸續自研芯片,他們或將成為英偉達最大競爭對手,如特斯拉 Dojo、亞馬遜在 18 和 20 年發佈的 AI 推理芯片 Inferentia 及訓練芯片 Trainium、以及微軟或將在 11 月 14 日 Ignite 會議推出的首款自研 AI 芯片 “Athena(雅典娜)”。AI 推理市場規模大,但對算力要求比訓練低,目前雖以 CPU 主導,但 GPU/FPGA/ASIC 等也能佔到一席位。
英偉達推出 NVIDIA HGX H200,新品迭代提速顯著
英偉達於美國時間 11 月 13 日推出 NVIDIA HGX H200。H200 從 HBM3 內存升級到 HBM3e,是首款採用 HBM3e 的 GPU,擁有高達 141GB 的內存容量,及 4.8TB/s 的帶寬,對比 H100 的 80GB 和 3.35TB/s 大幅提升。在性能表現方面,H200 重點強化了推理性能和 HPC 性能,有效降低了能耗和整體成本。根據 SemiAnalysis 在 10 月 10 日的報道,英偉達未來 AI 芯片路線圖顯示,公司計劃在明後兩年推出 H200、B100 和 X100 等芯片及配套方案。這一策略標誌着其旗艦芯片迭代週期的顯著加速,即發佈間隔從大約兩年轉變為一年多版,展示了公司的創新能力和領導地位。
NVIDIA HGX H200:性能與效率的雙重提升
NVIDIA 的 HGX H200 相較於前代 H100 展現了顯著的性能提升和效率革新。在推理應用中,H200 將 Llama 2(700 億參數的大型語言模型) 的推理速度提高了近一倍。此外,H200 還相對 H100 實現了 TCO(Total Cost of Ownership) 和能耗成本 50% 的降低。內存容量與帶寬是限制 AI 計算的主要瓶頸,H200 在加速生成式 AI 和大型語言模型方面更為出色,標誌着 NVIDIA 在高性能計算領域邁出了重要一步。成本的減低也將有利於整體 AI 芯片在推理場景的應用的推進。
HGX H200 預計在 24Q2 發貨,AWS 等雲大廠均為首批用户
H200 能夠與 HGX H100 系統的硬件和軟件兼容。2023 年 8 月在 SIGGRAPH 大會發布的 GH200 Grace Hopper 超級芯片 (HBM3e 版本) 即為 H200 與 Grace CPU 配合使用。公司也計劃兩者均於 24Q2 正式出貨。除了英偉達自己投資的 CoreWeave、Lambda 和 Vultr 之外,AWS、谷歌雲、微軟 Azure 和甲骨文,都將成為首批部署基於 H200 實例的供應商。
風險提示:技術落地緩慢;中美競爭加劇;芯片需求不及預期;宏觀經濟不確定性。
