
英偉達新芯片,這個 “加配” 的技術成為數不多亮點?

機構預測,2023 年和 2024 年的 HBM 需求量將同比增長 100% 以上;在 2027 年之前,HBM 市場將以 82% 的複合增長率保持增長。
據澎湃新聞等報道,英偉達已開發出針對中國市場的最新改良版系列芯片——HGXH20、L20PCle 和 L2PCle。
據行業分析師預計, HGX H20 芯片和 L20 PCIe GPU 預計將於 2023 年 12 月推出,而 L2 PCIe 加速器將於 2024 年 1 月推出。
而值得注意的是,雖然算力上與 A100 有明顯差距,但新款算力芯片 H20 GPU 擁有 96GB HBM3 內存,內存帶寬為 4.0 TB/s,這比 “全球” H100 的 3.6 TB/s 帶寬更高,彌補了算力上的缺陷。
表示,AI 帶動的算力需求快速增長需要存儲芯片進行容量與帶寬上的配套, GDDR 方案帶寬迭代速度已難以滿足,而帶寬更高的 HBM 方案有望加速增長,預計 HBM 將在 24/25 年後成為市場主流。
什麼是 HBM?
HBM 叫高帶寬存儲器,是 AMD 和 SKHynix 聯合推出的基於 3D 堆疊技術的同步動態隨機存取存儲器(SDRAM),適用於高帶寬需求的應用場合,應用於高性能 GPU、網絡交換及轉發設備(如路由器、交換器)、高性能數據中心 AI ASIC 和 FPGA,以及一些超級計算機處理器中。
湘財證券指出,HBM 的誕生主要是為了解決 “內存牆” 和 “功耗牆” 的問題。
在一些特殊使用場景中(尤其是 AI 計算領域),處理器經常需要等待內存的數據回傳,超高的延時嚴重拖慢了運算設備整體的運行效率,內存帶寬逐漸成為限制計算機發展的關鍵,HBM 通過立體堆疊技術製造完成,這些堆疊的芯片通過稱為 “中介層 (Interposer)” 的超快速互聯方式,連接至 GPU,實現了普通存儲 8.5 倍的帶寬,有效解決了內存牆問題
其次,大規模的數據傳輸需要 CPU 與存儲器通過數據總線進行頻繁的數據交換,傳輸過程消耗的功耗要比計算本身的功耗更大,帶來了成本問題,數據中心運營成本中電力成本佔到 56.70%,而電力成本中 67.29% 來自於 IT 負荷,HBM 的低功耗優勢有利於降低數據中心能源成本。
巨頭加碼 HBM 資本開支
目前,多家廠商競相訓練大模型,催生了大量需求。
據金融時報的報道,2023 年英偉達將出貨 55 萬片 H100,2024 年將出貨 150-200 萬片 H100,Omdia 預測 2023 年和 2024 年的 HBM 需求量將同比增長 100% 以上。2025 年以後,在 AI 訓練需求和 AI 推理需求的推動下,HBM 的需求將繼續快速增長,SK 海力士公司預測,在 2027 年之前,HBM 市場將以 82% 的複合增長率保持增長。
在此背景下,三星、美光、海力士三巨頭悉數加碼 HBM 的資本開支。
據韓國 The Elec 報道,三星電子和 SK 海力士兩家公司加速推進 12 層 HBM 內存量產。HBM 堆疊的層數越多,處理數據的能力就越強,目前主流 HBM 堆疊 8 層,而下一代 12 層也即將開始量產。
另據集邦半導體報道,三星計劃在天安廠建立一條新封裝線,用於大規模生產 HBM,該公司已花費 105 億韓元購買上述建築和設備等,預計追加投資 7000 億-1 萬億韓元。
美光方面,首席執行官 Sanjay Mehrotra 稍早前透露,公司 HBM3E 目前正在進行英偉達認證,計劃於 2024 年初開始大量出貨。首批 HBM3E 採用 8-Hi 設計,提供 24GB 容量和超過 1.2TB/s 頻寬。公司計劃於 2024 年推出超大容量 36GB 12-Hi HBM3E 堆疊。此前美光曾透露,預計 2024 年新的 HBM 將帶來數億美元的收入。
國產廠商發力上游材料領域
HBM 產業鏈主要由 IP、上游材料、晶粒設計製造、晶片製造、封裝與測試等五大環節組成,國內廠商則主要處於上游材料領域。
民生證券指出,材料端來看,每個 HBM 封裝內部都堆疊了多層 DRAMDie,各層 DRAMDie 之間以硅通孔(TSV)和微凸塊(microbump)連接,最後連接到下層的 HBM 控制器的邏輯 die。因此 HBM 的獨特性主要體現在堆疊與互聯上。
對於製造材料,HBM 核心之一在於堆疊,HBM3 更是實現了 12 層核心 Die 的堆疊,多層堆疊對於製造材料尤其是前驅體的用量成倍提升;
對於封裝材料,HBM 將帶動 TSV 和晶圓級封裝需求增長,而且對封裝高度、散熱性能提出更高要求。
風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。
