
英偉達超算內存容量擴大 500 倍!“算力推動存力” 邏輯兑現?

昨日,英偉達創始人黃仁勳在 COMPUTEX 2023 現場發佈了重磅產品超級計算機 DGX GH200。 據介紹,DGX GH200 共鏈接 256 個 Grace Hopper 超級芯片,能夠提供 1exaflop 的性能、具有 144TB 的共享內存,相較 2020 年推出的上一代 DGX A100,內存容量擴大了近 500 倍。 台灣經濟日報今日報道指出,DGX GH200 系統將推動內存需求大爆發,DRAM 龍頭南亞科及愛普、羣聯等內存相關廠商將顯著受益。
昨日,英偉達創始人黃仁勳在 COMPUTEX 2023 現場發佈了重磅產品超級計算機DGX GH200。
據介紹,DGX GH200 共鏈接 256 個 Grace Hopper 超級芯片,能夠提供 1exaflop 的性能、具有 144TB 的共享內存,相較 2020 年推出的上一代 DGX A100,內存容量擴大了近 500 倍。
台灣經濟日報今日報道指出,DGX GH200 系統將推動內存需求大爆發,DRAM 龍頭南亞科及愛普、羣聯等內存相關廠商將顯著受益。
市調機構集邦諮詢近期也發佈報告表示,AI 服務器可望帶動內存需求成長,以企業級 SSD 來看,AI 服務器追求速度更高,要求優先往 DRAM 或 HBM 滿足。此外,高階深度學習 AI GPU 的規格也刺激 HBM 產品更迭,2023 下半年伴隨 NVIDIA H100 與 AMD MI300 的搭載,三大原廠(SK 海力士、三星、美光科技)也已規劃相對應規格 HBM3 的量產。
此外,業界認為,雖然當前 AI 服務器內存以 HBM 為主,但隨着整體出貨量持續增長,以及未來 AI 模型逐漸複雜化趨勢下,也會刺激服務器 DRAM、固態硬盤(SSD)用量激增,存儲器相關廠商均有望受益。
算力推動存力
AI 引爆的龐大算力需求推動 AI 服務器出貨量高增,同時也對 AI 服務器的存力提出更高的需求,算力推動存力趨勢凸顯。中金公司(行情601995,診股) 測算,2023-2025 年,僅 AI 需求就將會為存儲帶來 80 億美元增量市場。
上文所述的 HBM 有望成為主流方案。HBM(high bandwidth memory)指高帶寬內存。通過 TSV 堆棧的方式,HBM 能達到更高的 I/O 數量,顯存位寬能夠達到 1,024 位,顯著提升,此外還具有更低功耗、更小外形等優勢。
2023 年以來,三星、SK 海力士兩家存儲大廠 HBM 訂單快速增加,價格也水漲船高。集邦諮詢報告顯示,2023-2025 年 HBM 市場 CAGR 有望成長至 40-45% 以上。多家機構亦指出,CHATGPT催生 AI 存力新需求,HBM 芯片或將量價齊升。
DRAM 也是 AI 時代的 “寵兒”。華西證券(行情002926,診股) 在近期研報中指出,AI 是 DRAM 行業增長引擎。在 AI 的大時代下,DRAM 有望成為繼 GPU 後,另外一重要算力核心。
在 DRAM 領域,CXL(Compute Express Link,計算快速鏈接)技術備受市場關注。CXL 是一種全新的互聯技術標準,其帶來的 DRAM 池化技術可以大大節約數據中心的建設成本,同時也將大大帶動 DRAM 的用量。機構普遍認為,節約下來的成本將會主要用於對 DRAM 的採購,TB 級別的 DRAM 將會在更多通用性服務器中廣泛使用。
總體來説,隨着 AI 模型的運算數據量發生指數式增長,對更多的內存、更高的帶寬提出需求。一方面 DRAM 技術迭代以滿足需求,另一方面高帶寬存儲器(HBM)提供新的解決方案。
不過需要注意的是,DRAM 大廠南亞科總經理李培瑛在相關報道中指出,ChatGPT 興起帶來的 AI 應用,短時間是否會造成(存儲)產業變化仍有待觀察。但若未來 AI 需求成長呈現百花齊放,將帶給產業很多的成長機會。
