
"Father of HBM": The commercialization process of High Bandwidth Flash (HBF) exceeds expectations and may be integrated into GPUs within 2-3 years, with a market size surpassing HBM

“HBM 之父” Kim Joungho 最新預測顯示,高帶寬閃存(HBF)商業化進程較預期明顯加速,該技術有望在未來 2-3 年內即集成至英偉達、AMD 等 GPU 產品中。憑藉 NAND 堆疊帶來的十倍級容量優勢,HBF 將填補 HBM 在 AI 推理場景的存儲缺口。市場預計其將在 HBM6 階段實現規模化應用,到 2038 年市場規模甚至可能反超 HBM,成為下一代高帶寬存儲的關鍵力量。
高帶寬閃存(HBF)商業化進程加速,這一被視為 “NAND 版 HBM” 的新型存儲技術有望比預期更早落地。韓國科學技術院教授、被稱為 “HBM 之父” 的 Kim Joungho 近日透露,三星電子與 SanDisk 計劃在 2027 年底至 2028 年初將 HBF 集成到英偉達、AMD 及谷歌的產品中。
Kim Joungho 指出,得益於 HBM 積累的工藝與設計經驗,HBF 的商業化進程將遠快於當年 HBM 的開發週期。他預測 HBF 將在 HBM6 推出階段實現廣泛應用,並估計到 2038 年左右,其市場規模有望超越 HBM。
AI 工作負載的持續增長是推動 HBF 發展的關鍵動力。與傳統基於 DRAM 的 HBM 相比,HBF 通過垂直堆疊 NAND 閃存,在保持高帶寬的同時提供約 10 倍容量,尤其適合 AI 推理等大容量場景。目前三星電子和 SK 海力士已與 SanDisk 簽署諒解備忘錄,共同推進 HBF 標準化,目標在 2027 年將產品推向市場。
HBF 技術優勢:容量與帶寬的平衡
HBF 採用類似 HBM 的垂直堆疊架構,但堆疊的是 NAND 閃存而非 DRAM 芯片,這一關鍵差異帶來顯著的容量提升。據行業分析,HBF 帶寬可超過 1638 GB/s,遠高於 NVMe PCIe 4.0 SSD 約 7 GB/s 的帶寬;其容量預計可達 512GB,顯著超越 HBM4 的 64GB 上限。
Kim Joungho 進一步闡釋了 HBF 在 AI 工作流中的定位:當前 GPU 進行 AI 推理時需從 HBM 讀取變量數據,未來這一任務可由 HBF 承擔。儘管 HBM 速度更快,但 HBF 能提供約 10 倍於 HBM 的容量,更適合大容量數據處理場景。
技術限制方面,Kim Joungho 指出 HBF 支持無限次讀取,但寫入次數受限(約 10 萬次),這要求 OpenAI、谷歌等企業在軟件設計中需構建以讀取為中心的優化架構。他生動比喻道:
“若將 HBM 比作家庭書架,HBF 則如同去圖書館學習——速度稍緩,卻擁有更龐大的知識庫可供調用。”
產業佈局:存儲巨頭加速推進
SK 海力士預計將於本月晚些時候推出 HBF 試用版並進行技術演示。此前,三星電子和 SK 海力士已與 SanDisk 簽署諒解備忘錄,共同成立聯合聯盟以推進 HBF 的標準化進程。目前,兩家公司均在積極開發相關產品。
據 TrendForce,SanDisk 已於 2025 年 2 月率先發布 HBF 原型,併成立了技術顧問委員會。同年 8 月,該公司與 SK 海力士簽署諒解備忘錄,旨在推動規格標準化,計劃於 2026 年下半年交付工程樣品,2027 年初實現商用。三星電子則已啓動自有 HBF 產品的概念設計階段。
HBF 的技術實現主要依託硅穿孔(TSV)技術完成多層 NAND 芯片的垂直堆疊,採用先進的 3D 堆疊架構與芯片到晶圓鍵合工藝。每個封裝可堆疊多達 16 顆 NAND 芯片,支持多陣列並行訪問,帶寬可達 1.6TB/s 至 3.2TB/s,與 HBM3 性能持平。單堆棧容量最高為 512GB,若採用 8 堆棧配置,總容量可達 4TB,相當於 HBM 容量的 8 至 16 倍。
未來架構:從 HBM6 到"內存工廠"
Kim Joungho 預測,HBF 將在 HBM6 推廣階段實現廣泛應用。他指出,進入 HBM6 時代後,系統將不再依賴單一堆棧,而是通過互聯形成 “存儲集羣”,類似於現代住宅綜合體的構建邏輯。基於 DRAM 的 HBM 受容量限制明顯,而採用 NAND 堆疊的 HBF 將有效填補這一缺口。
在系統架構演進方面,Kim Joungho 提出了更為精簡的數據通路構想。當前 GPU 獲取數據需經歷存儲網絡、數據處理器與 GPU 管道的複雜傳輸流程,而未來有望實現數據在 HBM 之後的近端直接處理。這一被稱為 “內存工廠” 的架構預計將在 HBM7 階段出現,極大提升數據處理效率。
HBF 未來將與 HBM 並置,部署於 GPU 等 AI 加速器周圍。Kim Joungho 表示:“我相信在 2 至 3 年內,HBF 這一術語將變得耳熟能詳。” 他進一步指出,此後 HBF 將進入快速發展期,並逐步承載起後端數據存儲的核心角色。
展望長期市場,Kim Joungho 預測到 2038 年左右,HBF 的市場規模有望超越 HBM。這一判斷基於 AI 推理場景對高容量存儲的持續需求,以及 NAND 閃存在存儲密度上相對於 DRAM 的天然優勢。不過,受 NAND 物理特性限制,HBF 延遲高於 DRAM,因此更適用於讀取密集的 AI 推理任務,而非對延遲極為敏感的應用場景。
