英伟达超算内存容量扩大 500 倍!“算力推动存力” 逻辑兑现?
昨日,英伟达创始人黄仁勋在 COMPUTEX 2023 现场发布了重磅产品超级计算机 DGX GH200。 据介绍,DGX GH200 共链接 256 个 Grace Hopper 超级芯片,能够提供 1exaflop 的性能、具有 144TB 的共享内存,相较 2020 年推出的上一代 DGX A100,内存容量扩大了近 500 倍。 台湾经济日报今日报道指出,DGX GH200 系统将推动内存需求大爆发,DRAM 龙头南亚科及爱普、群联等内存相关厂商将显著受益。
昨日,英伟达创始人黄仁勋在 COMPUTEX 2023 现场发布了重磅产品超级计算机DGX GH200。
据介绍,DGX GH200 共链接 256 个 Grace Hopper 超级芯片,能够提供 1exaflop 的性能、具有 144TB 的共享内存,相较 2020 年推出的上一代 DGX A100,内存容量扩大了近 500 倍。
台湾经济日报今日报道指出,DGX GH200 系统将推动内存需求大爆发,DRAM 龙头南亚科及爱普、群联等内存相关厂商将显著受益。
市调机构集邦咨询近期也发布报告表示,AI 服务器可望带动内存需求成长,以企业级 SSD 来看,AI 服务器追求速度更高,要求优先往 DRAM 或 HBM 满足。此外,高阶深度学习 AI GPU 的规格也刺激 HBM 产品更迭,2023 下半年伴随 NVIDIA H100 与 AMD MI300 的搭载,三大原厂(SK 海力士、三星、美光科技)也已规划相对应规格 HBM3 的量产。
此外,业界认为,虽然当前 AI 服务器内存以 HBM 为主,但随着整体出货量持续增长,以及未来 AI 模型逐渐复杂化趋势下,也会刺激服务器 DRAM、固态硬盘(SSD)用量激增,存储器相关厂商均有望受益。
算力推动存力
AI 引爆的庞大算力需求推动 AI 服务器出货量高增,同时也对 AI 服务器的存力提出更高的需求,算力推动存力趋势凸显。中金公司(行情601995,诊股) 测算,2023-2025 年,仅 AI 需求就将会为存储带来 80 亿美元增量市场。
上文所述的 HBM 有望成为主流方案。HBM(high bandwidth memory)指高带宽内存。通过 TSV 堆栈的方式,HBM 能达到更高的 I/O 数量,显存位宽能够达到 1,024 位,显著提升,此外还具有更低功耗、更小外形等优势。
2023 年以来,三星、SK 海力士两家存储大厂 HBM 订单快速增加,价格也水涨船高。集邦咨询报告显示,2023-2025 年 HBM 市场 CAGR 有望成长至 40-45% 以上。多家机构亦指出,CHATGPT催生 AI 存力新需求,HBM 芯片或将量价齐升。
DRAM 也是 AI 时代的 “宠儿”。华西证券(行情002926,诊股) 在近期研报中指出,AI 是 DRAM 行业增长引擎。在 AI 的大时代下,DRAM 有望成为继 GPU 后,另外一重要算力核心。
在 DRAM 领域,CXL(Compute Express Link,计算快速链接)技术备受市场关注。CXL 是一种全新的互联技术标准,其带来的 DRAM 池化技术可以大大节约数据中心的建设成本,同时也将大大带动 DRAM 的用量。机构普遍认为,节约下来的成本将会主要用于对 DRAM 的采购,TB 级别的 DRAM 将会在更多通用性服务器中广泛使用。
总体来说,随着 AI 模型的运算数据量发生指数式增长,对更多的内存、更高的带宽提出需求。一方面 DRAM 技术迭代以满足需求,另一方面高带宽存储器(HBM)提供新的解决方案。
不过需要注意的是,DRAM 大厂南亚科总经理李培瑛在相关报道中指出,ChatGPT 兴起带来的 AI 应用,短时间是否会造成(存储)产业变化仍有待观察。但若未来 AI 需求成长呈现百花齐放,将带给产业很多的成长机会。