
According to reports, Nvidia's GPU production will triple by 2024: H100 is expected to reach 2 million units.

產量擴大三倍,收入擴大三倍?
面對 AI 芯片巨大的供需缺口,英偉達制訂了一項雄心勃勃的計劃。
據英國《金融時報》當地時間週三報道,三位接近英偉達的人士透露稱,英偉達目前計劃將旗艦 H100 顯卡的產量至少增加兩倍,到 2024 年 H100 的出貨量將達到 150 萬至 200 萬塊,比今年預期的 50 萬塊大幅躍升。英偉達 H100 的需求火爆異常,以至於到 2024 年都已售罄。
對此,科技媒體 tom'sHARDWARE 評論稱,如果英偉達成功實現這一目標,並且 AI 和高性能計算 (HPC) 應用對其 A100、H100 和其他計算 CPU 的需求保持強勁,這可能意味着英偉達將攫取令人難以置信的收入。
由於英偉達的 CUDA 框架(運算平台)是為 AI 和 HPC 工作負載量身定製的,因此有數百種應用程序只能在英偉達的 GPU 上運行。亞馬遜 Web 服務(AWS)和谷歌都有自己的定製 AI 處理器用於 AI 訓練和推理工作負載,但他們還必須購買大量英偉達 GPU,因為客户希望在 GPU 上運行應用程序。
然而,提高 H100 這種高性能芯片的產量並不容易。英偉達 H100 基於該公司的 GH100 處理器,而 GH100 的製造相當困難。
首先,GH100 計算型 GPU 是一塊尺寸為 814mm*2 的巨大硅片,因此很難大批量生產。儘管目前該產品的良率可能相當高,但英偉達仍需要從台積電獲得大量 4 納米晶圓供應,將其基於 GH100 的產品產量擴大三倍。粗略估計,台積電和英偉達每 300 毫米晶圓最多可以生產 65 個顯卡。
因此,製造 200 萬枚此類顯卡需要近 3 萬片晶圓,這當然是可能的。目前,台積電 5 納米級晶圓產量為 15 萬片/月,客户主要包括 AMD、蘋果、英偉達。
其次,GH100 依賴 HBM2E 或 HBM3 內存,並使用台積電的 CoWoS 先進封裝,因此英偉達也需要確保這方面的供應。目前,台積電正在努力滿足 CoWoS 先進封裝的需求。
第三,由於基於 H100 的設備使用 HBM2E、HBM3 或 HBM3E 內存,因此英偉達還必須從美光、三星和 SK 海力士等公司獲得足夠的 HBM 內存包。
最後,H100 必須獲得安裝,因此英偉達需要確保其合作伙伴的 AI 服務器輸出至少擴大三倍,這又帶來了新的問題。
