“AI 閉環” 假期刷屏!一文讀懂北美數據中心供應鏈

華爾街見聞
2025.10.08 06:27
portai
我是 PortAI,我可以總結文章信息。

在這場由 AI 點燃的、前所未有的淘金熱中,那些掌握着核心散熱與供電技術、能夠為海量算力 “降温” 和 “喂電” 的供應鏈巨頭,無疑將成為真正的贏家。

人工智能競賽的本質,是一場關於物理基礎設施的競賽。屏幕上每一次流暢的 AI 交互背後,都是數據中心內數以萬計的服務器在高速運轉,而支撐這一切的,是一個正在以驚人速度膨脹的萬億級實體產業——數據中心。

據美國銀行(BofA)測算,全球數據中心資本支出在 2024 年已突破 4000 億美元,2025 年將達到 5060 億美元,其中 IT 設備支出 4180 億,基礎設施支出 880 億。在 AI 需求的驅動下,該市場預計在 2024 至 2028 年間,將以高達 23% 的驚人年複合增長率(CAGR)擴張,最終在 2028 年形成一個超過 9000 億美元的龐大市場。

那麼,在這場前所未有的建設熱潮中,真正的價值鏈分佈在何處?誰將成為最大的受益者?

本文將深入剖析這場由 AI 引爆的數據中心市場全景,揭示技術變革的核心邏輯,並系統性拆解其複雜的供應鏈,為您完整呈現一幅北美數據中心供應鏈的全景圖,並找出在這場淘金熱中真正的 “賣鏟人”。

一、5000 億美元市場全景

數據中心市場的增長,已不再由傳統企業自建自用驅動。自 2017 年以來,雲服務商和託管公司的總容量首次超越企業自建數據中心後,幾乎所有的新增容量都來自於兩類玩家:以亞馬遜 AWS、微軟 Azure 為代表的 “超大規模”(Hyperscale)雲服務商,以及為它們或其它客户提供租賃服務的 “託管”(Colocation)公司。

從全球產能分佈來看,美洲地區佔據了全球過半的電力容量,其中,美國東海岸的北弗吉尼亞州,以其近 15% 的全球超大規模數據中心容量,成為無可爭議的全球最大單一聚集地。緊隨其後的是咱們中國的北京,約佔 7%。

驅動資本持續湧入的,是數據中心作為一種高價值基礎設施資產清晰且可觀的回報模型。以一個典型的批發託管(Wholesale Colocation)新建項目為例,其單位投資經濟學如下:

  • 初始投資: 建設一個 1 兆瓦(MW)容量的數據中心,土地、電力接入等前期成本約為 200 萬美元,而包含建築、機電、散熱等設施在內的 “動力外殼”(powered shell)成本約為 1100 萬美元。合計每兆瓦的總投資約為 1300 萬美元。

  • 收入與盈利: 每兆瓦每年可產生 200 萬至 300 萬美元的租金收入。在扣除電力(美國工業用電均價約每千瓦時 0.08 美元)、人力(每兆瓦約 2 名全職員工)、財產税(約物業價值的 1%)等運營成本後,其EBITDA(税息折舊及攤銷前利潤)利潤率通常能達到 40% 至 50% 的穩健水平。

  • 投資回報: 在一個典型的 20 年持有期、並結合項目融資(假設 46% 的貸款價值比,6% 的債務利率,10% 的股權成本)的模型中,該項目的內部收益率(IRR)可達 11.0%。這對於尋求長期穩定現金流的基礎設施投資者而言,極具吸引力。

正是這種高確定性的商業模式,構成了整個數據中心產業擴張的金融基石。

二、技術奇點來臨:從芯片到機架的 “密度革命”

數據中心內部所有基礎設施變革的起點,都源自 AI 芯片。其核心演進邏輯可以被精確地概括為一場 “密度革命”。

革命的根源,是單顆芯片功耗的指數級飆升。從英偉達的第一代 Volta 架構到如今的 Blackwell 架構,單顆 GPU 的功耗在短短數年間增長了 4 倍。這背後的物理定律簡單而殘酷:在芯片上集成更多晶體管、並以更高時鐘頻率運行,必然導致功耗的線性增長。

直接的連鎖反應,是服務器機架功率密度的急劇攀升。在 AI 訓練集羣中,網絡延遲是性能的致命瓶頸。為最大限度降低 GPU 之間的數據傳輸延遲,工程師的解決方案是將盡可能多的 GPU 緊密集成在同一個服務器機架內,通過高速內部互聯(如 NVLink)進行通信。這一架構優化的必然結果,就是機架功率密度的爆炸式增長。在 2021 年,數據中心的平均機架密度尚不足 10 千瓦(kW);如今,一個標準的英偉達 Hopper(H200)機架功耗已達 35kW,最新的 Blackwell(B200)機架更是高達 120kW。根據英偉達公佈的路線圖,其計劃於 2027 年下半年推出的 Rubin Ultra 平台,單機架功耗將達到前所未有的 600kW。AMD 的 MI350 和未來的 MI400,以及英特爾的 Gaudi 系列,也遵循着同樣的軌跡。

與此同時,全球存量數據中心基礎設施建設卻嚴重滯後。根據權威機構 Uptime Institute 在 2024 年的調查,全球僅有 5% 的現有數據中心,其平均機架密度能夠超過 30kW。這意味着,95% 的數據中心甚至無法支持英偉達上一代的 Hopper 芯片,更不用説功耗更高的 Blackwell。因此,AI 算力的部署,必須依賴於一場對現有數據中心的大規模升級改造和海量的新建。

值得強調的是,這並非 GPU 的專屬路徑。包括谷歌(TPU)、微軟(Maia 100)和亞馬遜(Trainium)在內的雲巨頭,其自研的 ASIC 芯片儘管在特定任務上能效更高,但為了追求極致性能,同樣紛紛宣佈其最新一代產品必須採用液冷散熱。這從另一個角度也印證了,高密度計算帶來的散熱挑戰,可能是整個 AI 硬件行業不可逆轉的共同趨勢。

三、重塑基礎設施:一場關於 “水與電” 的變革

由芯片引爆的 “密度革命”,正自下而上地對數據中心的基礎設施發起衝擊,其核心戰場集中在兩個領域:散熱系統(水)供電系統(電)

(1)第一戰場:散熱——從風冷到液冷的遷徙

傳統數據中心長期依賴空氣進行冷卻。然而,即便是設計最優化的風冷系統,其散熱能力的物理極限也僅在每機架 60-70kW 左右。面對動輒上百千瓦的 AI 機架,風冷已無能為力。液冷,這一曾在大型機時代短暫出現的技術,正以無可爭議的姿態迴歸主流。

在眾多液冷技術路線中,行業目前的主流選擇是 “芯片級直接液冷”(Direct-to-Chip, D2C)。

該技術通過一個內含微通道的金屬 “冷板”(cold plate)直接覆蓋在 GPU、CPU 等主要發熱芯片上,內部流動的冷卻液(通常是水和乙二醇的混合物)高效地帶走熱量。其系統核心設備是 “冷卻液分配單元”(Coolant Distribution Unit, CDU),負責驅動冷卻液在服務器內部的 “二級迴路” 和數據中心外部的 “一級迴路” 之間進行熱交換和循環。

CDU 市場雖然在 2024 年規模僅約 12 億美元,但正經歷爆發式增長。

目前市場上有超過 30 家供應商。然而,數據中心運營商對 “正常運行時間”(Uptime)的極致追求,決定了他們極度保守,傾向於選擇技術成熟、服務可靠的供應商。這使得擁有成熟產品線和全球服務網絡的老牌廠商具備天然護城河。維諦(Vertiv,通過 2023 年收購 CoolTera 增強了實力)施耐德電氣(Schneider Electric,通過 2025 年 2 月收購 Motivair 佈局)台達電子(Delta Electronics)nVent 等被視為該領域的第一梯隊領導者。

(2)第二戰場:供電——從交流到高壓直流的架構革命

傳統數據中心的供電鏈路漫長且存在能量損耗:來自電網的中高壓交流電(AC),經過變壓器降壓、開關櫃分配,進入不間斷電源(UPS)進行 “AC-DC-AC” 的雙重轉換以備用,再通過配電單元(PDU)或母線槽送至機架,最終在服務器內部由電源供應單元(PSU)完成最後的 “AC-DC” 轉換。

隨着 AI 機架的總功率向 100kW 以上邁進,傳統低壓交流供電架構的弊端盡顯:巨大的電流導致需要極粗的銅纜,這不僅成本高昂,還佔據了寶貴的機架空間並影響散熱。為此,一場向 “高壓直流”(High Voltage DC)的架構革命已然開啓。

  • 由微軟、Meta 等公司在 “開放計算項目”(Open Compute Project)中率先提出的400V 直流方案。

  • 英偉達為支持未來百萬瓦級服務器機架而宣佈的800V 直流方案,計劃於 2027 年部署。

高壓直流的核心優勢在於,根據物理原理(功率=電壓×電流),在傳輸相同功率的情況下,將電壓提高一個數量級,電流便可降低一個數量級。這意味着可以用直徑更細、成本更低的線纜完成輸電,從而大幅減少機架內昂貴且笨重的銅材使用量。據施耐德電氣測算,400V 系統相比傳統的 208V 交流系統可減少 52% 的銅線重量

這一變革將深刻重塑供電系統:

  1. UPS 簡化: 在直流架構下,UPS 不再需要將電池的直流電逆變為交流電的 “逆變器” 環節,理論上可降低 10-20% 的成本(儘管初期可能被高壓安全設備成本抵消)。

  2. 電源移出服務器: 原本位於服務器內部、佔用大量空間的 PSU,將被移出服務器機架,形成一個獨立的“電源邊車”(power side car)形態,為計算單元騰出更多空間。

英偉達已明確表示,其 800V 直流架構將與維諦(Vertiv)伊頓(Eaton) 等行業領導者合作開發,這再次印證了 incumbents(在位者)在行業標準變革中依然佔據核心地位。

四、供應鏈核心環節拆解:誰是淘金熱中的 “賣鏟人”?

AI 的崛起,正顯著推高數據中心的單位建設成本。一個傳統數據中心的總造價(All-in Cost)約為每兆瓦 3900 萬美元,而一個採用下一代 AI 架構(假設為芯片級液冷和高壓直流)的數據中心,其造價將躍升 33%,達到每兆瓦 5200 萬美元。增長的部分主要來自更昂貴的 AI 服務器,但基礎設施的升級同樣貢獻了顯著的成本增量。

在這條龐大而精密的供應鏈上,各個環節的 “賣鏟人” 正分享着時代的紅利:

  • 散熱系統(Thermal): 這是一個約100 億美元的市場(2024 年),維諦(Vertiv) 是公認的市場份額領導者。其核心產品包括冷水機組(Chillers)、冷卻塔(Cooling Towers)、機房精密空調(CRAH)等。江森自控(Johnson Controls,通過收購 Silent-Aire)、開利(Carrier)、特靈(Trane)等傳統 HVAC 巨頭也是重要參與者。

  • 供電系統(Electrical): 這是一個約180 億美元的市場(2024 年),施耐德電氣(Schneider Electric) 在此佔據領先地位。其產品線覆蓋了不間斷電源(UPS,新裝市場約 70 億美元)、開關設備(Switchgear,市場約 50-55 億美元)、母線槽等配電設備(市場約 42-47 億美元)。伊頓(Eaton)、ABB、西門子(Siemens)等工業電氣巨頭同樣是該領域的核心玩家。

  • 備用電源(Backup Power): 柴油發電機是確保數據中心最高等級可靠性的最後一道防線。僅發電機設備市場規模在 2024 年就達到約72 億美元,全球領導者是康明斯(Cummins)

  • IT 設備(IT Equipment): 這是數據中心投資中佔比最大的一塊。2024 年,全球服務器市場規模約2800 億美元,其中 AI 服務器在金額上已佔據半壁江山。網絡設備市場規模約360 億美元,主要由思科(Cisco)Arista主導。

  • 工程與建築(Construction & Services): 數據中心從圖紙變為現實,離不開專業的工程設計和建築施工。工程設計(佔基礎設施成本的 4.5-6.5%)市場約40 億美元,主要玩家包括雅各布斯(Jacobs Solutions)、福陸(Fluor)等。而建築施工市場則更為龐大(約650-800 億美元,包含大量材料設備轉嫁成本),參與者包括 Balfour Beatty、Skanska 等國際建築巨頭。

結語

我們在屏幕上所見的 “AI 閉環” 和令人驚歎的生成能力,不僅是 AI 技術的突進,也是一場關乎混凝土、銅纜和冷卻液的物理世界基建競賽。

一個極具衝擊力的事實是:在未來數月內,全球數據中心的建設支出將歷史性地超過所有通用辦公樓的建設總和。

在這場由 AI 點燃的、前所未有的淘金熱中,那些掌握着核心散熱與供電技術、能夠為海量算力 “降温” 和 “喂電” 的供應鏈巨頭,無疑將成為這個時代沉默但真正的贏家。