Ratio Shifts from 1:8 to 1:1: Undervalued CPU Becomes New AI Bottleneck

華爾街見聞
2026.04.15 03:01

AI 算力競賽的焦點正悄然轉移:隨着智能體 AI 爆發,CPU 從數據中心配角升級為關鍵瓶頸。CPU 與 GPU 配比預計從 1:8 驟收至 1:1,算力需求四倍激增。Intel、AMD 提價應對短缺,英偉達、Arm 同月宣佈強勢入局,競爭格局加速重寫。

AI 算力競賽的焦點,正在悄然從 GPU 轉向一個長期被忽視的角色——CPU。

隨着 AI 智能體和強化學習(RL)工作負載的爆發式增長,CPU 在數據中心的戰略地位正經歷結構性重估。知名半導體分析機構 SemiAnalysis 首席分析師 Dylan Patel 在 4 月 8 日的一次深度訪談中直言,AI 工作負載的範式正從簡單的文本生成向複雜的智能體和強化學習演進,CPU 正面臨"極其嚴重的產能短缺"。

市場研究機構 TrendForce 的最新報告印證了這一判斷:當前 AI 數據中心的 CPU 與 GPU 配比約為 1:4 至 1:8,而在智能體 AI 時代,這一比例預計將演變至 1:1 至 1:2。

這一結構性轉變已在供需兩端引發連鎖反應。Intel 和 AMD 已於 2026 年第一季度末對部分 CPU 產品線提價。與此同時,英偉達和 Arm 雙雙於 2026 年 3 月宣佈進軍服務器 CPU 市場——一家 GPU 巨頭與一家 IP 授權商在同一個月做出相同選擇,絕非巧合,而是市場信號的集中釋放。

智能體崛起,CPU 從配角變瓶頸

在 AI 發展的早期階段,CPU 的角色相當邊緣。Dylan Patel 將其描述為:"負載很輕。你發一個字符串,它回一個字符串,簡單的推理,對 CPU 需求不大。"彼時,GPU 憑藉其大規模並行矩陣運算能力主導了 AI 算力需求,CPU 僅承擔向 GPU 壓縮和路由內存數據的輔助職能。

然而,以 OpenAI o1 為代表的新一代推理模型,以及隨之興起的 AI 智能體架構,從根本上改變了這一格局。與靜態大語言模型不同,智能體 AI 需要動態與環境交互——規劃任務、調用工具、在子智能體之間傳遞數據、評估任務是否完成。這一"編排層"(Orchestration)的全部協調工作,恰恰落在 CPU 肩上,使其成為典型的 CPU 密集型負載。

2025 年 11 月發佈的學術論文《A CPU-Centric Perspective on Agentic AI》進一步量化了這一壓力:在智能體 AI 場景中,CPU 工具處理(包括 Python 解釋、網頁爬取、詞法摘要、數據庫檢索等)產生的延遲,可佔總延遲的高達 90.6%;在大批量處理場景下,CPU 動態能耗可達系統總動態能耗的 44%。

Arm 的測算則從容量角度揭示了需求缺口的量級:傳統 AI 數據中心每吉瓦(GW)約需 3000 萬顆 CPU 核心,而在智能體 AI 時代,這一需求將激增至 1.2 億顆——增幅達四倍。

Intel 承壓,AMD 乘勢擴張

CPU 需求的結構性上升,首先在傳統 x86 市場引發了格局重塑。

Intel 的 Xeon 處理器曾長期佔據數據中心 CPU 市場逾 95% 的份額。這一統治地位自 2021 年起開始鬆動——Intel 7 製程的良率問題導致 Xeon Sapphire Rapids 發佈延遲近兩年,為 AMD 的 EPYC Milan 打開了市場缺口。

2026 年,Intel 計劃推出兩款旗艦產品:採用 Darkmont 架構的 Xeon 6+(Clearwater Forest),擁有 288 核/288 線程,TDP 約 450W;以及採用 Panther Cove-X 架構的 Xeon 7(Diamond Rapids),最高 256 核/256 線程,TDP 高達 650W。兩款產品均基於 Intel 最先進的 18A 製程,並首次引入 Foveros Direct 混合鍵合技術。然而,TrendForce 指出,受 18A 製程良率問題持續困擾,兩款產品的量產時間均可能推遲至 2027 年。

相比之下,AMD 的節奏更為穩健。其 2026 年旗艦產品 EPYC Venice 將採用台積電 N2 製程、Zen 6 架構,並搭載 CoWoS-L 與 SoIC 先進封裝,通過同步多線程(SMT)技術實現 256 核/512 線程——線程數為當前市場最高。TrendForce 預計,AMD 將在 2026 年持續從 Intel 手中蠶食市場份額。

英偉達、Arm 強勢入局,競爭格局重寫

傳統 x86 雙雄之外,一批非傳統玩家正以前所未有的速度湧入服務器 CPU 賽道,從根本上改寫競爭格局。

2026 年 3 月,英偉達宣佈將 Vera CPU 作為獨立產品對外銷售,以滿足客户對更靈活 CPU:GPU 配置的需求。Vera 採用英偉達自研 Olympus 架構,基於台積電 N3 製程與 CoWoS-R 封裝,提供 88 核/176 線程,並配備 1.8 TB/s 的 NVLink-C2C 互聯,可與英偉達 GPU 實現內存共享。首批合作伙伴涵蓋 Alibaba、ByteDance、Cloudflare、CoreWeave、Oracle 等。英偉達還推出了 Vera CPU 機架,單機架集成 256 顆 CPU,合計 22,528 核/45,056 線程,總內存達 400 TB。

同月,Arm 宣佈推出首款自研 CPU 產品 Arm AGI CPU,終結了其 35 年純授權商的歷史定位。該產品基於台積電 N3 製程與 Neoverse V3 架構,提供 136 核/136 線程,TDP 為 300W,支持 DDR5-8800 內存與 PCIe Gen6。首批合作伙伴包括 Meta、OpenAI、Cerebras、Cloudflare、SK Telecom 等。Arm 同步推出兩款機架配置:風冷版集成 60 顆 AGI CPU(8,160 核,約 180 TB 內存),液冷版則支持 336 顆 CPU(45,696 核,1 PB 內存)。

主要雲服務商(CSP)同樣加速佈局自研 CPU。AWS 於 2025 年 12 月發佈基於台積電 N3 製程的 Graviton5(192 核/192 線程),並與自研 Trainium 3 AI ASIC 協同部署以降低 AI 計算成本;微軟於 2025 年 11 月推出 Cobalt 200(N3 製程,132 核/132 線程);谷歌則計劃於 2026 年推出 Axion C4A.metal 裸金屬版本及下一代 Axion N4A,主打最高性價比。

IC 後端設計服務商迎來增量機遇

非傳統玩家的大規模入場,正在為 IC 後端設計服務商創造可觀的增量業務。

TrendForce 指出,AWS 目前仍堅持自主完成 CPU 後端設計,而谷歌和微軟均已將 CPU 後端設計服務外包給創意電子(Global Unichip Corp.,GUC)。隨着更多 CSP 和新興 CPU 廠商加入市場,這一外包需求有望持續擴大。

TrendForce 預計,2026 年至 2028 年間,Broadcom、Marvell、GUC、Alchip、聯發科等 ASIC 設計服務商將陸續承接來自上述客户的新增項目。對於尋找 AI 基礎設施投資新切口的市場參與者而言,這一環節或許正是 GPU 熱潮之外,尚未被充分定價的結構性機遇。