The Rise of 'Agent AI': A Comeback for CPUs?

華爾街見聞
2026.03.08 12:15
portai
I'm PortAI, I can summarize articles.

滙豐研究發現 “代理 AI” 工作流中有 44% 的任務依賴 CPU,這是傳統 AI 計算的 3-4 倍,導致 CPU 和內存成為制約數據中心算力的最大瓶頸。該行大幅上調 2026 年全球服務器出貨量預期至同比增長 20%,並認為受制於供應鏈產能,真實市場需求甚至高達 60%,增長紅利將持續至 2028 年。

在過去三年裏,AI 服務器市場的敍事邏輯高度單一:誰擁有更多的 GPU,誰就掌握了通往通用人工智能(AGI)的鑰匙。

然而,隨着 AI 應用從簡單的聊天機器人升級為能自動執行復雜流程的 “代理 AI”(Agentic AI),數據中心的底層算力需求正在發生本質性的 “劇變”。

據追風交易台消息,滙豐證券在最新發布的深度行業報告中指出,一個 “算力再平衡” 的時代已經開啓,CPU 正重新成為 AI 數據中心的決策樞紐。

從 “聊天” 到 “幹活”:代理 AI 引發的算力地震

早期的 AI 模型主要依賴大規模 GPU 進行並行計算,即我們常説的 “暴力美學”。但代理 AI 的工作流則完全不同,它是一個 “超級編排者”。

滙豐研報指出,代理 AI 不僅需要輸出內容,還需要通過檢索增強生成(RAG)、訪問外部 API(如郵件系統、網頁搜索、協同辦公軟件)來完成任務。這些工作涉及大量的邏輯分支、任務同步和多線程處理。

對比數據顯示,在代理 AI 任務中,GPU 的並行優勢會被削弱,而 CPU 在多任務處理上的靈活性使其大放異彩。

根據康奈爾大學的最新研究,Agentic AI 工作流中約 44% 的算力依賴 CPU,這比傳統 AI 工作流的 CPU 佔比高出 3-4 倍。CPU 不再僅僅是系統的 “輔助者”,而成了算力引擎中不可或缺的 “大腦”。

為何服務器出貨預期持續飆升?供給遠小於需求

這種結構性的算力需求變化,直接轉化為對服務器出貨量的強勁支撐。

滙豐證券將 2026 年全球服務器出貨量的同比增長基準預期大幅上調至 20%(原為 4%),這一預測遠超市場普遍預期的 10%-15%。更為驚人的是,滙豐認為市場的 “潛在需求” 甚至高達 60%。

為什麼市場沒有完全兑現這些需求?

主要原因在於供應鏈的 “卡脖子”。報告強調,目前 CPU 和 DRAM 內存供應缺口高達 30%-40%,SSD、電源芯片等核心組件也面臨 10%-30% 的供給不足。

這意味着,未來兩年全球服務器出貨增長將是受限後的 “擠牙膏式” 釋放,這種持續的供應短缺導致積壓訂單大量存在,不僅保障了 2026-2027 年的出貨邏輯,更讓滙豐確信全球服務器增長週期有望延伸至 2028 年。

資本支出大爆發:《大漂亮法案》帶來的 “額外燃料”

支持這一輪硬件狂潮的,不僅是技術升級,還有政策紅利。

根據滙豐的測算,隨着美國《大漂亮法案(One Big Beautiful Bill Act)》的實施,企業購買數據中心資產(包括服務器)可享受 100% 的加計折舊和即時研發費用扣除。這為雲服務商(CSP)的硬件投入提供了極強的財務正向激勵。

滙豐預測,主要雲服務商(包括 Google、微軟、亞馬遜、Meta 和甲骨文)的 2026 年合計資本支出將達到 7430 億美元,同比增長 81%。

這種資金注入的去向發生了結構性偏移:2025 年,CSP 約 35% 的資本開支投向服務器;而到 2027 年,這一比例將躍升至 59%。這種從 “拿地蓋樓” 向 “購買算力設備” 的資源傾斜,精準地鎖定了對服務器供應鏈的利好。

誰在受益?供應鏈的 “再平衡” 紅利

市場風格正在從單純的 “GPU 邏輯” 轉向更加平衡的 “計算節點價值鏈”。

滙豐指出,隨着 CPU 在機架中的價值佔比提升,服務器 ODM(原始設計製造商)及關鍵組件供應商將成為這場算力再平衡的核心受益者。

總結而言,這場算力軍備競賽已進入 “深水區”。過去是 “誰擁有顯卡誰就贏”,未來則是 “誰能處理好算力分配誰就掌握了效率”。

代理 AI 驅動的 CPU 需求回暖,不僅為服務器市場注入了長期的確定性,也為投資者勾勒出一條清晰的硬件升級邏輯線。