Amazon deploys Cerebras chips, focusing on its "ultra-fast inference solutions"

華爾街見聞
2026.03.14 03:52
portai
I'm PortAI, I can summarize articles.

亞馬遜雲服務與芯片初創公司 Cerebras 達成多年合作,將在數據中心聯合部署 Cerebras 與自研 Trainium 芯片,提供高速 AI 推理服務。Cerebras 芯片推理速度號稱比英偉達 GPU 快 25 倍,此次合作有助於其觸達大量雲端客户。

亞馬遜雲服務與芯片初創公司 Cerebras 宣佈達成多年合作協議,將在其數據中心部署 Cerebras 芯片,用於 AI 推理計算。

3 月 13 日週五,根據雙方公佈的協議,亞馬遜雲服務將把 Cerebras 芯片與自研 Trainium 芯片組合部署,以提供更高速的推理計算服務。

這也是繼今年 1 月 OpenAI 與 Cerebras 簽署逾百億美元合作協議之後,這家初創公司再度獲得大型科技巨頭背書。

Cerebras 將其芯片標榜為 “極速推理解決方案”,並表示它們可以處理被稱為 “解碼” 的複雜任務,即推理計算階段,人工智能模型在此階段對用户查詢做出響應,速度比英偉達的 GPU 快 25 倍。

此次合作對 Cerebras 的商業版圖具有重要意義。Cerebras 首席執行官 Andrew Feldman 表示:

越來越多的人使用人工智能,使用頻率也越來越高,並且用它來解決更復雜的問題。這使得 Cerebras-Trainium 解決方案能夠接入最大的雲平台,讓我們有機會接觸到大量的客户。

推理市場崛起,GPU 主導地位受壓

AI 行業算力需求的重心正悄然轉移。

隨着 AI 工具和智能體的用户規模迅速擴張,訓練階段的算力需求趨於飽和,推理計算的重要性日益凸顯。企業普遍認識到,GPU 雖在模型訓練中表現出色,但在要求極致響應速度的推理工作負載上並非最優選擇,這促使各方加快多元化供應商佈局。

AWS 作為全球最大的雲服務提供商,此前主要依賴旗下 Annapurna Labs 半導體業務設計的 Trainium 芯片為數據中心提供算力支持。

此次引入 Cerebras 芯片,意在彌補 Trainium 在高速推理場景下的侷限,並在推理產品線上提供分層定價方案,速度較慢的純 Trainium 服務將以更低價格提供,而 Cerebras 與 Trainium 的組合方案則定位高端。

AWS 聯合創始人、副總裁 Nafea Bshara 表示,該公司的目標是"持續推進速度提升並降低價格"。Feldman 則直言:

如果你希望獲得快速 token 輸出,如果速度對你至關重要,如果你在從事代碼或智能體工作,我們不僅是絕對最快的,而且我們意在設定行業標準。

英偉達壓力加劇,定製芯片勢力擴張

這筆交易是英偉達面臨日益激烈競爭的縮影。

定製處理器設計商正以專項場景突破的方式蠶食英偉達的市場份額,客户對更快速度和更低成本的訴求也在倒逼芯片巨頭加速產品迭代。

據報道,英偉達去年 12 月與芯片初創公司 Groq 簽署了一項價值 200 億美元的授權協議,並計劃於近期發佈採用 Groq 技術、專門面向推理場景的新型處理系統。

對於 Cerebras 而言,與 AWS 的合作發生在其業務高速擴張的關鍵節點。

今年 2 月,Cerebras 宣佈完成 10 億美元新一輪融資,累計融資總額升至 26 億美元,投後估值約為 230 億美元。

今年 1 月,ChatGPT 開發商 OpenAI 簽署了一項價值逾百億美元的協議,部署 Cerebras 芯片為其旗艦聊天機器人提供算力支持,OpenAI 計劃使用 Cerebras 芯片部署最高 750 兆瓦的算力。

這家初創公司背後匯聚了富達管理(Fidelity Management)、Atreides Management、Benchmark、Tiger Global 和 Coatue 等一線機構投資者的支持,但此前曾一度面臨融資困難。

Cerebras 曾於 2024 年 9 月提交 IPO 申請,但約一年後撤回了上市文件。上市計劃何時重啓,目前尚無定論。