CoreWeave 再度搶佔先機,率先部署英偉達 GB200 系統,AI 巨頭爭相入局。 英偉達今日在其博客上宣佈,AI 雲計算提供商 CoreWeave 已成為首批大規模部署英偉達 GB200 NVL72 系統的雲服務提供商之一。Cohere、IBM 和 Mistral AI 已成為首批用户。 根據最新 MLPerf 基準測試,這些系統提供了前代 H100 芯片 2-3 倍的性能提升,將顯著加速大模型訓練和推理能力。 CoreWeave 首席執行官 Michael Intrator 表示,這一成就既展示了公司的工程實力和執行速度,也體現了其對下一代 AI 發展的專注: “CoreWeave 的設計就是為了更快速地行動——我們一次又一次地證明了這一點,始終是首批大規模運營最先進系統的公司。” 英偉達超大規模與高性能計算(HPC)副總裁 Ian Buck 表示: “世界各地的企業和組織正在競相將推理模型轉化為代理型人工智能應用,這將改變人們的工作和娛樂方式。” “CoreWeave 對英偉達 GB200 系統的快速部署提供了人工智能基礎架構和軟件,使人工智能工廠成為現實。” 華爾街見聞此前提及,近年來英偉達和 CoreWeave 通過投資、供應和反向租賃等方式構建了 “親子關係”,成就了後者的迅速崛起。2023 年,英偉達承諾在四年內向 CoreWeave 支付 13 億美元,租回自己生產的芯片。 近日,CoreWeave 還宣佈與 OpenAI 合作,進一步鞏固了其作為 AI 基礎設施提供商的領先地位。 這一系列動作表明,在 AI 算力資源持續緊缺的背景下,能夠提供最先進芯片組的雲服務提供商將在市場競爭中仍佔據有利位置。 性能突破:新基準刷新行業記錄 去年,CoreWeave 就是首批提供英偉達 H100 和 H200 GPU 的供應商之一,也是最早演示英偉達 GB200 NVL72 系統的公司之一。 CoreWeave 最近在採用英偉達 GB200 Grace Blackwell 超級芯片的 AI 推理測試中創下了新的行業記錄,這一成績已發佈在最新的 MLPerf v5.0 結果中。 值得注意是,在沒有特定優化 Blackwell 架構的情況下,相比前代英偉達 Hopper GPU,GB200 NVL72 服務器能幫助 Cohere 在 1000 億參數模型的訓練實現高達 3 倍的性能提升。 據介紹,通過進一步優化利用 GB200 NVL72 的大統一內存、FP4 精度和 72 個 GPU 的 NVLink 域(每個 GPU 都連接起來協同運行),Cohere 正獲得顯著更高的吞吐量,縮短首個令牌(computation tokens)和後續令牌的生成時間,提供更高性能、更具成本效益的推理。