在過去一週的開源週上,DeepSeek“五天五連炸” 讓市場拍案叫絕。而就當外界以為這場盛宴即將落下帷幕之時,DeepSeek 拿出了更令人震驚的 “彩蛋”——成本利潤率高達 545%,V3/R1 推理系統理論日利潤達到 346 萬元人民幣。 而在市場為這超高 “暴利” 連連感嘆的同時,也更關心這幾個問題:如何解讀 545% 這個利潤率?是否是對算力的核彈?這對雲產業鏈意味着什麼?這對大模型同行意味着什麼?這對生態又意味着什麼?數位科技博主的主要觀點如下: 利潤率 545% 目前仍是理論收益,DeepSeek R1 模型的利潤率約為 85%。而如果按照 V3 的定價,利潤率會降至 70% 左右。即便如此,這個數字仍然非常可觀。 而對算力產業鏈來説,DeepSeek 的案例證明,即使在硬件條件相對有限的情況下(使用 H800),通過極致的 infra 優化,也能實現極高的算力利用率和性能。 但是關於 DeepSeek 的創新是否會減少對算力的需求這一點,外界仍有不少分歧。知名投資人段永平贊同此前英偉達 CEO 黃仁勳的觀點,認為算力需求會持續增長。但是也有國外科技博主表示,DeepSeek 已經把英偉達 “擊倒”,按照 DeepSeek 目前對算力的超高利用率來看,全球的 AI 需求都沒有這麼多。 此外 DeepSeek 的案例證明,讓 AI 雲計算與傳統雲計算的相似性更加明顯。AI 雲計算也將同樣面臨着 “低峯期閒置率” 和 “高峰期穩定性” 的挑戰。 DeepSeek 的開源和技術披露,為整個行業樹立了新的標杆。同行可能要面臨更大的競爭壓力,新一輪價格戰正在路上。 對於行業生態來説,DeepSeek 通過開源技術和輸出,將吸引業界在其基礎上構建 to B 和 to C 業務,形成完整的產業上下游。 一、如何解讀這個利潤率? 首先需要明確的是,DeepSeek 官方公佈的 545% 利潤率是基於特定條件下的 “理論” 計算,即假設所有 tokens 都按照 R1 模型的定價計算,且未考慮 V3 的更低定價、免費服務佔比以及夜間折扣等因素。實際上,根據 DeepSeek 官方的説法,他們真實的利潤率遠沒有這麼誇張。 按照科技博主 180K 的解讀,DeepSeek R1 模型的利潤率約為 85%,而如果按照 V3 的定價,利潤率會降至 70% 左右。即便如此,這個數字仍然非常可觀。 180K 表示,這一點可以通過對比 Anthropic 的利潤率來更深入地理解。根據 TD Cowen 的拆解,Anthropic 2024 年的利潤率預計為 61%。如果按照 DeepSeek 的口徑,並考慮 AWS 的雲計算利潤率(假設為 25%-40%),Anthropic 的利潤率可以達到 74%。極端情況下,如果假設 AWS 的利潤率為 50%,Anthropic 的利潤率甚至可以達到 85%,與 DeepSeek 的 R1 模型相當。 這説明,儘管 OpenAI 和 Anthropic 在成本控制上可能不如 DeepSeek 極致,但它們憑藉更高的定價和更慷慨的客户(至少目前如此),也能實現類似的高利潤率。需要注意的是,OpenAI 經常被報道 “虧損”,這是因為在融資時,投資者通常關注的是財務會計上的盈虧,而非大模型租賃角度的理論成本,模型訓練成本、數據授權費用、人員和宣傳等運營支出通常也被計入。 二、是否是對算力的核彈? DeepSeek 的案例證明,即使在硬件條件相對有限的情況下(使用 H800),通過極致的 infra 優化,也能實現極高的算力利用率和性能,這對整個算力產業鏈影響巨大: 首先,科技博主 180K 認為,“有效算力” 的重要性將凸顯。行業將更加關注 “有效算力”(算力 x 算力利用率),而不僅僅是單純的算力堆砌。 並且國產芯片的上限有望提升。如果 H800 都能跑出如此效果,那麼通過 infra 優化,國產芯片的性能上限或許能進一步提高。 另外,科技博主信息平權認為,“傑文斯悖論” 持續生效。算力效率的提升並不會減少算力需求,反而會刺激更多應用場景的出現,推動算力需求的持續增長。正如巴克萊銀行在去年 6 月的預測,到 2026 年,業界的資本支出足以支撐 “12000+ 個 ChatGPT 級別的應用”。 而且短期內算力需求邏輯可能受到質疑。一些企業,特別是海外大廠的 CIO 或 CFO,可能會面臨來自投資人和老闆的壓力,被要求解釋為什麼他們的 ROI 遠低於 DeepSeek。 知名投資人段永平也在雪球上表示,DeepSeek 的經驗的確證明了模型預訓練階段較低的算力也可以達成比較好的訓練結果。而且他也贊同黃仁勳的説法,認為 DeepSeek 的創新不會減少對算力的需求。 此前黃仁勳曾在 2 月的訪談中表示,認為市場對 DeepSeek 的理解完全搞反了。他表示,R1 的出現並非意味着市場不再需要算力資源,而是激發了市場對更高效 AI 模型的追求,從而推動整個行業的發展。 但是國外科技博主 Zephyr 則認為,DeepSeek 已經將英偉達 “擊倒”。而且按照 DeepSeek 目前對算力的超高利用率來看,滿足全球的 AI 需求綽綽有餘。 DeepSeek 已經將英偉達 “擊倒”。 我之所以這麼説,是因為 DeepSeek 目前每天在 300 台 H800 節點(共 2400 張 H800)上處理 6000 億 個 token,並輸出 1500 億 個 token。 如果算力擴大 100 倍(即 24 萬張 H800),每天就能處理 60 萬億 個 token,並輸出 15 萬億 個 token。 但全球的 AI 需求並沒有這麼高。 三、對雲產業鏈意味着什麼? DeepSeek 的成功案例,讓 AI 雲計算與傳統雲計算的相似性更加明顯。AI 雲計算也將同樣面臨着 “低峯期閒置率” 和 “高峰期穩定性” 的挑戰。 科技博主 180K 認為,雲計算的規模效應會更加顯著。DeepSeek 的實踐表明,大規模集羣和高併發利用率能顯著降低成本。用户數量的正外部性更加明顯,即用户越多,平抑波動的能力越強,算力冗餘需求越低。 雲廠商的競爭優勢可能發生變化。擁有自身業務的雲廠商(如阿里、騰訊、蘋果等)可能比沒有自身業務的雲廠商更具成本優勢,因為它們可以將推理集羣作為所有業務的底座,實現更大的規模效應。 而且雲計算的利潤率有提升空間。DeepSeek 的案例表明,在 AI 時代,通過極致的 infra 優化,雲計算的利潤率有進一步提升的潛力。 此外,私有云部署的吸引力可能下降。超稀疏的 MoE 模型可能並不適合個人或 “半桶水” 的企業部署,小規模 GPU 部署的成本可能遠高於大廠。這可能導致更多企業選擇公有云或混合雲模式。 普通雲計算/AI 應用需要為高強度用户併發預留更多空間。用户對 DeepSeek 的 “服務器繁忙” 有較高的容忍度,但對於其他應用則不然。這可能導致普通雲計算/AI 應用的利潤率進一步下降。 四、對大模型同行意味着什麼? DeepSeek 的開源和技術披露,為整個行業樹立了新的標杆。 科技博主信息平權認為,DeepSeek 的案例表明推理成本的 “底線” 被大幅拉低,可以遠低於之前的預期。而且新一輪價格戰可能爆發,同行們將面臨更大的降價壓力以保持競爭力。 並且 DeepSeek 為所有推理團隊提供了明確的優化路徑和目標,後續壓力會加大。 另外在這種情況下,OpenAI 的高價訂閲模式也將面臨挑戰,每月 200 美元的高昂訂閲費有些尷尬。 五、對生態意味着什麼? DeepSeek 的戰略是專注於基礎模型和前沿創新,通過開源技術和輸出,吸引業界在其基礎上構建 to B 和 to C 業務,形成完整的產業上下游。 科技博主極客公園表示,生態合作伙伴的盈利空間增大。雲平台和上下游通過部署 DeepSeek 的服務,理論上可以獲得很高的收益和利潤率。 展望後續生態,模型架構的差異化可能成為競爭關鍵。因為 DeepSeek V3/R1 的架構與主流模型有較大差異,這要求供應商進行適配,開發難度較高。 而且 DeepSeek 的開源舉措,降低了社區復現其推理系統的難度,有利於生態的繁榮。 科技博主 180K 則表示,整個行業可能將開始卷 Infra。某種程度上,Infra 的重要性在提高,估值也可以提升。 總而言之,DeepSeek 的超高利潤率,不僅是一個數字上的奇蹟,更是對整個 AI 行業的一次深刻啓示。它揭示了 infra 優化的巨大潛力,推動了算力、雲、大模型以及生態的變革,預示着一個更加高效、低成本、競爭激烈的 AI 時代即將到來。