Tencent's new generation of fast thinking model is here! It can achieve "instant response," and deployment costs have significantly decreased

華爾街見聞
2025.02.27 09:56
portai
I'm PortAI, I can summarize articles.

騰訊發佈了新一代快思考模型 Turbo S,能夠實現秒回,顯著提升回答速度和降低部署成本。該模型結合快思考與慢思考,提升了在知識、數學和推理等領域的表現,展現出與業界領先模型的競爭力。Turbo S 採用 Hybrid-Mamba-Transformer 架構,降低了計算複雜度,解決了長文訓練和推理成本高的問題,首次在超大型 MoE 模型中成功應用 Mamba 架構。

騰訊混元新一代快思考模型 Turbo S 正式發佈。

區別於 Deepseek R1、混元 T1 等需要 “想一下再回答” 的慢思考模型,混元 Turbo S 能夠實現 “秒回”,更快速輸出答案,吐字速度提升一倍,首字時延降低 44%。

在知識、數理、創作等方面,混元 Turbo S 也有不錯表現。

有研究表明,人類約 90%—95% 的日常決策依賴直覺。慢思考更像理性思維,通過拆解邏輯提供解決問題的思路;快思考正如人的 “直覺”,為大模型提供了通用場景下的快速響應能力。

快思考和慢思考的結合和補充,可以讓大模型更智能、更高效地解決問題。

通過長短思維鏈融合,混元 Turbo S 在保持文科類問題快思考體驗的同時,基於自研混元 T1 慢思考模型合成的長思維鏈數據,顯著改進了理科推理能力,實現模型整體性能明顯提升。

在業界通用的多個公開 Benchmark 上,混元 Turbo S 在知識、數學、推理等多個領域,展現出對標 DeepSeek V3、GPT 4o、Claude 等一系列業界領先模型的效果表現。

架構方面,創新採用 Hybrid-Mamba-Transformer 融合模式,混元 Turbo S 有效降低了傳統 Transformer 結構的計算複雜度,減少了 KV-Cache 緩存佔用,實現訓練和推理成本的下降。

新的融合模式突破了傳統純 Transformer 結構大模型面臨的長文訓練和推理成本高的難題。一方面,發揮了 Mamba 高效處理長序列的能力;另一方面,也保留 Transformer 擅於捕捉複雜上下文的優勢,最終構建了顯存與計算效率雙優的混合架構。

這也是工業界首次成功將 Mamba 架構無損地應用在超大型 MoE 模型上。

通過模型架構上的技術創新,混元 Turbo S 部署成本大幅下降,持續推動大模型應用門檻降低。

作為旗艦模型,混元 Turbo S 未來將成為騰訊混元系列衍生模型的核心基座,為推理、長文、代碼等衍生模型提供基礎能力。

基於 Turbo S,通過引入長思維鏈、檢索增強和強化學習等技術,混元也推出了具備深度思考的推理模型 T1。

該模型此前已在騰訊元寶全量上線(騰訊混元 T1 模型面向所有用户開放),用户可以選擇 Deepseek R1 或騰訊混元 T1 模型進行回答。

騰訊混元 T1 模型正式版也將很快上線,對外提供 API 接入等服務。

當前,開發者和企業用户已經可以在騰訊雲上通過 API 調用騰訊混元 Turbo S ,即日起一週內免費試用。

定價上,Turbo S 輸入價格為 0.8 元/百萬 tokens,輸出價格為 2 元/百萬 tokens,相比前代混元 Turbo 模型價格下降數倍。

騰訊元寶即將逐步灰度上線混元 Turbo S,用户在元寶內選擇 “Hunyuan” 模型並關閉深度思考即可體驗使用。

騰訊混元,原文標題:《騰訊混元新一代快思考模型 Turbo S 發佈》

風險提示及免責條款

市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。