Google open-sources the Gemma-3 model: supports multi-modal, 128K input, 27B version surpasses DeepSeeK V3 in the large model anonymous arena, free commercial use license
谷歌於 2025 年 3 月 12 日開源了 Gemma-3 系列大模型,包含四個不同參數規模版本,支持多模態輸入。Gemma 3-27B 版本在大模型匿名競技場中超越 DeepSeeK V3,具備 128K 上下文輸入能力,支持 140 多種語言,且提供免費商用授權。該系列模型的訓練數據量達到 14 萬億,展現出強大的表徵能力。
Gemma 系列大模型是 Google 開源的一系列輕量級的大模型。就在剛才(2025 年 3 月 12 日),Google 開源了第三代 Gemma 系列大模型,共包含 4 個不同參數規模版本,第三代的 Gemma 3 系列是多模態大模型,即使是最小的 10 億參數規模的 Gemma 3-1B 也支持多模態輸入。

- Gemma 3 系列模型介紹及其特點
- Gemma 3 系列模型的評測非常優秀
- Gemma 3 開源情況
Gemma 3 系列模型介紹及其特點
Gemma 系列大模型與 Google 的 Gemini 系列模型技術同源,但是以免費商用授權的方式開源。最早於 2024 年 2 月份開源,當時只有 20 億參數規模的 Gemma 2B 模型和 70 億參數規模的 Gemma 7B 模型,且上下文長度也就 8K。2024 年 5 月,Google 開源了 Gemma2 系列,版本的範圍也增加到 3 個,分別是 2B、9B 和 27B 規模。
其中,Gemma 3 - 27B 版本模型在 14 萬億數據集上訓練,Gemma 3-12B 在 12 萬億數據集上訓練,剩下 2 個版本分別是 4 萬億數據和 2 萬億數據訓練。
Gemma 3 的詞彙表達到了 262K,可以説表徵能力非常強大。
10 個月後的今天,Google 開源了第三代 Gemma 3 系列大模型,版本範圍增加到了 4 個,分別是 1B、4B、12B 和 27B,並且從純粹的大語言模型升級到了多模態大模型,即支持圖片和視頻的輸入。
此次,Gemma 3 的升級很大,總結如下:
-
Gemma 3 系列模型最高支持 128K 的上下文輸入(10 億參數版本的 Gemma 3-1B 僅支持 32K) -
Gemma 3 系列支持多達 140 多種語言 -
Gemma 3 系列大模型支持多模態輸入,包括文本、圖片、視頻輸入 -
Gemma 3 系列支持函數調用/工具調用
Gemma 3 系列模型的評測非常優秀
Gemma 3 系列模型包含 4 個版本,每個版本均開源了預訓練基座版本(pt 後綴版本,表示 pre-training)和指令微調後的版本(it 後綴版本,表示 instruction fine-tuned),也就是説共開源了 8 個版本的大模型。
而最大參數規模的 Gemma 3-27B IT 的 fp16 精度大小為 54.8GB,int8 量化後 27GB,兩張 4090 可用,INT4 量化後需要 14GB 顯存,單張 4090 完全沒問題。
而這個版本的模型評測結果非常好,在大模型匿名競技場(Chatbot Arena)上得分 1338 分(截至 2025 年 3 月 8 日),排名全球第 9,僅次於 o1-2024-12-17 模型,超過了 Qwen2.5-Max 以及 DeepSeek V3 等。

而在常規的其它評測上表現也很不錯,評測結果超越了 Qwen2.5-72B,與 DeepSeek V3 等也非常接近。

按照 Google 官方的説法,本次 Gemma 3 系列提升很明顯,其中 Gemma 3-4B 版本模型水平接近 Gemma 2-27B,而 Gemma 3-27B 則接近 Gemini 1.5-Pro!
Gemma 3 開源情況
Gemma 3 系列的 8 個模型以 Gemma 開源協議開源。允許商用,免費授權。
而生態適配上也早都完成,Huggingface、Ollama、Vertex、llama.cpp 都已經支持。
本文作者:DataLearner,來源:DataLearner,原文標題:《重磅!谷歌開源 Gemma-3 模型:支持多模態、128K 輸入,27B 版本在大模型匿名競技場超過 DeepSeeK V3,免費商用授權》