Google Gemma 4
Gemma 4:Google DeepMind 推出的史上最強大、基於 Apache 2.0 協議的開放模型系列
Gemma 4 是 Google DeepMind 研發的最新一代開放模型,具備領先業界的推理能力與代理工作流支持。其採用與 Gemini 3 相同的技術架構,提供從 2B 到 31B 的多種參數規模,旨在實現在多種硬體設備上的高效運行與微調。Gemma 4 不僅在數學、邏輯與代碼生成方面表現卓越,更原生支持多模態視聽處理及 140 多種語言,並通過 Apache 2.0 協議賦予開發者完全的自由度與控制權。
2026-04-05
8510.7K
Google Gemma 4 产品信息
Gemma 4:逐字節計算,史上最強大的開放模型
Google DeepMind 正式推出了 Gemma 4,這是我們迄今為止最智能的開放模型系列。Gemma 4 專為高級推理和代理工作流(Agentic Workflows)而設計,實現了前所未有的單位參數智能水平。這一突破基於強大的社區動力:自第一代發佈以來,開發者已下載 Gemma 超過 4 億次,並構建了超過 10 萬個變體。Gemma 4 正是為了回應創新者對於推向 AI 極限的需求而誕生,並在 Apache 2.0 協議下廣泛開放。
什麼是 Gemma 4?
Gemma 4 是由 Google DeepMind 基於與 Gemini 3 相同的世界級研究與技術構建的開放模型系列。作為目前開發者可以在自有硬體上運行的最強大模型,Gemma 4 補充了 Gemini 系列模型,為開發者提供了結合開放與專有工具的強大組合。其核心價值在於提供極高的“單位參數智能”,讓用戶能以較少的硬體開銷實現前沿級別的能力。
Gemma 4 的核心功能與特性
1. 多樣化的模型規格
Gemma 4 提供四種靈活的尺寸,以適應不同的應用場景:
- 31B Dense:追求極致質量的密集模型,在 Arena AI 文本排行榜上名列全球開放模型第 3 位。
- 26B Mixture of Experts (MoE):專注於低延遲,推理時僅激活 38 億參數,位列排行榜第 6 位,性能超越其體積 20 倍的模型。
- Effective 4B (E4B) 與 Effective 2B (E2B):專為移動端和 IoT 設備優化,優先考慮多模態能力與低延遲處理。
2. 強大的推理與代碼能力
- 高級推理:Gemma 4 具備多步規劃與深層邏輯能力,在數學和指令遵循基準測試中表現出色。
- 代碼生成:支持高質量的離線代碼編寫,可將工作站轉變為本地 AI 代碼助手。
3. 原生多模態支持
- 視覺與音頻:所有 Gemma 4 模型均能原生處理視頻與圖像,擅長 OCR 和圖表理解。E2B 和 E4B 模型還支持原生音頻輸入,用於語音識別與理解。
4. 代理工作流與長上下文
- 代理化操作:原生支持函數調用(Function-calling)、結構化 JSON 輸出和系統指令,助力構建自主代理。
- 長上下文窗口:邊緣模型支持 128K 窗口,而大型模型支持高達 256K,可一次性處理整個代碼庫或長篇文檔。
5. 全球化與安全性
- 140+ 語言:Gemma 4 經過 140 多種語言的原生訓練,助力開發全球化應用。
- 信任與安全:模型經過與專有模型相同的嚴格基礎設施安全協議測試。
Gemma 4 的使用場景
Gemma 4 的設計初衷是讓前沿智能無處不在:
- 移動與邊緣計算:通過與 Google Pixel、Qualcomm 和 MediaTek 的合作,E2B 和 E4B 模型可在手機、Raspberry Pi 和 NVIDIA Jetson Orin Nano 上離線運行,幾乎零延遲。
- 本地開發環境:26B 和 31B 模型優化後可運行在單張 80GB NVIDIA H100 GPU 或消費級 GPU 上,適用於 IDE 插件和個人助理。
- 科研與行業自定義:開發者可以針對特定任務進行微調。例如,INSAIT 利用其構建了保加利亞語模型 (BgGPT),耶魯大學則將其用於癌症治療研究。
- 企業級生產:通過 Google Cloud(Vertex AI、GKE)或 NVIDIA 基礎設施進行大規模部署,滿足監管合規要求。
常見問題 (FAQ)
Q: Gemma 4 的授權協議是什麼? A: Gemma 4 採用商業友好的 Apache 2.0 協議發佈,開發者對數據、基礎設施和模型擁有完全控制權。
Q: 我在哪裡可以下載 Gemma 4 的權重? A: 您可以通過 Hugging Face、Kaggle 或 Ollama 下載 Gemma 4 模型權重。
Q: Gemma 4 支持哪些開發工具? A: Gemma 4 提供首日支持,包括 Hugging Face (Transformers, TRL)、vLLM、llama.cpp、Ollama、NVIDIA NIM、MLX、Keras 和 Android Studio 等。
Q: 26B MoE 模型與 31B Dense 模型有什麼區別? A: 26B MoE 通過混合專家架構在推理時僅激活部分參數,旨在提供極快的生成速度;而 31B Dense 則專注於最大化原始質量,是微調的強大基礎。
Q: 如何在 Android 上開始使用? A: Android 開發者可以在 AICore 開發者預覽版中原型化代理流程,或通過 ML Kit GenAI Prompt API 構建生產應用。








