Google Gemma 4
Gemma 4: Die intelligentesten offenen KI-Modelle für fortschrittliches Reasoning und agentische Workflows unter Apache 2.0-Lizenz.
Gemma 4 ist die neueste Generation offener KI-Modelle von Google DeepMind, die für maximale Intelligenz pro Parameter entwickelt wurde. Basierend auf der Gemini 3-Technologie bietet Gemma 4 bahnbrechende Fähigkeiten in den Bereichen logisches Denken, Code-Generierung und multimodale Verarbeitung von Video, Bild und Audio. Mit vier vielseitigen Modellgrößen – von mobilen Versionen (E2B, E4B) bis hin zu leistungsstarken Desktop-Modellen (26B MoE, 31B Dense) – ermöglicht Gemma 4 effiziente lokale Workflows. Dank der kommerziell permissiven Apache 2.0-Lizenz genießen Entwickler volle Flexibilität und digitale Souveränität bei der Erstellung autonomer Agenten und spezialisierter Anwendungen in über 140 Sprachen.
2026-04-05
8510.7K
Google Gemma 4 Produktinformationen
Gemma 4: Die leistungsstärksten offenen Modelle für moderne KI-Innovationen
Mit der Einführung von Gemma 4 präsentiert Google DeepMind seine bisher intelligenteste Familie offener Modelle. Gemma 4 wurde speziell für fortschrittliches Reasoning (logisches Denken) und agentische Workflows konzipiert und liefert ein beispielloses Maß an Intelligenz pro Parameter. Aufbauend auf dem Erfolg der ersten Generationen, die über 400 Millionen Mal heruntergeladen wurden, bietet Gemma 4 nun bahnbrechende Funktionen unter der Apache 2.0-Lizenz.
Was ist Gemma 4?
Gemma 4 ist eine Familie hochmoderner offener Modelle, die auf derselben Forschung und Technologie basieren wie Gemini 3. Diese Modelle sind darauf optimiert, die Grenzen dessen zu verschieben, was auf lokaler Hardware möglich ist. Gemma 4 ergänzt die proprietären Gemini-Modelle und bietet Entwicklern die leistungsstärkste Kombination aus offenen und geschlossenen KI-Werkzeugen der Branche.
Die Modellfamilie ist in vier verschiedenen Größen erhältlich, um unterschiedliche Anforderungen zu erfüllen:
- Effective 2B (E2B) und Effective 4B (E4B): Optimiert für mobile Geräte und IoT.
- 26B Mixture of Experts (MoE): Fokus auf niedrige Latenz durch Aktivierung von nur 3,8 Milliarden Parametern während der Inferenz.
- 31B Dense: Maximale Qualität und eine starke Basis für Feinabstimmungen.
Die wichtigsten Features von Gemma 4
Die Überlegenheit von Gemma 4 zeigt sich in einer Vielzahl technologischer Innovationen, die sie von anderen Modellen ihrer Größe abheben:
Fortschrittliches Reasoning und Logik
Gemma 4 demonstriert signifikante Verbesserungen bei komplexen Aufgaben, die mehrstufige Planung und tiefe Logik erfordern. In Benchmarks für Mathematik und das Befolgen von Anweisungen setzt das Modell neue Maßstäbe für offene Systeme.
Agentische Workflows
Ein Kernmerkmal von Gemma 4 ist die native Unterstützung für Function-Calling, strukturierten JSON-Output und native Systemanweisungen. Dies ermöglicht den Bau autonomer Agenten, die zuverlässig mit APIs interagieren und komplexe Arbeitsabläufe ausführen können.
Multimodalität: Vision und Audio
Alle Gemma 4-Modelle können nativ Video und Bilder in variablen Auflösungen verarbeiten. Sie exzellieren bei Aufgaben wie OCR (Texterkennung) und dem Verständnis von Diagrammen. Die Edge-Modelle (E2B und E4B) unterstützen zudem nativen Audio-Input für Spracherkennung und -verständnis.
Erweiterter Kontext und Sprachen
Mit einem Kontextfenster von bis zu 256K (bei den größeren Modellen) oder 128K (bei den Edge-Modellen) kann Gemma 4 ganze Code-Repositories oder lange Dokumente in einem einzigen Prompt verarbeiten. Zudem wurde Gemma 4 nativ in über 140 Sprachen trainiert.
Offene Lizenzierung
Gemma 4 wird unter der Apache 2.0-Lizenz veröffentlicht. Diese kommerziell permissive Lizenz bietet Entwicklern vollständige Kontrolle über ihre Daten und Infrastruktur sowie die Freiheit, Anwendungen sowohl on-premises als auch in der Cloud bereitzustellen.
Use Case: Wo wird Gemma 4 eingesetzt?
Durch die hohe Effizienz und das intelligente Design findet Gemma 4 in verschiedenen Szenarien Anwendung:
- Lokale Code-Assistenten: Dank der Unterstützung für hochwertige Offline-Code-Generierung verwandelt Gemma 4 Workstations in leistungsstarke KI-Entwicklungsumgebungen.
- Mobile KI-Anwendungen: Die Modelle E2B und E4B laufen offline auf Smartphones (wie Google Pixel), Raspberry Pi oder NVIDIA Jetson Nano mit nahezu null Latenz.
- Wissenschaftliche Forschung: Projekte wie Cell2Sentence-Scale der Yale University nutzen Gemma für die Entdeckung neuer Wege in der Krebstherapie.
- Spezialisierte Sprachmodelle: Die INSAIT-Organisation nutzte die Architektur, um mit BgGPT ein führendes bulgarisches Sprachmodell zu erstellen.
- Unternehmen und Souveränität: Organisationen nutzen Gemma 4 als vertrauenswürdige Basis für sicherheitskritische Workloads, da sie volle digitale Souveränität über das Modell behalten.
FAQ zu Gemma 4
Welche Hardware wird für den Betrieb von Gemma 4 benötigt? Die Modelle sind so skaliert, dass sie effizient auf einer Vielzahl von Geräten laufen. Die 26B- und 31B-Modelle passen in ihrer unquantisierten Form (bfloat16) auf eine einzelne NVIDIA H100 GPU (80GB). Quantisierte Versionen laufen problemlos auf Consumer-GPUs. Die Edge-Modelle (E2B, E4B) sind für Mobilgeräte und IoT-Hardware wie MediaTek oder Qualcomm optimiert.
Wie schneidet Gemma 4 im Vergleich zu anderen Modellen ab? Auf dem Arena AI Text-Leaderboard belegt das 31B-Modell derzeit Platz 3 der weltweiten offenen Modelle. Das 26B MoE-Modell erreicht Platz 6 und schlägt dabei Modelle, die bis zu 20-mal größer sind.
Kann ich Gemma 4 feinabstimmen? Ja, Gemma 4 ist hervorragend für das Fine-Tuning geeignet. Entwickler können Plattformen wie Google Colab, Vertex AI oder lokale Gaming-GPUs nutzen, um das Modell auf spezifische Aufgaben zuzuschneiden.
Welche Tools unterstützen Gemma 4 bereits? Gemma 4 bietet Day-One-Support für ein riesiges Ökosystem, darunter Hugging Face, vLLM, llama.cpp, Ollama, NVIDIA NIM, PyTorch via Keras und viele mehr.
Wo kann ich die Modelle herunterladen? Die Modellgewichte von Gemma 4 sind auf Hugging Face, Kaggle und Ollama verfügbar.








