Google dévoile Gemma 4, son modèle ouvert
(deepmind.google)- Google DeepMind a annoncé Gemma 4, le modèle d’IA ouvert de nouvelle génération basé sur la technologie de Gemini 3, conçu avec une architecture qui maximise l’efficacité de l’intelligence par paramètre
- Le modèle est proposé en quatre tailles, E2B, E4B, 26B et 31B, et prend en charge une large plage d’exécution, du mobile et de l’IoT jusqu’aux environnements GPU personnels
- Il inclut comme fonctions clés le raisonnement multimodal, la prise en charge de 140 langues, les workflows agentiques, le fine-tuning de précision et une architecture efficace
- Les performances ont fortement progressé par rapport à Gemma 3 dans les domaines des mathématiques, du code et de la compréhension multimodale, tout en conservant des standards de sécurité et de fiabilité au même niveau que les modèles commerciaux de Google
- Les poids du modèle peuvent être téléchargés depuis Hugging Face, Ollama, Kaggle, LM Studio, Docker, avec prise en charge d’une exécution intégrée en local comme dans le cloud
Gemma 4 — le modèle d’IA ouvert de nouvelle génération
- Gemma 4 est le dernier modèle ouvert de Google DeepMind, développé à partir des recherches et technologies de Gemini 3, avec une architecture qui maximise l’efficacité de l’intelligence par paramètre (intelligence-per-parameter)
- Le modèle est disponible en quatre tailles, E2B, E4B, 26B et 31B, et peut être exécuté dans des environnements variés, du mobile et de l’IoT jusqu’aux stations de travail personnelles
- Il intègre comme fonctions principales le raisonnement multimodal, la prise en charge de 140 langues, les workflows agentiques, le fine-tuning de précision et une architecture efficace
- Dans les benchmarks de performance, il enregistre une progression globale par rapport à Gemma 3, avec notamment de très bons scores en mathématiques, en code et en compréhension multimodale
- Les standards de sécurité et de fiabilité restent au même niveau que ceux des modèles commerciaux de Google, et les poids du modèle peuvent être téléchargés depuis Hugging Face, Ollama, Kaggle, LM Studio, Docker, etc.
Composition du modèle et efficacité
- Gemma 4 est conçu sur la base technologique de Gemini 3 et adopte une architecture de modèle ouvert pensée pour maximiser l’efficacité de l’intelligence
- Le modèle se décline en quatre versions, E2B, E4B, 26B et 31B, chacune optimisée selon les ressources de calcul et l’efficacité mémoire
- E2B et E4B : pour les appareils mobiles et IoT, avec efficacité maximale et exécution hors ligne
- 26B et 31B : fournissent des capacités de raisonnement de niveau frontier dans des environnements GPU personnels
Fonctions clés
-
Agentic workflows
- Prend en charge nativement le function calling, ce qui permet de construire des agents autonomes capables de planifier, naviguer dans des applications et exécuter des tâches à la place de l’utilisateur
-
Multimodal reasoning
- Combine des capacités de compréhension audio et visuelle pour faciliter le développement d’applications multimodales riches
-
Support for 140 languages
- Permet de créer des expériences multilingues allant au-delà de la simple traduction, avec prise en compte du contexte culturel
-
Fine tuning
- Permet un fine-tuning avec les frameworks et méthodes préférés de l’utilisateur afin d’améliorer les performances sur des tâches spécifiques
-
Efficient architecture
- Peut s’exécuter sur du matériel interne/propre et offre un environnement de développement et de déploiement efficace
Performances
- Gemma 4 a été évalué à partir de divers jeux de données et métriques liés à la génération de texte
- Principaux résultats de benchmark (sur la base de Gemma 4 31B IT) :
- Arena AI (text) : 1452 (contre 1365 pour Gemma 3 27B)
- MMMLU (Q&R multilingue) : 85.2%
- MMMU Pro (raisonnement multimodal) : 76.9%
- AIME 2026 (mathématiques) : 89.2%
- LiveCodeBench v6 (problèmes de code) : 80.0%
- GPQA Diamond (connaissances scientifiques) : 84.3%
- τ2-bench (utilisation d’outils par des agents) : 86.4%
- Globalement, Gemma 4 affiche une amélioration des performances sur tous les indicateurs par rapport à Gemma 3, avec des progrès particulièrement marqués en mathématiques, code et compréhension multimodale
E2B et E4B — pour le mobile et l’IoT
- La prise en charge audio et vision permet un traitement en temps réel sur des appareils edge
- Offre une exécution entièrement hors ligne et une latence quasi nulle sur des appareils comme les smartphones, Raspberry Pi et Jetson Nano
- Peut être testé via Google AI Edge Gallery
26B et 31B — IA locale haute performance
- Fournissent des capacités avancées de raisonnement adaptées aux IDE, assistants de code et workflows agentiques
- Optimisés pour les GPU grand public, ils permettent aux étudiants, chercheurs et développeurs de mettre en place un environnement de serveur IA local
- Peuvent être exécutés directement dans Google AI Studio
Sécurité et fiabilité
- Gemma 4 applique les mêmes protocoles de sécurité d’infrastructure que les modèles commerciaux de Google
- Fournit une base transparente et fiable utilisable par les entreprises et les organismes publics
- Propose des fonctions d’IA de pointe tout en respectant les plus hauts standards de sécurité et de fiabilité
Téléchargement et exécution
-
Téléchargement des poids du modèle
- Les poids de Gemma 4 sont disponibles sur Hugging Face, Ollama, Kaggle, LM Studio et Docker Hub
-
Support pour l’entraînement et le déploiement
- Intégration avec diverses plateformes comme Jax, Vertex AI, Keras, Google AI Edge, Google Kubernetes Engine et Ollama
- La documentation officielle et les API permettent de configurer des environnements d’entraînement, de déploiement et d’inférence
Communauté Gemmaverse
- Gemmaverse permet d’explorer des projets construits avec Gemma par des développeurs du monde entier
- Les dernières mises à jour sont diffusées via les canaux X, Instagram, YouTube, LinkedIn et GitHub de Google DeepMind
- Il est possible de s’abonner pour recevoir les dernières nouveautés en matière d’innovation IA
Aucun commentaire pour le moment.