Google DeepMind a dévoilé Gemma 4, une nouvelle famille de modèles d’intelligence artificielle open source qui repousse les limites de ce qu’un modèle ouvert peut accomplir. Disponible sous licence Apache 2.0, cette quatrième génération rivalise avec des systèmes propriétaires bien plus volumineux.
Lancée le 2 avril 2026, Gemma 4 se décline en quatre tailles : un modèle E2B de 2 milliards de paramètres taillé pour les smartphones, un E4B de 4,5 milliards pour le matériel grand public, un modèle MoE de 26 milliards à architecture Mixture-of-Experts, et un modèle dense de 31 milliards de paramètres qui constitue le fer de lance de la famille.
Des performances qui défient les géants
Les chiffres donnent le vertige. Sur le benchmark mathématique AIME 2026, Gemma 4 atteint 89,2 %, contre 88,3 % pour Llama 4 de Meta. En programmation, sur LiveCodeBench v6, le score grimpe à 80 %, dépassant là encore le concurrent de Meta. Sur le test scientifique GPQA Diamond, Gemma 4 obtient 84,3 %, soit dix points de plus que Llama 4 Scout.
Tout cela avec seulement 31 milliards de paramètres, une fraction de la taille de ses rivaux. Meta mise de son côté sur Muse Spark pour rattraper son retard dans la course à l’IA ouverte.
Une licence qui change la donne pour les entreprises
Le passage à la licence Apache 2.0 constitue probablement le changement le plus significatif. Les versions précédentes de Gemma imposaient des restrictions qui bloquaient de nombreux déploiements en entreprise. Désormais, n’importe quelle société peut utiliser, modifier et redistribuer ces modèles sans payer de redevances ni partager ses données.
Cette ouverture n’a rien de philanthropique. Google parie que les entreprises qui adoptent Gemma en local finiront par se tourner vers Google Cloud pour passer à l’échelle. OpenAI prépare de son côté une entrée en bourse à 1 000 milliards de dollars, preuve que le marché de l’IA n’a jamais été aussi compétitif.
Du Raspberry Pi au datacenter
L’un des atouts majeurs de Gemma 4 réside dans sa polyvalence. Les modèles E2B et E4B fonctionnent directement sur un smartphone ou un Raspberry Pi, capables de traiter du texte, des images et même de l’audio sans connexion internet. Le modèle phare de 31B gère quant à lui des fenêtres de contexte allant jusqu’à 256 000 tokens.
Tous les modèles prennent en charge plus de 140 langues de manière native. Ce n’est pas de la simple traduction : l’entraînement multilingue a été intégré dès la conception. L’IA neuro-symbolique explore une autre voie pour réduire les coûts de calcul, mais Gemma 4 prouve qu’on peut aussi optimiser l’architecture classique.
Google a aussi annoncé que Gemma 4 servira de base à Gemini Nano 4, la prochaine génération d’IA embarquée dans les smartphones Android haut de gamme attendus fin 2026.
À retenir
- Gemma 4 bat des modèles 20 fois plus gros sur les benchmarks majeurs
- La licence Apache 2.0 autorise tout usage commercial sans restriction
- Quatre tailles disponibles, du smartphone au serveur cloud
Avec plus de 400 millions de téléchargements cumulés pour la famille Gemma, Google s’impose comme un acteur incontournable de l’IA ouverte face à Meta (Llama), DeepSeek et Mistral. Google multiplie les outils IA gratuits, et Gemma 4 en est la pièce maîtresse.







