Google Gemma 4 : le modèle IA open source qui change la donne

Google DeepMind vient de lancer Gemma 4, une nouvelle famille de modèles IA entièrement open source sous licence Apache 2.0. Disponible en quatre tailles (2B, 4B, 26B et 31B paramètres), ce modèle rivalise avec les meilleurs LLM propriétaires tout en tournant directement sur votre téléphone ou votre ordinateur. Un tournant pour l’IA accessible et gratuite.

Les faits : ce que Google vient de lancer

Le 2 avril 2026, Google DeepMind a officiellement lancé Gemma 4, une famille de quatre modèles d’intelligence artificielle open source. C’est la première fois que Google publie des modèles aussi performants sous la licence Apache 2.0, la licence la plus permissive du marché.

Les quatre modèles se déclinent ainsi :

  • Gemma 4 E2B (2 milliards de paramètres) : conçu pour les smartphones, ultra-léger
  • Gemma 4 E4B (4 milliards) : optimisé pour les appareils mobiles et tablettes
  • Gemma 4 26B (Mixture-of-Experts) : un modèle hybride qui active seulement les experts nécessaires pour chaque tâche, alliant vitesse et précision
  • Gemma 4 31B (Dense) : le plus puissant de la gamme, taillé pour les serveurs et les stations de travail
Les quatre tailles de modèles Gemma 4 de Google
Les quatre déclinaisons de Gemma 4 : du smartphone au data center

Contrairement à son grand frère Gemini (le modèle propriétaire de Google), Gemma 4 est entièrement téléchargeable et exécutable en local, sans connexion internet. Il a été construit à partir de la même technologie que Gemini 3, mais optimisé pour tourner sur du matériel grand public.

Côté performances, Gemma 4 31B Dense se hisse au 3ème rang du classement Chatbot Arena parmi les modèles open source, rivalisant avec des modèles beaucoup plus lourds. Le modèle supporte plus de 140 langues, dispose d’une fenêtre de contexte de 256 000 tokens, et gère nativement l’audio et la vidéo.

La grande nouveauté : Gemma 4 est le premier modèle open source de Google à intégrer des capacités agentiques. Il peut exécuter des workflows autonomes en plusieurs étapes, planifier des actions complexes et interagir avec des outils externes — le tout directement sur votre appareil.

Ce que ça change pour vous

Pour les développeurs, c’est un game changer. Vous pouvez intégrer un modèle IA puissant dans vos applications sans payer d’abonnement API, sans envoyer vos données chez Google, et sans dépendre d’une connexion internet. La licence Apache 2.0 autorise l’usage commercial sans restriction.

Pour les utilisateurs Android, Gemma 4 est déjà disponible via AICore Developer Preview. Concrètement, cela signifie que des fonctionnalités IA avancées — résumé de texte, génération de code, compréhension d’images — pourront tourner directement sur votre téléphone sans envoyer vos données dans le cloud.

Pour les entreprises françaises soucieuses de souveraineté numérique, c’est une excellente nouvelle. Gemma 4 peut être déployé entièrement on-premise, sur vos propres serveurs, sans qu’aucune donnée ne quitte votre infrastructure. C’est exactement ce que demande le marché de l’IA en pleine explosion.

Comment tester Gemma 4 dès maintenant

Plusieurs options s’offrent à vous :

  • Hugging Face : téléchargez les modèles pré-entraînés ou instruction-tuned sur huggingface.co/google/gemma-4
  • Google AI Edge Gallery : testez directement sur Android ou iOS via l’app dédiée
  • LiteRT-LM : pour un déploiement in-app sur mobile, desktop et edge
  • Ollama / vLLM : pour tourner Gemma 4 en local sur votre PC via les quantisations GGUF disponibles

Notre avis

Avec Gemma 4, Google frappe fort sur le terrain de l’open source. Jusqu’ici, les modèles Gemma étaient bons mais pas assez pour concurrencer sérieusement les leaders comme Llama de Meta ou Mistral. Cette fois, la donne change : un modèle 31B qui se classe 3ème au Chatbot Arena, sous licence Apache 2.0, c’est du jamais vu chez Google.

Le vrai coup, c’est l’intégration native dans Android. Google a un avantage que personne d’autre n’a : 3 milliards d’appareils Android dans le monde. Si Gemma 4 devient le moteur IA par défaut de ces appareils, on parle d’un déploiement massif que ni Meta ni Mistral ne peuvent égaler. La guerre de l’IA locale ne fait que commencer, et la tendance des modèles compacts confirme cette direction.

À lire aussi

Sources

Laisser un commentaire