Aller au contenu principal
Google publie Gemma 4 sous licence Apache 2.0 — un changement de licence qui pourrait compter plus que les benchmarks
LLMsVentureBeat AI1h

Google publie Gemma 4 sous licence Apache 2.0 — un changement de licence qui pourrait compter plus que les benchmarks

1 source couvre ce sujet·Source originale ↗·

Google DeepMind a publié Gemma 4, sa nouvelle famille de modèles ouverts, sous licence Apache 2.0, un changement qui pourrait s'avérer plus décisif que n'importe quel score sur les benchmarks. Jusqu'ici, les versions précédentes de Gemma utilisaient une licence propriétaire avec des restrictions d'usage et des clauses modifiables unilatéralement par Google, ce qui poussait de nombreuses équipes entreprises à lui préférer Mistral ou Qwen d'Alibaba. Avec Gemma 4, Google adopte les mêmes termes permissifs que l'essentiel de l'écosystème open-weight : aucune restriction commerciale, aucune clause d'usage "nuisible" à interpréter juridiquement, redistribution libre. La famille se compose de quatre modèles répartis en deux niveaux. Le niveau "workstation" comprend un modèle dense à 31 milliards de paramètres et un modèle Mixture-of-Experts (MoE) de 26B A4B, tous deux capables de traiter texte et images avec une fenêtre de contexte de 256 000 tokens. Le niveau "edge" propose les modèles E2B et E4B, conçus pour smartphones, appareils embarqués et ordinateurs portables, supportant texte, image et audio avec 128 000 tokens de contexte.

Ce changement de licence lève un frein majeur à l'adoption en entreprise. Les équipes juridiques et conformité qui bloquaient le déploiement de Gemma 3 n'auront plus de raison de le faire avec Gemma 4. Sur le plan architectural, le modèle MoE 26B A4B est particulièrement intéressant pour les décideurs IT : ses 25,2 milliards de paramètres totaux n'en activent que 3,8 milliards par inférence, ce qui lui permet de délivrer des performances comparables à un modèle dense de 27 à 31 milliards de paramètres, mais à la vitesse et au coût de calcul d'un modèle de 4 milliards. Pour les organisations qui opèrent des assistants de code, des pipelines de traitement documentaire ou des workflows agentiques multi-tours, cela se traduit directement par moins de GPU nécessaires, une latence réduite et un coût par token inférieur. Google propose également des checkpoints QAT (Quantization-Aware Training) pour maintenir la qualité à précision réduite, et les deux modèles "workstation" sont déjà disponibles en configuration serverless sur Google Cloud via Cloud Run avec des GPU NVIDIA RTX Pro 6000.

Ce lancement s'inscrit dans une dynamique de marché significative. Alors que certains laboratoires chinois, dont Alibaba avec ses derniers modèles Qwen 3.5 Omni et Qwen 3.6 Plus, commencent à restreindre l'accès à leurs modèles les plus récents, Google fait le mouvement inverse en ouvrant pleinement son modèle le plus capable à ce jour, dont l'architecture s'inspire directement de la recherche derrière Gemini 3, son modèle commercial phare. Le choix des 128 petits experts dans le MoE plutôt qu'une poignée de grands experts reflète une optimisation délibérée pour les coûts d'inférence en production, un signal que Google cible désormais sérieusement les déploiements à grande échelle hors de ses propres infrastructures. Gemma 4 devrait apparaître rapidement dans des outils comme Ollama et LM Studio, ce qui accélérera encore son adoption.

Impact France/UE

La licence Apache 2.0 lève les blocages juridiques qui freinaient l'adoption de Gemma dans les entreprises européennes soumises à des obligations de conformité strictes.

💬 Le point de vue du dev

La licence Apache 2.0, c'est ce qui va faire la différence, pas les scores. Les équipes juridiques qui bloquaient Gemma 3 n'ont plus d'argument valable, et le MoE 26B qui n'active que 4B de paramètres à l'inférence, c'est du GPU économisé pour de vrai, pas du marketing. Reste à voir si Google tient la promesse de qualité à precision réduite sur des pipelines en production, mais l'angle est le bon.

À lire aussi

NVIDIA optimise Gemma 4 pour les agents autonomes locaux, des GPU RTX aux serveurs Spark
1NVIDIA AI Blog 

NVIDIA optimise Gemma 4 pour les agents autonomes locaux, des GPU RTX aux serveurs Spark

Google et NVIDIA ont annoncé cette semaine une collaboration pour optimiser la nouvelle famille de modèles Gemma 4 sur les GPU NVIDIA, couvrant un spectre matériel allant des modules embarqués Jetson Orin Nano aux PC et stations de travail RTX, en passant par le superordinateur personnel DGX Spark. La gamme comprend quatre variantes — E2B, E4B, 26B et 31B — chacune ciblant un segment précis : les modèles E2B et E4B sont conçus pour une inférence ultra-rapide et hors-ligne sur des appareils à faible consommation, tandis que les 26B et 31B visent des cas d'usage plus exigeants comme le raisonnement complexe et les workflows de développement. Ces modèles multimodaux prennent en charge le texte, les images, la vidéo et l'audio, acceptent des entrées mixtes dans un même prompt, et couvrent nativement plus de 35 langues, avec un préentraînement sur plus de 140. Ils intègrent également un support natif pour les appels de fonctions structurés, fondement des architectures agentiques. L'enjeu principal est de rendre l'IA agentique accessible localement, sans dépendance au cloud. Jusqu'ici, faire tourner un assistant IA capable de raisonner, coder et interagir avec des fichiers personnels nécessitait soit une connexion internet, soit du matériel serveur coûteux. Avec Gemma 4 optimisé pour les Tensor Cores NVIDIA via CUDA, des machines grand public comme un PC équipé d'une RTX 5090 peuvent exécuter le modèle 31B avec des performances compétitives — les benchmarks réalisés avec llama.cpp (b7789) montrent un débit de génération de tokens mesurable à ISL 4096 et OSL 128. Des applications comme OpenClaw, déjà compatible avec ces nouveaux modèles, permettent de construire des agents locaux qui accèdent aux fichiers, applications et workflows de l'utilisateur en temps réel, sans que les données quittent la machine. Ce lancement s'inscrit dans une dynamique plus large d'ouverture des modèles de frontier, portée par Google DeepMind avec la famille Gemma depuis 2024. La collaboration avec NVIDIA vise à réduire le fossé entre les performances des modèles propriétaires cloud et ce qu'un développeur peut faire tourner chez lui. NVIDIA s'est associé à Ollama et llama.cpp pour simplifier le déploiement local, tandis qu'Unsloth propose dès le premier jour des versions quantifiées et optimisées pour le fine-tuning via Unsloth Studio. À mesure que la course aux modèles locaux s'intensifie — face à des acteurs comme Meta avec LLaMA ou Mistral AI — la capacité de Google à distribuer des modèles performants sur du matériel NVIDIA grand public représente un levier stratégique pour étendre l'écosystème Gemma bien au-delà des serveurs de données.

UELa concurrence directe de Gemma 4 avec les modèles de Mistral AI accentue la pression sur l'écosystème open source européen, tandis que les développeurs français bénéficient d'un accès immédiat à des modèles multimodaux performants exécutables localement via des outils déjà disponibles (Ollama, llama.cpp, Unsloth).

💬 Un 31B qui tourne sur une RTX sans toucher au cloud, c'est le verrou qui lâche enfin. Ce qui me convainc surtout, c'est l'écosystème autour (Ollama, Unsloth, llama.cpp dès J1) : si tu as du matériel NVIDIA chez toi, tu peux tester ça ce soir. Reste à voir si les perfs tiennent en conditions réelles, les benchmarks à contexte fixe c'est pas toujours très révélateur.

LLMsOpinion
1 source
Google annonce Gemma 4, ses modèles IA open source sous licence Apache 2.0
2Ars Technica AI 

Google annonce Gemma 4, ses modèles IA open source sous licence Apache 2.0

Google a lancé ce mercredi Gemma 4, sa nouvelle génération de modèles d'IA open-weight, disponible en quatre tailles optimisées pour un usage local. La gamme comprend notamment un modèle 26 milliards de paramètres en architecture Mixture of Experts (MoE) et un modèle dense de 31 milliards de paramètres, tous deux conçus pour tourner non quantifiés en format bfloat16 sur un seul GPU NVIDIA H100 de 80 Go. Quantifiés en précision réduite, ces modèles peuvent également fonctionner sur des cartes graphiques grand public. Autre changement majeur : Google abandonne sa licence propriétaire Gemma au profit de la licence Apache 2.0, bien plus permissive et largement adoptée dans l'écosystème open source. Ce passage à l'Apache 2.0 répond directement aux frustrations exprimées par les développeurs, qui se heurtaient jusqu'ici à des restrictions d'usage limitant l'intégration de Gemma dans des projets commerciaux ou open source. La licence Apache 2.0 supprime ces barrières et aligne Gemma sur les standards attendus pour des modèles véritablement ouverts. Sur le plan technique, le modèle 26B MoE n'active que 3,8 milliards de ses 26 milliards de paramètres en inférence, ce qui lui confère un débit en tokens par seconde nettement supérieur aux modèles de taille équivalente, réduisant ainsi la latence sur du matériel local. Le 31B Dense, lui, privilégie la qualité et est pensé pour être affiné sur des cas d'usage spécifiques. Gemma 3 avait été lancé il y a plus d'un an, et cette nouvelle version s'inscrit dans une dynamique de concurrence intense autour des modèles ouverts, où Meta (avec Llama), Mistral AI et d'autres acteurs se disputent l'adoption des développeurs. Google dispose d'un avantage structurel avec ses propres accélérateurs TPU et son infrastructure cloud, mais cherche également à s'imposer sur les machines locales, un segment en forte croissance depuis l'essor des inférences embarquées. Avec Gemma 4, l'entreprise tente de réconcilier puissance et accessibilité, tout en reprenant la main sur un écosystème open source qu'elle avait jusqu'ici abordé avec prudence.

UELes développeurs européens peuvent désormais intégrer Gemma 4 dans des projets commerciaux et open source sans restriction grâce au passage à la licence Apache 2.0.

💬 Le passage à Apache 2.0, c'est la vraie nouvelle ici, pas les 26B de paramètres. La licence Gemma d'avant rendait le modèle quasi inutilisable pour quoi que ce soit de sérieux, et Google le savait depuis des mois. Reste à voir si le 26B MoE tient ses promesses en local, mais sur le papier, activer 3,8B de paramètres pour le débit d'un petit modèle avec la qualité d'un grand, c'est exactement le genre de compromis qu'on attendait.

Gemma 4 : les modèles open source les plus performants à taille égale
3DeepMind Blog 

Gemma 4 : les modèles open source les plus performants à taille égale

Google a dévoilé Gemma 4, la quatrième génération de sa famille de modèles de langage open weights, présentée comme la plus performante à ce jour dans cette gamme. Conçus pour le raisonnement avancé et les flux de travail agentiques, ces modèles sont disponibles librement pour les développeurs et chercheurs. Google les décrit comme les plus efficaces octet pour octet de leur catégorie, signalant un saut qualitatif par rapport aux versions précédentes sur les benchmarks de compréhension et de raisonnement complexe. Cette sortie est significative pour l'écosystème open source de l'IA : des modèles ouverts aussi performants permettent aux entreprises et développeurs indépendants de déployer des agents autonomes et des pipelines de raisonnement sans dépendre d'APIs propriétaires. L'accent mis sur les workflows agentiques — où le modèle planifie, exécute des actions et s'adapte en plusieurs étapes — répond à un besoin croissant de l'industrie pour des automatisations complexes accessibles localement. Gemma s'inscrit dans la stratégie de Google DeepMind de maintenir une présence forte dans l'open source face à Meta (LLaMA) et Mistral AI, qui dominent ce segment. Après Gemma 1, 2 et 3, cette quatrième itération intervient alors que la course aux modèles ouverts s'intensifie, chaque acteur cherchant à établir son architecture comme référence pour les développeurs.

UELes développeurs et entreprises européens accèdent à des modèles open weights performants déployables localement, réduisant leur dépendance aux APIs propriétaires et intensifiant la pression concurrentielle sur Mistral AI, acteur français de référence sur ce segment.

💬 Mistral a un problème. Google livre des modèles ouverts sérieux sur l'agentique, et l'argument "notre archi est meilleure" va devenir de plus en plus difficile à tenir face à ça. Bon, faut voir ce que ça donne hors benchmarks.

LLMsOpinion
1 source
Google publie Gemma 4 en open source complet, y compris pour les téléphones
4ZDNET AI 

Google publie Gemma 4 en open source complet, y compris pour les téléphones

Google a publié Gemma 4 en open source complet sous licence Apache 2.0, permettant désormais à n'importe quel développeur de télécharger, modifier et redistribuer le modèle sans restriction commerciale. La nouveauté majeure est sa capacité multimodale : Gemma 4 traite texte et images en local, sur des serveurs, des smartphones Android et même des cartes Raspberry Pi, sans connexion au cloud. Cela représente un tournant concret pour les entreprises et développeurs indépendants qui souhaitent déployer de l'IA sans envoyer leurs données vers des serveurs tiers. Les cas d'usage sont immédiats : applications médicales sensibles, outils d'entreprise offline, assistants embarqués dans des appareils IoT, ou simplement des apps mobiles qui fonctionnent sans réseau. La licence Apache 2.0, l'une des plus permissives, élimine les barrières juridiques habituelles. Google s'inscrit ainsi dans une concurrence directe avec Meta (Llama), Mistral et d'autres acteurs de l'open source IA, qui ont démontré l'appétit du marché pour des modèles déployables localement. La capacité à tourner sur du matériel grand public comme un Raspberry Pi signale que Google vise aussi l'edge computing et les marchés émergents, où la connectivité reste un frein majeur à l'adoption de l'IA.

UELes développeurs et entreprises européennes peuvent désormais déployer Gemma 4 localement sans dépendance au cloud, renforçant la souveraineté des données — un avantage direct face aux contraintes du RGPD.

💬 Apache 2.0, multimodal, et ça tourne sur Raspberry Pi : c'est le genre de sortie qu'on attendait depuis que Meta a prouvé que l'open source IA avait un vrai marché. Je pense surtout aux usages offline sensibles, médical, entreprise, IoT, tout ce qui ne peut pas se permettre d'envoyer ses données dans le cloud. Reste à voir si la qualité tient la comparaison avec Llama, mais Google joue vraiment le jeu cette fois.

LLMsActu
1 source