[AINews] Vendredi Saint
![[AINews] Vendredi Saint](https://img.youtube.com/vi/O_IMsEg91g8/hqdefault.jpg)
Google a lancé Gemma 4 le 3 avril 2026, sous licence Apache 2.0, marquant un tournant dans sa stratégie open source. La famille de modèles comprend plusieurs variantes, dont le 26B A4B (une architecture MoE, mixture of experts) et le modèle 31B, conçus pour le raisonnement, les workflows agentiques, la multimodalité et l'usage sur appareil local. Dès le premier jour, l'écosystème était prêt : vLLM, llama.cpp, Ollama, Intel (Xeon, Xe GPU, Core Ultra), Unsloth et Hugging Face Inference Endpoints ont tous annoncé une compatibilité immédiate. François Chollet a qualifié Gemma 4 de modèle open source le plus solide jamais produit par Google, recommandant le backend JAX via KerasHub, tandis que Demis Hassabis a mis en avant l'efficacité du modèle, qui surpasserait des modèles dix fois plus grands selon les benchmarks internes. Les premiers tests sur matériel grand public confirment des performances remarquables : 162 tokens par seconde sur une RTX 4090 à 19,5 Go de VRAM, 34 tokens par seconde sur un Mac mini M4 avec 16 Go de RAM, et même un portage fonctionnel sur iPhone via Swift MLX.
L'importance de cette sortie tient autant à la licence qu'aux performances. En optant pour Apache 2.0, Google lève les restrictions habituelles sur l'usage commercial et la redistribution, ce qui ouvre la voie à une intégration dans des produits tiers sans friction juridique. Clément Delangue (Hugging Face) et plusieurs autres acteurs du secteur ont salué ce choix comme une vraie libération des poids, contrairement aux licences restrictives qui avaient accompagné des releases précédentes. Sur le plan technique, la compression TurboQuant réduit le cache KV de 13,3 Go à 4,9 Go pour le modèle 31B à 128 000 tokens de contexte, ce qui rend ce niveau de performance accessible sur du matériel abordable. Le modèle E4B est même présenté comme capable de tourner directement sur smartphones et ordinateurs portables.
En parallèle de Gemma 4, le framework agentique open source Hermes Agent, développé par Nous Research, s'impose comme la surprise de la journée. De nombreux développeurs ont signalé avoir migré depuis OpenClaw vers Hermes, citant une meilleure stabilité sur les tâches longues. L'équipe de Nous a livré une infrastructure concrète : un système de mémoire modulaire compatible avec plusieurs backends (Honcho, mem0, Hindsight, RetainDB), une création autonome de compétences et une mémoire procédurale réutilisable. La thèse émergente dans la communauté est que l'avantage compétitif ne réside plus seulement dans le modèle lui-même, mais dans le harness, c'est-à-dire le système d'orchestration qui l'entoure. Cette double actualité, un modèle de base puissant et libre d'un côté, un framework agentique mature de l'autre, dessine les contours d'un écosystème open source qui se rapproche sérieusement des capacités propriétaires.
Hugging Face (entreprise française) a intégré Gemma 4 en priorité dans ses Inference Endpoints sous licence Apache 2.0, offrant aux développeurs et entreprises européennes un accès immédiat à un modèle open source exploitable commercialement sans restriction juridique.