Aller au contenu principal
LLMsLatent Space1h

[AINews] Vendredi Saint

1 source couvre ce sujet·Source originale ↗·
[AINews] Vendredi Saint
▶ Voir sur YouTube

Google a lancé Gemma 4 le 3 avril 2026, sous licence Apache 2.0, marquant un tournant dans sa stratégie open source. La famille de modèles comprend plusieurs variantes, dont le 26B A4B (une architecture MoE, mixture of experts) et le modèle 31B, conçus pour le raisonnement, les workflows agentiques, la multimodalité et l'usage sur appareil local. Dès le premier jour, l'écosystème était prêt : vLLM, llama.cpp, Ollama, Intel (Xeon, Xe GPU, Core Ultra), Unsloth et Hugging Face Inference Endpoints ont tous annoncé une compatibilité immédiate. François Chollet a qualifié Gemma 4 de modèle open source le plus solide jamais produit par Google, recommandant le backend JAX via KerasHub, tandis que Demis Hassabis a mis en avant l'efficacité du modèle, qui surpasserait des modèles dix fois plus grands selon les benchmarks internes. Les premiers tests sur matériel grand public confirment des performances remarquables : 162 tokens par seconde sur une RTX 4090 à 19,5 Go de VRAM, 34 tokens par seconde sur un Mac mini M4 avec 16 Go de RAM, et même un portage fonctionnel sur iPhone via Swift MLX.

L'importance de cette sortie tient autant à la licence qu'aux performances. En optant pour Apache 2.0, Google lève les restrictions habituelles sur l'usage commercial et la redistribution, ce qui ouvre la voie à une intégration dans des produits tiers sans friction juridique. Clément Delangue (Hugging Face) et plusieurs autres acteurs du secteur ont salué ce choix comme une vraie libération des poids, contrairement aux licences restrictives qui avaient accompagné des releases précédentes. Sur le plan technique, la compression TurboQuant réduit le cache KV de 13,3 Go à 4,9 Go pour le modèle 31B à 128 000 tokens de contexte, ce qui rend ce niveau de performance accessible sur du matériel abordable. Le modèle E4B est même présenté comme capable de tourner directement sur smartphones et ordinateurs portables.

En parallèle de Gemma 4, le framework agentique open source Hermes Agent, développé par Nous Research, s'impose comme la surprise de la journée. De nombreux développeurs ont signalé avoir migré depuis OpenClaw vers Hermes, citant une meilleure stabilité sur les tâches longues. L'équipe de Nous a livré une infrastructure concrète : un système de mémoire modulaire compatible avec plusieurs backends (Honcho, mem0, Hindsight, RetainDB), une création autonome de compétences et une mémoire procédurale réutilisable. La thèse émergente dans la communauté est que l'avantage compétitif ne réside plus seulement dans le modèle lui-même, mais dans le harness, c'est-à-dire le système d'orchestration qui l'entoure. Cette double actualité, un modèle de base puissant et libre d'un côté, un framework agentique mature de l'autre, dessine les contours d'un écosystème open source qui se rapproche sérieusement des capacités propriétaires.

Impact France/UE

Hugging Face (entreprise française) a intégré Gemma 4 en priorité dans ses Inference Endpoints sous licence Apache 2.0, offrant aux développeurs et entreprises européennes un accès immédiat à un modèle open source exploitable commercialement sans restriction juridique.

À lire aussi

1Latent Space 

Marc Andreessen s'interroge sur la mort du navigateur, Pi + OpenClaw, et pourquoi cette fois c'est différent

Marc Andreessen, cofondateur du fonds de capital-risque Andreessen Horowitz (a16z), qui vient de lever 15 milliards de dollars, s'est exprimé dans un épisode du podcast Latent Space enregistré dans les bureaux légendaires de Sand Hill Road. Face aux animateurs swyx et Alessio, il a développé sa thèse centrale : l'intelligence artificielle n'est pas un nouveau cycle de hype, mais l'aboutissement de quatre-vingts ans de progrès scientifique cumulé. Des réseaux de neurones des années 1980 aux systèmes experts, en passant par AlexNet en 2012 et les transformers, jusqu'aux modèles de raisonnement et aux agents autonomes d'aujourd'hui, Andreessen voit dans ce moment une convergence historique. Il a également mis en avant deux projets qu'il considère comme des percées architecturales majeures : Pi et OpenClaw, une combinaison de modèle de langage, shell Unix, système de fichiers, Markdown et boucle cron qu'il compare à l'invention d'Unix en termes d'importance pour l'industrie logicielle. Pour Andreessen, ce qui distingue fondamentalement ce cycle des précédents, c'est le saut qualitatif entre les LLM classiques et les modèles de raisonnement capables de coder, d'agir de manière autonome et potentiellement de s'améliorer eux-mêmes de façon récursive. Il souligne que la vraie contrainte n'est plus technique mais institutionnelle : les organisations humaines, leurs incitations et leurs structures sociales peinent à absorber un changement aussi rapide. Sur la question des infrastructures, il nuance la comparaison avec la bulle des télécoms de 2000 : les acheteurs actuels de capacités IA sont des géants aux bilans solides, et la demande existe déjà. Il défend également l'importance de l'IA embarquée en local, citant la confidentialité, la confiance et l'économie comme facteurs structurels favorisant les modèles tournant sur Apple Silicon ou des puces dédiées. Andreessen incarne une génération rare d'investisseurs ayant vécu de l'intérieur plusieurs révolutions technologiques : il a créé Mosaic, le premier navigateur web grand public, avant de cofonder Netscape et a16z. Son regard sur l'open source est particulièrement éclairant : il décrit DeepSeek comme "un cadeau au monde", non seulement parce que les modèles sont gratuits, mais parce qu'ils propagent la compréhension profonde de ces systèmes à l'échelle planétaire. Il anticipe également une refonte du rapport humain-machine sur internet, estimant que la détection des bots est désormais un problème insoluble par voie algorithmique seule, et que seule une preuve cryptographique et biométrique d'identité humaine permettra de rétablir la confiance en ligne. Ses prises de position, portées par l'un des fonds les plus influents de la Silicon Valley, façonnent directement les priorités d'investissement de tout un écosystème.

LLMsOpinion
1 source
201net 

Google dévoile 4 IA qui peuvent tourner sur votre smartphone ou votre ordinateur, sans Internet

Google a présenté Gemma 4, sa nouvelle famille de quatre modèles d'intelligence artificielle en open source, conçus pour fonctionner directement sur des appareils grand public, smartphones et ordinateurs, sans nécessiter de connexion internet. Ces quatre variantes, pensées pour des usages et des capacités de calcul différents, sont accessibles librement aux développeurs et aux entreprises souhaitant les intégrer dans leurs propres applications. L'enjeu est considérable pour les utilisateurs : faire tourner une IA en local signifie que les données ne quittent plus l'appareil, ce qui renforce la confidentialité et supprime la dépendance aux serveurs distants. Pour les développeurs, c'est aussi la possibilité de déployer des applications IA fonctionnelles dans des environnements sans connectivité stable, ce qui ouvre des marchés entiers, du secteur médical aux zones rurales. Google entre ainsi en compétition directe sur le segment des modèles légers et open source, un terrain jusqu'ici dominé par des acteurs comme DeepSeek, le laboratoire chinois qui avait surpris l'industrie début 2025 avec des modèles très performants à faible coût, et Qwen d'Alibaba. La course aux modèles embarqués s'intensifie, chaque acteur cherchant à s'imposer comme standard dans les écosystèmes locaux avant que le marché ne se cristallise.

UELes développeurs et entreprises européennes peuvent intégrer Gemma 4 en local, facilitant la conformité RGPD en évitant tout transfert de données vers des serveurs tiers.

💬 Gemma 4, c'est Google qui arrive enfin sur un terrain où DeepSeek et Qwen s'installaient tranquillement depuis un an. Quatre modèles open source qui tournent en local, donc tes données restent sur ta machine, ce qui change vraiment la donne pour tout ce qui touche à la santé ou à la conformité RGPD. La question maintenant, c'est qui va s'imposer comme standard avant que le marché se fige, et là Google part avec un avantage de distribution qu'aucun labo chinois n'a.

LLMsActu
1 source
3Le Big Data 

OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »

Brad Lightcap, directeur des opérations d'OpenAI, a déclaré début avril 2026 que les modèles d'IA actuels, y compris GPT-5.4, paraîtront dépassés d'ici la fin de l'année. Cette affirmation intervient alors que GPT-5.4, lancé il y a quelques jours à peine, affiche déjà un rythme de revenus annualisé d'un milliard de dollars et traite environ 5 000 milliards de tokens par jour. En l'espace de quelques semaines, OpenAI a enchaîné les versions GPT-5.1, 5.2, 5.3 puis 5.4, chacune apportant des gains significatifs sans attendre les longs cycles de recherche et de déploiement qui caractérisaient autrefois le secteur. GPT-5.4 s'est imposé comme le moteur principal des API d'OpenAI presque instantanément, et intègre une capacité nouvelle : le modèle décide lui-même s'il doit raisonner en profondeur ou répondre directement, sans que l'utilisateur ait à choisir un mode particulier. Des améliorations concrètes sont déjà visibles en écriture, en génération de code et dans des secteurs exigeants comme la santé. Ce rythme d'itération inédit transforme en profondeur la manière dont les entreprises et les développeurs adoptent l'IA. Un modèle sorti depuis quelques jours peut déjà devenir dominant à l'échelle mondiale, ce qui compresse les cycles d'adoption et rend obsolètes les intégrations à peine finalisées. Pour les équipes techniques qui s'appuient sur les API d'OpenAI, cela signifie une mise à jour permanente des pratiques et des outils. Le phénomène fonctionne comme un effet boule de neige : plus un modèle est performant, plus il est adopté dans des usages critiques comme le développement logiciel ou l'analyse de données, ce qui génère des revenus permettant de financer le cycle suivant encore plus vite. La barre de ce qui constitue un outil "avancé" se déplace en permanence, rendant les standards d'aujourd'hui potentiellement minimaux demain. Cette dynamique s'inscrit dans une évolution structurelle du secteur. Pendant des années, les progrès en IA se mesuraient en recherche académique publiée et en grands modèles sortis annuellement. Depuis GPT-4, puis o1, puis la série GPT-5, OpenAI a progressivement réduit la durée des cycles d'entraînement et de déploiement. La déclaration de Lightcap marque une accélération supplémentaire : les améliorations ne sont plus linéaires mais exponentielles, chaque génération servant de base accélérée à la suivante. Si cette projection se confirme, les concurrents — Google DeepMind, Anthropic, Meta — devront soutenir un rythme similaire pour rester compétitifs, ce qui soulève des questions sur les ressources de calcul nécessaires et sur la capacité des organisations à intégrer des outils qui évoluent plus vite qu'elles ne peuvent se les approprier.

UELes équipes techniques européennes utilisant les API OpenAI doivent adapter en permanence leurs intégrations face à un rythme d'itération qui rend obsolètes les outils à peine déployés.

LLMsOpinion
1 source
4AI Business 

Google lance la famille de modèles ouverts Gemma 4

Google a lancé Gemma 4, une nouvelle famille de modèles d'IA open source conçue pour le raisonnement avancé et les capacités multimodales. Héritière de la série Gemma, cette offre s'inscrit dans la stratégie de Google DeepMind de proposer des modèles accessibles aux développeurs et chercheurs, utilisables localement ou dans le cloud. La famille comprend plusieurs variantes de tailles différentes, adaptées à des usages allant des appareils mobiles aux serveurs de production. L'arrivée de Gemma 4 renforce l'arsenal open source disponible pour les équipes techniques qui ne veulent pas dépendre exclusivement de modèles propriétaires via API. Les capacités multimodales — traitement combiné de texte et d'images — ouvrent la voie à des applications concrètes dans l'analyse documentaire, la vision par ordinateur et les assistants enrichis. Pour les entreprises soucieuses de confidentialité ou de coûts d'inférence, un modèle performant déployable en local représente un avantage opérationnel direct. Google s'inscrit ainsi dans une compétition ouverte avec Meta (LLaMA), Mistral et d'autres acteurs qui misent sur l'open source pour gagner l'adhésion des développeurs. La série Gemma, lancée début 2024, avait déjà rencontré un accueil favorable grâce à ses performances compétitives à taille réduite. Avec Gemma 4, Google cherche à consolider sa position dans cet écosystème, alors que le débat entre modèles ouverts et fermés reste central dans l'industrie de l'IA.

UELes équipes techniques et entreprises européennes disposent d'une nouvelle famille open source déployable en local, réduisant la dépendance aux APIs propriétaires et facilitant la conformité RGPD.