Aller au contenu principal
Poolside lance Laguna XS.2, un modèle ouvert gratuit et performant pour le codage local à base d'agents
LLMsVentureBeat AI1h

Poolside lance Laguna XS.2, un modèle ouvert gratuit et performant pour le codage local à base d'agents

Résumé IASource uniqueImpact UE
Source originale ↗·

La startup américaine Poolside, fondée à San Francisco en 2023, a lancé ce 28 avril 2026 deux nouveaux modèles de langage sous la marque Laguna, conçus spécifiquement pour les tâches de codage agentique. Le premier, Laguna M.1, est un modèle propriétaire de 225 milliards de paramètres au format Mixture of Experts (MoE), avec 23 milliards de paramètres actifs, destiné aux environnements d'entreprise et gouvernementaux à hautes exigences de sécurité. Le second, Laguna XS.2, est un modèle open source sous licence Apache 2.0 de 33 milliards de paramètres (3 milliards actifs), téléchargeable et exécutable localement sur un simple GPU de bureau ou d'ordinateur portable, sans connexion internet. Poolside accompagne ces deux modèles d'un agent de codage en ligne de commande baptisé "pool" et d'un environnement de développement web mobile appelé "shimmer". Temporairement, même le plus grand modèle M.1 est accessible gratuitement via l'API Poolside et des partenaires comme OpenRouter, Ollama et Baseten.

L'arrivée de Laguna XS.2 en open source représente un signal fort dans un secteur dominé soit par des modèles propriétaires coûteux comme Claude d'Anthropic ou GPT-5.5 d'OpenAI, soit par des modèles chinois à licence ouverte comme ceux de DeepSeek. Poolside offre ici une alternative américaine, exécutable entièrement hors ligne, ce qui répond à un besoin critique pour les agences gouvernementales et les entreprises opérant dans des environnements ultra-sécurisés. L'ingénieur post-entraînement George Grigorev a précisé que Poolside peut "livrer des poids dans des environnements totalement isolés on-premises, sans connexion réseau", un avantage décisif face aux solutions cloud d'Anthropic ou Google. Par ailleurs, les deux modèles Laguna ont été entraînés intégralement from scratch, contrairement à plusieurs laboratoires américains qui s'appuient sur les modèles de base Qwen d'Alibaba, ce qui leur confère une indépendance technique notable.

Poolside s'est jusqu'ici concentrée sur des contrats gouvernementaux et de défense, construisant ses modèles dans un environnement interne appelé "Model Factory", dont le moteur central est un logiciel maison nommé Titan. L'entreprise utilise également un optimiseur d'entraînement appelé Muon, qui accélère l'apprentissage d'environ 15% par rapport aux méthodes standards, un avantage compétitif non négligeable en termes de coûts et de délais. En s'ouvrant maintenant à la communauté des développeurs et à la recherche publique, Poolside change de stratégie et entre de plein pied dans la bataille de l'open source agentique, à un moment où les entreprises tech cherchent à réduire leur dépendance aux API propriétaires pour des raisons de coût, de confidentialité et de souveraineté technologique.

Impact France/UE

Les organisations européennes en environnement isolé (défense, administration) peuvent déployer localement un modèle de codage agentique open source américain sans dépendance cloud, renforçant leur autonomie technologique.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Z.ai lance GLM-5V-Turbo : un modèle multimodal de vision et de code optimisé pour les workflows d'ingénierie à base d'agents
1MarkTechPost 

Z.ai lance GLM-5V-Turbo : un modèle multimodal de vision et de code optimisé pour les workflows d'ingénierie à base d'agents

Zhipu AI (Z.ai), laboratoire d'intelligence artificielle chinois, a lancé GLM-5V-Turbo, un nouveau modèle de vision multimodale spécialement conçu pour la génération de code et les workflows d'ingénierie logicielle. Ce modèle se distingue par une architecture dite de fusion multimodale native, associant un encodeur visuel CogViT à une architecture MTP (Multi-Token Prediction), avec une fenêtre de contexte de 200 000 tokens. Il est capable de traiter simultanément des images, des vidéos, des maquettes de design et des documents techniques complexes, tout en produisant du code syntaxiquement rigoureux. Son entraînement repose sur une technique de reinforcement learning conjoint sur plus de 30 tâches distinctes couvrant le raisonnement STEM, l'ancrage visuel, l'analyse vidéo et l'utilisation d'outils externes. Ce lancement répond à un problème structurel bien connu dans le domaine des modèles vision-langage : le « effet de balançoire », où les gains en perception visuelle se font au détriment des capacités de programmation logique. En optimisant conjointement ces deux dimensions, GLM-5V-Turbo ouvre la voie à des agents d'interface graphique (GUI agents) véritablement opérationnels — des systèmes capables de « voir » un écran et d'en déduire les actions ou le code nécessaire pour y interagir. Concrètement, cela permet à un développeur de soumettre une capture d'écran d'un bug ou une maquette de fonctionnalité, et d'obtenir directement le code correspondant, sans passer par une description textuelle intermédiaire. L'intégration avec OpenClaw, framework open source pour agents GUI, et avec Claude Code, l'outil de programmation assistée d'Anthropic, renforce son positionnement dans des pipelines d'automatisation logicielle à haute capacité. Ce modèle s'inscrit dans une compétition mondiale de plus en plus intense autour des modèles multimodaux orientés code, où des acteurs comme Google (Gemini), OpenAI (GPT-4o) et Anthropic (Claude) investissent massivement. La stratégie de Z.ai se distingue par une spécialisation assumée : plutôt que de viser un usage généraliste, GLM-5V-Turbo cible explicitement les workflows agentiques, en s'intégrant dès le départ dans des écosystèmes d'outils existants. Cette approche de « deep adaptation » pourrait s'avérer décisive pour les équipes d'ingénierie cherchant à automatiser des tâches visuellement complexes — déploiement d'environnements, analyse de sessions enregistrées, génération de code à partir de maquettes — sans sacrifier la précision logique indispensable au développement logiciel professionnel.

LLMsActu
1 source
L'IA à base d'agents pousse les prix à la hausse, Deepseek sort un modèle compétitif pour presque rien
2The Decoder 

L'IA à base d'agents pousse les prix à la hausse, Deepseek sort un modèle compétitif pour presque rien

Le laboratoire chinois Deepseek a lancé deux nouveaux modèles, V4-Pro et V4-Flash, dotés d'une architecture pouvant atteindre 1 600 milliards de paramètres et d'une fenêtre de contexte d'un million de tokens. La sortie s'accompagne d'un article technique détaillant les choix d'entraînement, les techniques de distillation et le matériel utilisé. Les tarifs annoncés se situent très nettement en dessous de ceux pratiqués par OpenAI, Google et Anthropic, confirmant la stratégie agressive de Deepseek sur le marché des API. Cette annonce intervient dans un contexte où les grands acteurs occidentaux font l'inverse : face à l'explosion des usages agentiques, OpenAI et Anthropic ont récemment revu leurs prix à la hausse et imposé des plafonds de consommation sur certains modèles. Deepseek propose une alternative performante à une fraction du coût, ce qui représente une pression directe sur les marges et les modèles économiques des leaders du secteur. Pour les développeurs et les entreprises qui cherchent à déployer des agents autonomes à grande échelle, l'équation coût-performance devient difficile à ignorer. Deepseek s'est imposé depuis début 2025 comme l'un des acteurs les plus disruptifs du marché mondial des LLM, en montrant qu'il est possible d'obtenir des résultats compétitifs avec des budgets d'entraînement bien inférieurs à ceux de ses concurrents américains. La publication du papier technique accompagnant V4-Pro et V4-Flash s'inscrit dans cette logique de transparence qui renforce la crédibilité du laboratoire et alimente le débat sur l'avantage réel des géants du cloud face à une concurrence ouverte et low-cost.

UELes développeurs et entreprises européens déployant des agents autonomes peuvent réduire significativement leurs coûts d'API en adoptant DeepSeek V4-Pro/V4-Flash, remettant en question l'équation coût-performance avec leurs fournisseurs actuels.

LLMsOpinion
1 source
Xiaomi lance MiMo-V2.5-Pro et MiMo-V2.5 : des performances comparables aux grands modèles pour un coût en tokens bien inférieur
3MarkTechPost 

Xiaomi lance MiMo-V2.5-Pro et MiMo-V2.5 : des performances comparables aux grands modèles pour un coût en tokens bien inférieur

L'équipe MiMo de Xiaomi vient de publier deux nouveaux modèles d'intelligence artificielle, MiMo-V2.5-Pro et MiMo-V2.5, disponibles immédiatement via API à des tarifs compétitifs. Le modèle phare, MiMo-V2.5-Pro, affiche des scores de référence qui le placent aux côtés des meilleurs systèmes propriétaires actuels : 57,2 sur SWE-bench Pro, 63,8 sur Claw-Eval et 72,9 sur τ3-Bench, des résultats comparables à ceux de Claude Opus 4.6 et GPT-5.4. Pour illustrer ses capacités en conditions réelles, Xiaomi a publié trois démonstrations exigeantes : la génération d'un compilateur complet en Rust depuis zéro, inspiré d'un projet du cours de compilation de l'Université de Pékin, réalisée en 4,3 heures et 672 appels d'outils avec un score parfait de 233 sur 233 sur la suite de tests officielle ; la création d'un éditeur vidéo de bureau fonctionnel comptant 8 192 lignes de code, produit en 11,5 heures et 1 868 appels d'outils ; et une tâche de conception de circuit analogique de niveau master en EDA portant sur un régulateur LDO à suiveur de tension inversé. Ce qui distingue MiMo-V2.5-Pro des modèles classiques, c'est sa capacité à opérer de manière autonome sur des tâches longues et complexes impliquant plus d'un millier d'appels d'outils successifs. Là où la plupart des grands modèles de langage répondent à des questions isolées, les modèles dits agentiques doivent maintenir un objectif sur de nombreuses étapes, utiliser des outils comme la recherche web, l'exécution de code ou les appels d'API, et corriger leurs propres erreurs en chemin. La démonstration du compilateur Rust est particulièrement frappante : plutôt que de procéder par tâtonnements, le modèle a construit le compilateur couche par couche, atteignant dès la première compilation 137 tests réussis sur 233, soit 59% du score final avant même d'avoir lancé un seul test unitaire ciblé. Lorsque des régressions sont apparues à la suite d'un refactoring, le modèle les a diagnostiquées et corrigées de manière autonome. Xiaomi nomme cette propriété la "harness awareness" : le modèle ne suit pas les instructions mécaniquement, il optimise activement son propre environnement de travail pour rester sur la trajectoire correcte sur de très longues séquences. Ces performances s'inscrivent dans une course serrée entre modèles ouverts et systèmes propriétaires, une dynamique qui s'accélère depuis 2025. Pendant des années, les capacités agentiques les plus avancées restaient l'apanage exclusif des grands laboratoires fermés comme OpenAI, Anthropic ou Google DeepMind. L'irruption de modèles ouverts ou semi-ouverts aux performances comparables, portée par des acteurs comme Xiaomi, Meta ou DeepSeek, redistribue les cartes du secteur. Pour les développeurs et les entreprises, l'accès à des capacités de niveau frontier via des API compétitives change le calcul économique : des tâches qui nécessitaient jusqu'ici des appels coûteux à des systèmes propriétaires deviennent accessibles à moindre coût. Si MiMo-V2.5-Pro tient ses promesses en production, il pourrait accélérer significativement l'adoption de l'IA agentique dans l'ingénierie logicielle, l'automatisation industrielle et la recherche scientifique.

UELes développeurs et entreprises européens peuvent accéder à des capacités agentiques de niveau frontier via une API compétitive, réduisant le coût d'adoption de l'IA agentique dans l'ingénierie logicielle et l'automatisation industrielle.

LLMsOpinion
1 source
Meta lance un nouveau modèle d’IA, pour tenter de rattraper Google et OpenAI
4Siècle Digital 

Meta lance un nouveau modèle d’IA, pour tenter de rattraper Google et OpenAI

Meta a lancé mercredi 8 avril son nouveau modèle d'intelligence artificielle baptisé Muse Spark, première production officielle des Meta Superintelligence Labs. Ce lancement représente le résultat d'un investissement de 14,3 milliards de dollars engagé par le groupe de Mark Zuckerberg dans sa course pour rivaliser avec Google et OpenAI sur le marché des modèles de fondation les plus avancés. Ce lancement marque un tournant stratégique pour Meta, qui cherche à dépasser son image de simple acteur open source. La famille Llama avait jusqu'ici construit la réputation d'un Meta généreux, distribuant ses modèles librement à la communauté des développeurs. Avec Muse Spark, l'entreprise semble viser un positionnement différent, plus orienté vers la compétition directe avec les modèles propriétaires de Google DeepMind et d'OpenAI. Pour les entreprises et développeurs qui avaient misé sur l'écosystème Llama, cette bifurcation soulève des questions sur la cohérence de la stratégie IA de Meta. Le contexte de ce lancement est tendu : Meta accélère ses dépenses en IA à un rythme inédit, alors que la concurrence entre grands modèles s'intensifie avec les sorties récentes de Gemini 2.0 et GPT-4o. La création des Meta Superintelligence Labs signale une réorganisation interne profonde, visant à concentrer les meilleurs talents sur les systèmes les plus ambitieux. Les prochains mois diront si Muse Spark peut réellement combler le retard accumulé face aux leaders du secteur.

UELe lancement de Muse Spark et le pivot stratégique de Meta vers le propriétaire oblige les entreprises et développeurs européens ayant misé sur l'écosystème Llama open source à réévaluer leurs choix d'infrastructure IA.

LLMsOpinion
1 source