Aller au contenu principal
Mistral AI lance des agents distants dans Vibe et Mistral Medium 3.5 avec un score de 77,6 % sur SWE-Bench Verified
LLMsMarkTechPost1h

Mistral AI lance des agents distants dans Vibe et Mistral Medium 3.5 avec un score de 77,6 % sur SWE-Bench Verified

Résumé IASource uniqueImpact UE
Source originale ↗·

Mistral AI vient d'annoncer deux avancées majeures : le lancement des agents distants dans Vibe, sa plateforme d'agents de codage, et la mise en préversion publique de Mistral Medium 3.5, un nouveau modèle dense de 128 milliards de paramètres. Ce modèle devient immédiatement le modèle par défaut dans Vibe et dans Le Chat, l'assistant grand public de Mistral. Sur le benchmark SWE-Bench Verified, référence du secteur pour évaluer la capacité d'un modèle à résoudre des problèmes réels tirés de dépôts GitHub open source, Medium 3.5 obtient un score de 77,6%, devançant Devstral 2 ainsi que Qwen3.5 397B A17B. Le modèle dispose d'une fenêtre de contexte de 256 000 tokens, soit environ 200 000 mots traités en une seule passe, suffisant pour raisonner sur l'intégralité d'une grande base de code. Il est également multimodal, avec un encodeur visuel développé intégralement par Mistral plutôt que réutilisé depuis des modèles comme CLIP, ce qui lui confère davantage de flexibilité face aux images de tailles et formats variés.

La bascule vers les agents distants représente un changement fondamental dans la façon dont les développeurs interagissent avec Vibe. Jusqu'ici, les sessions Vibe s'exécutaient localement, liant l'agent au terminal de l'utilisateur. Désormais, plusieurs sessions peuvent tourner en parallèle dans le cloud pendant que le développeur fait autre chose. Il est même possible de "téléporter" une session locale en cours vers le cloud sans perdre l'historique, l'état de la tâche ni les validations en attente. Chaque session s'exécute dans un environnement isolé, et lorsqu'une tâche est terminée, l'agent peut ouvrir directement une pull request sur GitHub et notifier le développeur. Les intégrations couvrent également Linear, Jira pour la gestion des tickets, Sentry pour les incidents, et Slack ou Teams pour les notifications. Le Chat de Mistral bénéficie de la même infrastructure via les Workflows de Mistral Studio, la même couche d'orchestration développée en interne avant d'être ouverte aux entreprises puis au grand public.

Cette annonce s'inscrit dans une compétition de plus en plus dense sur le segment des agents de codage, où Mistral affronte notamment GitHub Copilot Workspace, Cursor et des offres d'OpenAI ou d'Anthropic. En positionnant Vibe comme une alternative accessible depuis la ligne de commande ou directement depuis Le Chat, Mistral mise sur la praticité et l'intégration native à la chaîne de développement existante. Le choix de construire son propre encodeur visuel plutôt que de s'appuyer sur des composants standard témoigne d'une volonté de maîtrise technique complète sur la pile. Avec Medium 3.5, Mistral qualifie ce modèle de premier "flagship merged model", suggérant une évolution de sa stratégie produit vers des modèles unifiés capables de couvrir instruction, raisonnement et code sans multiplication des variantes spécialisées.

Impact France/UE

Mistral AI, entreprise française, consolide sa position de champion européen de l'IA avec un modèle de pointe et une plateforme d'agents de codage qui concurrencent directement les offres américaines sur le marché du développement logiciel.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Poolside AI présente Laguna XS.2 et M.1, des modèles de codage à base d'agents atteignant 68,2 % et 72,5 % sur SWE-bench Verified
1MarkTechPost 

Poolside AI présente Laguna XS.2 et M.1, des modèles de codage à base d'agents atteignant 68,2 % et 72,5 % sur SWE-bench Verified

Poolside AI a dévoilé mardi les deux premiers modèles de sa famille Laguna : Laguna M.1 et Laguna XS.2, accompagnés d'un agent de codage en ligne de commande baptisé "pool". Laguna M.1 est un modèle de type Mixture-of-Experts (MoE) totalisant 225 milliards de paramètres, dont seulement 23 milliards activés à chaque inférence, entraîné sur 30 000 milliards de tokens à l'aide de 6 144 GPU NVIDIA Hopper interconnectés. Il atteint 72,5 % sur le benchmark SWE-bench Verified, référence du secteur pour évaluer la résolution autonome de bugs réels. Laguna XS.2, le premier modèle en accès ouvert de Poolside, est beaucoup plus compact : 33 milliards de paramètres au total, seulement 3 milliards activés par token. Il score 68,2 % sur SWE-bench Verified et peut tourner en local sur un Mac équipé de 36 Go de RAM via Ollama, ce qui est rare pour ce niveau de performance. Une version de base pour le fine-tuning, XS.2-base, sera publiée prochainement. Ces résultats positionnent Poolside parmi les acteurs sérieux du codage agentique, un segment en pleine effervescence où l'objectif est de faire résoudre des tâches de développement complexes et longues par des modèles de manière autonome. La capacité de XS.2 à fonctionner en local change la donne pour les développeurs soucieux de confidentialité ou travaillant sans accès cloud stable : avec une fenêtre de contexte de 131 072 tokens et un support natif du raisonnement intercalé entre les appels d'outils, le modèle est conçu pour des workflows réels de programmation sur plusieurs heures. Le fait que Laguna XS.2 soit open-weight le rend aussi accessible aux équipes qui souhaitent l'adapter à leurs propres bases de code, sans dépendre d'une API propriétaire. Poolside AI, fondée en 2023 par des vétérans de DeepMind et du monde de la recherche, a levé plus de 500 millions de dollars avec la conviction que l'IA spécialisée dans le code nécessite une infrastructure d'entraînement entièrement repensée. Pour Laguna, l'entreprise a développé en interne son pipeline de données, son framework d'entraînement (Titan) et une infrastructure de reinforcement learning agentique. L'une des innovations les plus notables est "AutoMixer", un système qui entraîne simultanément environ 60 modèles-proxy sur des mélanges de données différents pour optimiser automatiquement la composition du jeu d'entraînement, plutôt que de s'appuyer sur des heuristiques manuelles. Cette approche, inspirée de travaux comme RegMix ou OLMix, aurait permis de doubler la diversité effective des données tout en préservant l'équilibre entre code, mathématiques et raisonnement général. La prochaine étape pour Poolside sera probablement d'élargir la famille Laguna et d'affiner son agent "pool" pour concurrencer directement des outils comme Claude Code ou Cursor sur le marché des assistants de développement autonomes.

UELaguna XS.2 étant open-weight et exécutable en local via Ollama, les équipes européennes soucieuses de souveraineté des données peuvent l'adopter sans dépendre d'une API cloud américaine.

💬 68,2 % sur SWE-bench avec un modèle qui tourne sur Mac, c'est pas rien. Ce qui change vraiment la donne, c'est le côté open-weight : on peut l'adapter à sa propre base de code, sans dépendre d'une API tierce, et ça c'est rare pour ce niveau de performance. Reste à voir si l'agent "pool" suit.

LLMsActu
1 source
Z.AI lance GLM-5.1 : un modèle open-weight de 754 milliards de paramètres, leader sur SWE-Bench Pro avec 8 heures d'exécution autonome
2MarkTechPost 

Z.AI lance GLM-5.1 : un modèle open-weight de 754 milliards de paramètres, leader sur SWE-Bench Pro avec 8 heures d'exécution autonome

Z.AI, la plateforme d'intelligence artificielle fondée par l'équipe derrière la famille de modèles GLM, a publié GLM-5.1, son nouveau modèle phare conçu spécifiquement pour les tâches agentiques. Avec 754 milliards de paramètres et une architecture de type Mixture of Experts combinée à une attention à structure dispersée (DSA), le modèle atteint un score de 58,4 sur SWE-Bench Pro, surpassant GPT-5.4, Claude Opus 4.6 et Gemini 3.1 Pro pour établir un nouveau record sur ce benchmark de référence en ingénierie logicielle. Il affiche également 95,3 sur AIME 2026, 86,2 sur GPQA-Diamond, et 68,7 sur CyberGym, contre 48,3 pour son prédécesseur GLM-5. La capacité à maintenir une exécution autonome pendant huit heures consécutives, à travers des centaines d'itérations et des milliers d'appels d'outils, constitue l'un de ses traits distinctifs les plus marquants. Ce qui rend GLM-5.1 particulièrement significatif pour les développeurs, c'est sa réponse à un problème structurel des LLM utilisés comme agents : le plateau d'efficacité. Les modèles précédents, y compris GLM-5, épuisaient rapidement leur répertoire de stratégies et cessaient de progresser même lorsqu'on leur accordait plus de temps. GLM-5.1 est conçu pour rester productif sur des horizons bien plus longs, en décomposant les problèmes complexes, en conduisant des expériences, en lisant les résultats et en révisant sa stratégie à chaque itération. Cette capacité d'auto-correction soutenue réduit concrètement la dérive de stratégie et l'accumulation d'erreurs, rendant le modèle exploitable pour des tâches d'ingénierie autonome de bout en bout, sans supervision humaine constante. Le modèle est rendu possible par une infrastructure d'apprentissage par renforcement asynchrone inédite, qui découple la génération de l'entraînement pour en améliorer drastiquement l'efficacité. Cette approche permet au modèle d'apprendre à partir d'interactions longues et complexes, là où l'entraînement RL classique en tour unique échoue. Z.AI publie GLM-5.1 en open-weight, ce qui signifie que les équipes techniques peuvent envisager un hébergement en propre, bien que l'architecture MoE exige une infrastructure de serving adaptée. Dans un contexte où les grands labs comme OpenAI, Anthropic et Google dominent les classements des modèles fermés, la percée de Z.AI sur SWE-Bench Pro avec un modèle ouvert repositionne le paysage concurrentiel. Avec des scores solides sur MCP-Atlas et Terminal-Bench 2.0, le modèle vise directement les cas d'usage production où les agents doivent opérer des systèmes réels, une tendance qui s'accélère en 2026.

UELe modèle open-weight offre aux équipes européennes une alternative auto-hébergeable aux modèles fermés américains, réduisant la dépendance aux APIs d'OpenAI, Anthropic et Google pour les cas d'usage agentiques en production.

LLMsActu
1 source
MiniMax publie en open source MiniMax M2.7, un modèle à agents auto-évolutif : 56,22 % sur SWE-Pro et 57 % sur Terminal Bench 2
3MarkTechPost 

MiniMax publie en open source MiniMax M2.7, un modèle à agents auto-évolutif : 56,22 % sur SWE-Pro et 57 % sur Terminal Bench 2

MiniMax a rendu public les poids de son modèle MiniMax M2.7 sur Hugging Face, officiellement annoncé le 18 mars 2026. Il s'agit du modèle open source le plus performant de l'entreprise à ce jour, construit sur une architecture Mixture-of-Experts (MoE) qui n'active qu'une fraction des paramètres à chaque inférence, rendant le modèle nettement plus rapide et moins coûteux à faire tourner qu'un modèle dense de qualité comparable. M2.7 est conçu autour de trois axes : l'ingénierie logicielle professionnelle, la productivité bureautique avancée, et ce que MiniMax appelle les "Agent Teams", une capacité native de collaboration multi-agents. Sur le benchmark SWE-Pro, qui évalue la maîtrise de plusieurs langages de programmation à travers des tâches d'analyse de logs, débogage, revue de sécurité et workflows machine learning, M2.7 atteint 56,22 %, à égalité avec GPT-5.3-Codex. Il obtient également 57,0 % sur Terminal Bench 2, 39,8 % sur NL2Repo, et 55,6 % sur VIBE-Pro, benchmark de génération de code à l'échelle d'un dépôt, plaçant le modèle au niveau de Claude Opus 4.6 sur des tâches couvrant Web, Android, iOS et simulation. Ce qui distingue M2.7, c'est sa capacité à intervenir sur des systèmes en production réels. Face à une alerte critique, le modèle peut corréler des métriques de monitoring avec des timelines de déploiement, conduire une analyse statistique sur des traces d'échantillonnage, se connecter proactivement à des bases de données pour vérifier la cause racine, identifier des fichiers de migration d'index manquants dans un dépôt, puis appliquer une création d'index non bloquante avant de soumettre une merge request, le tout en moins de trois minutes selon les équipes MiniMax. Ce positionnement dépasse largement la génération de code : il s'agit d'un modèle capable de raisonnement causal de niveau SRE (Site Reliability Engineering), un profil rare parmi les modèles disponibles en open source. Le détail le plus frappant de M2.7 est son architecture d'auto-évolution. Le modèle a été chargé d'optimiser lui-même ses propres performances sur un scaffold interne, sans intervention humaine. Il a conduit plus de 100 itérations autonomes selon une boucle : analyser les trajectoires d'échec, planifier des modifications, toucher au code du scaffold, relancer des évaluations, comparer les résultats, décider de conserver ou annuler les changements. Au fil de ce processus, M2.7 a découvert seul des optimisations efficaces, notamment la recherche systématique de la combinaison optimale de paramètres d'échantillonnage (température, frequency penalty, presence penalty), la conception de guidelines de workflow plus précises, et l'ajout d'une détection de boucles infinies dans l'agent loop. Résultat : une amélioration de 30 % sur les ensembles d'évaluation internes. Au sein des équipes de reinforcement learning de MiniMax, M2.7 gère désormais 30 à 50 % des workflows de bout en bout, les chercheurs humains n'intervenant que pour les décisions critiques, un signal fort que la frontière entre outil et collaborateur est en train de se déplacer.

UELes développeurs et entreprises européens peuvent déployer librement les poids de ce modèle open source pour des tâches d'ingénierie logicielle avancée, réduisant leur dépendance aux API propriétaires.

💬 Un modèle open source qui a passé 100 itérations à modifier son propre scaffold et s'est amélioré de 30 % tout seul, c'est le truc qu'on lisait dans les papiers de recherche il y a 18 mois. Là c'est sorti sur Hugging Face, avec les poids, et des benchmarks qui le placent au niveau de Claude Opus 4.6 sur du code à l'échelle d'un dépôt réel. Reste à voir si ça tient hors du contexte lab, mais pour une fois l'architecture MoE n'est pas juste un argument marketing pour réduire les coûts d'inférence : ça donne un modèle qu'on peut faire tourner sans louer un datacenter.

LLMsActu
1 source
Mistral AI lance un modèle de synthèse vocale qui surpasse ElevenLabs, disponible en open source
4VentureBeat AI 

Mistral AI lance un modèle de synthèse vocale qui surpasse ElevenLabs, disponible en open source

Mistral AI a lancé jeudi matin Voxtral TTS, son premier modèle de synthèse vocale de qualité frontier, avec une particularité radicale : les poids du modèle sont publiés en open source, téléchargeables et utilisables sans jamais envoyer le moindre audio vers un serveur tiers. La startup parisienne, valorisée 13,8 milliards de dollars après une levée de 2 milliards en série C menée par le fabricant de puces néerlandais ASML en septembre dernier, affirme que son modèle surpasse ElevenLabs sur les benchmarks de qualité vocale. Techniquement, Voxtral TTS repose sur trois composants : un transformeur décodeur de 3,4 milliards de paramètres, un transformeur acoustique de 390 millions de paramètres basé sur le flow-matching, et un codec audio neuronal de 300 millions de paramètres développé en interne. Le tout tient en 3 gigaoctets de RAM une fois quantifié, produit de l'audio en 90 millisecondes pour une entrée typique, et génère la parole à six fois la vitesse temps réel. Il tourne sur n'importe quel laptop ou smartphone, y compris sur du matériel vieillissant. Le modèle couvre neuf langues — anglais, français, allemand, espagnol, néerlandais, portugais, italien, hindi et arabe — et peut cloner une voix à partir de seulement cinq secondes d'audio de référence. L'enjeu est considérable : le marché mondial de la voix IA a dépassé 22 milliards de dollars en 2026, et le seul segment des agents vocaux est projeté à 47,5 milliards d'ici 2034. Jusqu'ici, ce marché est dominé par des acteurs propriétaires — ElevenLabs, Google Cloud avec Chirp 3, OpenAI — qui vendent l'accès à leurs modèles via API : les entreprises louent la voix, elles ne la possèdent pas. Mistral propose le modèle inverse : télécharger les poids, déployer en local, garder un contrôle total sur les données audio. Pour les secteurs soumis à des contraintes de confidentialité strictes — finance, santé, défense — c'est une proposition fondamentalement différente. Voxtral TTS s'inscrit dans une stratégie cohérente que Mistral construit pièce par pièce depuis plusieurs mois. La startup a lancé Voxtral Transcribe (speech-to-text) quelques semaines plus tôt, sa plateforme de personnalisation Forge lors de la conférence Nvidia GTC début mars, et son infrastructure de production AI Studio. L'objectif affiché est de permettre aux entreprises de faire tourner un pipeline audio complet — de la voix à la voix — sans dépendre d'aucun fournisseur externe. « Nous voyons l'audio comme un grand pari, et probablement la seule interface future avec tous les modèles d'IA », a déclaré Pierre Stock, vice-président science et premier employé de Mistral, dans une interview exclusive à VentureBeat. Dans un marché où ElevenLabs vient d'annoncer une collaboration avec IBM pour intégrer ses voix dans la plateforme watsonx Orchestrate, Mistral choisit de jouer la carte de la souveraineté plutôt que celle du service managé — un pari sur le fait que les grandes entreprises préféreront, à terme, la maîtrise à la commodité.

UEMistral AI, startup parisienne, offre aux entreprises françaises et européennes une solution TTS souveraine déployable en local, répondant directement aux contraintes de confidentialité des secteurs régulés (finance, santé, défense) sans dépendance aux fournisseurs API américains.

💬 La vraie info c'est pas les benchmarks face à ElevenLabs, c'est qu'on télécharge les poids et ça tourne en local, sans qu'une seule seconde d'audio quitte ta machine. C'était le verrou pour tout le secteur régulé, finance, santé, défense, qui ne peut pas se permettre d'envoyer ses données vocales à San Francisco. Je pensais que Mistral mettrait plus de temps, mais là ils posent les briques vite.

LLMsActu
1 source