Aller au contenu principal
MiniMax publie en open source MiniMax M2.7, un modèle à agents auto-évolutif : 56,22 % sur SWE-Pro et 57 % sur Terminal Bench 2
LLMsMarkTechPost3h

MiniMax publie en open source MiniMax M2.7, un modèle à agents auto-évolutif : 56,22 % sur SWE-Pro et 57 % sur Terminal Bench 2

1 source couvre ce sujet·Source originale ↗·

MiniMax a rendu public les poids de son modèle MiniMax M2.7 sur Hugging Face, officiellement annoncé le 18 mars 2026. Il s'agit du modèle open source le plus performant de l'entreprise à ce jour, construit sur une architecture Mixture-of-Experts (MoE) qui n'active qu'une fraction des paramètres à chaque inférence, rendant le modèle nettement plus rapide et moins coûteux à faire tourner qu'un modèle dense de qualité comparable. M2.7 est conçu autour de trois axes : l'ingénierie logicielle professionnelle, la productivité bureautique avancée, et ce que MiniMax appelle les "Agent Teams", une capacité native de collaboration multi-agents. Sur le benchmark SWE-Pro, qui évalue la maîtrise de plusieurs langages de programmation à travers des tâches d'analyse de logs, débogage, revue de sécurité et workflows machine learning, M2.7 atteint 56,22 %, à égalité avec GPT-5.3-Codex. Il obtient également 57,0 % sur Terminal Bench 2, 39,8 % sur NL2Repo, et 55,6 % sur VIBE-Pro, benchmark de génération de code à l'échelle d'un dépôt, plaçant le modèle au niveau de Claude Opus 4.6 sur des tâches couvrant Web, Android, iOS et simulation.

Ce qui distingue M2.7, c'est sa capacité à intervenir sur des systèmes en production réels. Face à une alerte critique, le modèle peut corréler des métriques de monitoring avec des timelines de déploiement, conduire une analyse statistique sur des traces d'échantillonnage, se connecter proactivement à des bases de données pour vérifier la cause racine, identifier des fichiers de migration d'index manquants dans un dépôt, puis appliquer une création d'index non bloquante avant de soumettre une merge request, le tout en moins de trois minutes selon les équipes MiniMax. Ce positionnement dépasse largement la génération de code : il s'agit d'un modèle capable de raisonnement causal de niveau SRE (Site Reliability Engineering), un profil rare parmi les modèles disponibles en open source.

Le détail le plus frappant de M2.7 est son architecture d'auto-évolution. Le modèle a été chargé d'optimiser lui-même ses propres performances sur un scaffold interne, sans intervention humaine. Il a conduit plus de 100 itérations autonomes selon une boucle : analyser les trajectoires d'échec, planifier des modifications, toucher au code du scaffold, relancer des évaluations, comparer les résultats, décider de conserver ou annuler les changements. Au fil de ce processus, M2.7 a découvert seul des optimisations efficaces, notamment la recherche systématique de la combinaison optimale de paramètres d'échantillonnage (température, frequency penalty, presence penalty), la conception de guidelines de workflow plus précises, et l'ajout d'une détection de boucles infinies dans l'agent loop. Résultat : une amélioration de 30 % sur les ensembles d'évaluation internes. Au sein des équipes de reinforcement learning de MiniMax, M2.7 gère désormais 30 à 50 % des workflows de bout en bout, les chercheurs humains n'intervenant que pour les décisions critiques, un signal fort que la frontière entre outil et collaborateur est en train de se déplacer.

Impact France/UE

Les développeurs et entreprises européens peuvent déployer librement les poids de ce modèle open source pour des tâches d'ingénierie logicielle avancée, réduisant leur dépendance aux API propriétaires.

💬 Le point de vue du dev

Un modèle open source qui a passé 100 itérations à modifier son propre scaffold et s'est amélioré de 30 % tout seul, c'est le truc qu'on lisait dans les papiers de recherche il y a 18 mois. Là c'est sorti sur Hugging Face, avec les poids, et des benchmarks qui le placent au niveau de Claude Opus 4.6 sur du code à l'échelle d'un dépôt réel. Reste à voir si ça tient hors du contexte lab, mais pour une fois l'architecture MoE n'est pas juste un argument marketing pour réduire les coûts d'inférence : ça donne un modèle qu'on peut faire tourner sans louer un datacenter.

À lire aussi

Liquid AI lance LFM2.5-VL-450M : un modèle vision-langage de 450M paramètres avec détection d'objets, support multilingue et inférence en moins de 250ms sur appareils embarqués
1MarkTechPost 

Liquid AI lance LFM2.5-VL-450M : un modèle vision-langage de 450M paramètres avec détection d'objets, support multilingue et inférence en moins de 250ms sur appareils embarqués

Liquid AI a publié LFM2.5-VL-450M, une nouvelle version de son modèle de vision-langage conçu pour fonctionner directement sur du matériel embarqué. Ce modèle de 450 millions de paramètres tourne sur des dispositifs comme le NVIDIA Jetson Orin, l'AMD Ryzen AI Max+ 395 ou le Snapdragon 8 Elite du Samsung Galaxy S25 Ultra, avec une latence inférieure à 250 millisecondes. Par rapport à son prédécesseur LFM2-VL-450M, la nouvelle version apporte quatre améliorations majeures : la prédiction de boîtes englobantes (bounding boxes), un meilleur suivi des instructions, un support multilingue étendu couvrant désormais l'arabe, le chinois, le français, l'allemand, le japonais, le coréen, le portugais et l'espagnol, ainsi que la prise en charge des appels de fonctions. Sur le plan technique, le modèle repose sur LFM2.5-350M comme backbone textuel et SigLIP2 NaFlex comme encodeur visuel de 86 millions de paramètres, avec une fenêtre de contexte de 32 768 tokens. Le pré-entraînement a été multiplié par presque trois, passant de 10 000 à 28 000 milliards de tokens, suivi d'un post-entraînement par optimisation des préférences et apprentissage par renforcement. La capacité de localisation spatiale constitue le saut qualitatif le plus significatif de cette version. Le modèle atteint désormais un score de 81,28 sur le benchmark RefCOCO-M, contre zéro pour la version précédente, ce qui signifie qu'il peut identifier précisément où se trouve un objet dans une image à partir d'une description en langage naturel, en retournant des coordonnées JSON normalisées. Cette différence est cruciale : là où un modèle de description d'images dit "il y a une personne dans le coin gauche", un modèle avec bounding boxes fournit les coordonnées exploitables directement dans un pipeline automatisé. Les scores multilingues ont progressé de 54,29 à 68,09 sur le benchmark MMMB, et le suivi d'instructions est passé de 32,93 à 45,00 sur MM-IFEval. Ces améliorations rendent le modèle utilisable dans des déploiements industriels réels sans infrastructure cloud ni pipeline de localisation séparé. Liquid AI s'est constitué depuis 2023 comme une alternative aux architectures Transformer classiques, en développant des modèles basés sur des réseaux neuronaux à temps continu (Liquid Neural Networks). L'entreprise cible explicitement le marché de l'IA embarquée et de la robotique, où les contraintes de latence et de consommation énergétique rendent les grands modèles cloud impraticables. La course aux modèles compacts et performants s'intensifie : Google, Apple, Microsoft et Meta ont tous publié des variantes "edge" de leurs modèles en 2025, mais peu descendent sous le milliard de paramètres tout en conservant des capacités spatiales. Avec ce positionnement, Liquid AI vise directement des applications comme les caméras de rayonnage en grande distribution, les lunettes intelligentes ou les robots d'entrepôt, des secteurs où le traitement local des images sans connexion au cloud représente un avantage compétitif décisif.

UELe support natif du français et le ciblage de secteurs industriels (grande distribution, robotique d'entrepôt) offrent aux entreprises européennes une option d'IA embarquée compétitive sans dépendance à une infrastructure cloud.

💬 Le score bounding boxes qui passe de zéro à 81 sur RefCOCO, ça ressemble à une note de benchmark de plus, mais c'est en fait ce qui rend le modèle utilisable dans un vrai pipeline industriel. Tu poses ça sur un Jetson Orin ou un téléphone Samsung, tu as des coordonnées JSON exploitables en moins de 250ms, sans cloud, sans infrastructure séparée. Pour les caméras de rayon ou la robotique d'entrepôt, ça change vraiment l'équation.

LLMsActu
1 source
AI Engineer Europe 2026
2Latent Space 

AI Engineer Europe 2026

La conférence AI Engineer Europe 2026 vient de s'achever après trois jours intenses qui ont réuni des centaines de professionnels de l'IA entre sessions en ligne, ateliers et plus d'une centaine de conférences en présentiel. L'événement a notamment inclus des visites au 10 Downing Street et des tables rondes en podcast avec des programmes comme ThursdAI et ETN. Sur le plan technique, la principale avancée annoncée est le modèle GLM-5.1 de Z.ai, qui a atteint la 3e place sur le classement Code Arena, dépassant apparemment Gemini 3.1 et GPT-5.4, et se positionnant au niveau de Claude Sonnet 4.6. Z.ai occupe désormais la première place parmi les modèles open source, à seulement 20 points du sommet du classement général. Alibaba a également profité de la dynamique de l'événement pour livrer Qwen Code v0.14.x, intégrant des canaux de contrôle à distance via Telegram, DingTalk et WeChat, des tâches récurrentes par cron, un contexte de 1 million de tokens avec 1 000 requêtes gratuites par jour, et un mode de planification. Ces annonces reflètent une tendance de fond qui s'impose comme nouveau paradigme d'architecture : le modèle "exécuteur léger + conseiller puissant". L'idée, formalisée conjointement par Anthropic au niveau de son API et par des chercheurs de Berkeley, consiste à utiliser un modèle rapide pour la majorité des tâches, en escaladant vers un modèle plus coûteux uniquement aux points de décision difficiles. Les résultats mesurés sont significatifs : associer Haiku à Opus doublerait le score sur BrowseComp par rapport à Haiku seul, tandis que Sonnet combiné à Opus améliorerait les performances sur SWE-bench Multilingual tout en réduisant le coût par tâche. Ce pattern a été immédiatement implémenté en open source via un middleware advisor pour LangChain DeepAgents, signe d'une adoption communautaire très rapide. Cette convergence s'inscrit dans une frustration opérationnelle croissante chez les praticiens : les grands modèles sont devenus spécialisés et instables selon les domaines. Yuchen Jin souligne par exemple qu'Opus excelle sur le frontend et les flux agentiques, pendant que GPT-5.4 est plus performant sur les systèmes backend et distribués, mais que les outils comme Claude Code ou Codex restent trop liés à un seul fournisseur. La demande se déplace donc vers des workflows capables de partager le contexte, de router automatiquement vers le bon modèle et de faire collaborer plusieurs LLM dans une seule session. Dans cet écosystème en mouvement, le framework Hermes Agent s'est distingué comme la plateforme avec le plus fort momentum, avec la sortie de sa version 0.8.0, le lancement de Hermes Workspace Mobile intégrant exécution d'outils en direct, navigateur de mémoire et catalogue de compétences, et l'annonce d'un mode FAST pour GPT-5.4.

UELa conférence s'est tenue en Europe et rassemble directement des praticiens européens ; les nouveaux patterns architecturaux (exécuteur léger + conseiller) et frameworks annoncés sont immédiatement applicables par les développeurs et entreprises IA en France et dans l'UE.

LLMsActu
1 source
“Meilleure IA française”… vraiment ? Mistral AI est ridiculement bas dans le classement LMArena
3Le Big Data 

“Meilleure IA française”… vraiment ? Mistral AI est ridiculement bas dans le classement LMArena

Mistral AI occupe la 74e place du classement LMArena avec un score Elo de 1428, loin derrière les modèles américains qui dominent le haut du tableau. Ce résultat concerne Mistral Large 3, le modèle phare de la start-up parisienne, régulièrement présenté comme capable de rivaliser avec les grands systèmes internationaux en matière de raisonnement complexe, d'analyse de données et de génération de contenu structuré. Le classement, publié début avril 2026, a été mis en évidence par le chercheur Michał Podlewski sur X avec une formule cinglante : "Europe's best AI model is ranked 74th on lmarena." Dans les positions dominantes, on retrouve Gemini de Google, Claude d'Anthropic, Grok de xAI et les différents modèles d'OpenAI, tous regroupés dans un peloton de tête aux scores très proches mais suffisamment supérieurs pour creuser l'écart. Ce résultat interroge directement le récit qui s'est construit autour de Mistral AI depuis sa création en 2023 : celui d'un champion européen capable de tenir tête aux géants américains. Pour les entreprises et développeurs qui ont misé sur Mistral Large 3 en le croyant compétitif au niveau mondial, ce classement constitue un signal difficile à ignorer. Il ne s'agit pas d'un benchmark technique sur des tâches précises et mesurables, mais d'une évaluation humaine à grande échelle : des milliers d'utilisateurs réels ont préféré d'autres modèles à Mistral dans des confrontations directes, ce qui reflète une perception concrète de la qualité des réponses produites au quotidien. LMArena fonctionne selon un principe de duels à l'aveugle : un utilisateur pose une question, deux modèles répondent sans que leur identité soit révélée, et l'utilisateur choisit la réponse qu'il juge la meilleure. Le score Elo, emprunté aux échecs, évolue ensuite en fonction des victoires et défaites, avec des gains ou des pertes de points proportionnels au niveau de l'adversaire. Ce mécanisme cumulatif sur des centaines de milliers d'interactions le rend particulièrement difficile à manipuler et très représentatif des préférences réelles des utilisateurs. Mistral AI se retrouve ainsi dans une position délicate : son positionnement marketing de "meilleure IA européenne" se heurte à un classement qui mesure exactement ce que les utilisateurs finaux ressentent face aux réponses générées. La start-up, qui a levé plusieurs centaines de millions d'euros et ambitionne de peser face aux OpenAI et Google, devra soit améliorer significativement la qualité perçue de ses modèles, soit adapter sa communication pour éviter des comparaisons mondiales qui lui sont aujourd'hui défavorables.

UELa réputation de Mistral AI en tant que champion national français de l'IA est directement mise en cause, ce qui peut influencer les décisions d'adoption des entreprises et institutions françaises et européennes ayant misé sur la souveraineté numérique.

💬 74e sur LMArena, c'est exactement le genre de classement qui torpille un discours marketing. Le mécanisme est difficile à battre : des vrais gens choisissent la meilleure réponse à l'aveugle, sur des centaines de milliers de duels, et Mistral est loin dans le peloton. Faut pas rêver, le "champion européen" ça se mérite.

LLMsOpinion
1 source
OpenAI aussi a son moment Mythos… et assure sa com’ face à Anthropic
4Next INpact 

OpenAI aussi a son moment Mythos… et assure sa com’ face à Anthropic

OpenAI prépare une réponse directe à Mythos, le nouveau modèle d'Anthropic présenté comme un chasseur de failles réservé à une poignée de partenaires sélectionnés. Selon des informations qui ont filtré dans la presse, la stratégie d'OpenAI se déploie sur deux axes : afficher une supériorité en puissance de calcul et en performances brutes, tout en lançant un nouveau palier d'abonnement intermédiaire à 100 euros par mois, aligné sur la structure tarifaire qu'Anthropic expérimente. L'annonce officielle de Mythos, survenue quelques jours après une fuite de plusieurs milliers de documents internes, s'est accompagnée d'un rapport de 244 pages détaillant les performances et les protocoles de test du modèle. Cette séquence illustre la bataille de communication qui s'est installée entre les deux entreprises. Anthropic maîtrise avec soin son agenda médiatique : la fuite orchestrée autour de Mythos lui a permis de générer une couverture massive avant même toute annonce officielle, tandis que la fuite du code source de Claude Code, bien moins contrôlée, a contraint l'entreprise à tenter vainement d'en faire retirer la publication. OpenAI réagit désormais point par point, cherchant à ne pas laisser Anthropic occuper seule le terrain du modèle "trop puissant pour le grand public", un positionnement qui crée de la rareté perçue et attire des partenaires institutionnels prêts à payer pour un accès privilégié. L'enjeu dépasse la simple rivalité produit : il s'agit de définir qui fixe les standards de l'IA de pointe en 2025 et 2026. Anthropic s'est taillé une réputation de sérieux technique grâce à ses publications de recherche et à une communication soignée sur la sécurité, là où OpenAI reste associé à la vitesse de déploiement et à l'accessibilité grand public. L'introduction d'un tier à 100 euros par mois chez OpenAI signale une montée en gamme délibérée, à mesure que les deux acteurs convergent vers les mêmes clients enterprise et gouvernementaux disposés à payer pour des modèles de premier rang.

UEL'introduction d'un palier premium à 100 €/mois par OpenAI, en réponse directe à Anthropic, impacte les entreprises et institutions européennes qui devront arbitrer entre les deux acteurs pour accéder aux modèles de premier rang.

LLMsOpinion
1 source