[AINews] MiniMax 2.7 : GLM-5 atteint l'état de l'art à un tiers du coût
MiniMax frappe fort avec le lancement de M2.7, son nouveau modèle de langage positionné comme une percée dans l'efficience des modèles ouverts chinois. À peine deux mois après son introduction en bourse, la startup rivalise désormais avec GLM-5 de Z.ai — considéré comme l'état de l'art open source du moment — tout en affichant un coût d'inférence inférieur au tiers.
L'enjeu dépasse la simple performance brute. Dans un secteur où les coûts d'API pèsent lourd sur les décisions d'adoption, M2.7 s'impose sur la frontière coût/performance établie par Artificial Analysis : 0,30 $ / 1,20 $ par million de tokens en entrée/sortie, contre plus du triple pour GLM-5. Pour les équipes qui déploient des agents en production, ce différentiel change concrètement les calculs de rentabilité.
Sur le plan technique, M2.7 revendique 56,22 % sur SWE-Pro, 57,0 % sur Terminal Bench 2 et 97 % d'adhérence aux compétences sur plus de 40 skills. L'Elo GDPval-AA atteint 1 494, devançant MiMo-V2-Pro (1 426) de Xiaomi, GLM-5 (1 406) et Kimi K2.5 (1 283). MiniMax met également en avant une réduction significative des hallucinations par rapport à M2.5. Le modèle est immédiatement disponible sur Ollama, OpenRouter, Vercel et plusieurs autres plateformes. En parallèle, Xiaomi entre dans la course avec MiMo-V2-Pro, un modèle API-only noté 49 sur l'Intelligence Index, avec 1 million de tokens de contexte et une efficience token revendiquée supérieure aux pairs.
La particularité narrative de M2.7 réside dans ce que MiniMax appelle les "Early Echoes of Self-Evolution" : le modèle aurait participé activement à sa propre évolution, en collectant des retours, construisant des jeux d'évaluation et itérant sur ses propres skills et architecture MCP. Une affirmation ambitieuse, nuancée par l'équipe elle-même — M2.7 ne couvrirait que 30 à 50 % du workflow de cette auto-amélioration. Un signal fort néanmoins, qui s'inscrit dans la tendance plus large du secteur : le vrai différenciateur n'est plus le modèle seul, mais l'infrastructure d'exécution — ce que les praticiens appellent désormais le harness engineering.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



