Aller au contenu principal
Actualité : Claude Mythos : les benchmarks sont tombés, l'IA est si puissante qu'Anthropic ne la rendra pas publique
LLMsLes Numériques IA2h

Actualité : Claude Mythos : les benchmarks sont tombés, l'IA est si puissante qu'Anthropic ne la rendra pas publique

1 source couvre ce sujet·Source originale ↗·

Anthropic a dévoilé les premiers résultats de Claude Mythos Preview, son modèle de pointe actuellement en développement, et les chiffres sont suffisamment significatifs pour justifier une décision rare : le modèle ne sera pas rendu public. Sur le benchmark SWE-bench, qui mesure la capacité d'un modèle à résoudre des problèmes concrets d'ingénierie logicielle, Claude Mythos atteint un taux de résolution de 19 problèmes sur 20, contre 16 pour le meilleur modèle actuellement accessible au grand public.

Cet écart de trois points peut sembler modeste en valeur absolue, mais il représente un saut qualitatif dans un domaine ou les gains marginaux sont devenus rares. Pour les ingénieurs logiciels, cela signifie un outil capable de prendre en charge des tâches de débogage et de développement avec un niveau d'autonomie inédit. La décision d'Anthropic de restreindre l'accès traduit une évaluation interne selon laquelle les capacités du modèle dépassent le seuil au-delà duquel un déploiement non contrôlé pourrait poser des risques non encore pleinement évalués.

Cette posture s'inscrit dans la ligne directrice qu'Anthropic défend depuis sa fondation : la sécurité avant la commercialisation. La société, cofondée par d'anciens chercheurs d'OpenAI inquiets de la course aux performances, a toujours revendiqué une approche plus prudente que ses concurrents. Avec Claude Mythos, elle se retrouve dans une position paradoxale : posséder le modèle le plus capable du marché tout en choisissant de ne pas en profiter commercialement immédiatement. La question de savoir dans quelles conditions et à qui il sera éventuellement ouvert reste entière.

À lire aussi

Z.AI lance GLM-5.1 : un modèle open-weight de 754 milliards de paramètres, leader sur SWE-Bench Pro avec 8 heures d'exécution autonome
1MarkTechPost 

Z.AI lance GLM-5.1 : un modèle open-weight de 754 milliards de paramètres, leader sur SWE-Bench Pro avec 8 heures d'exécution autonome

Z.AI, la plateforme d'intelligence artificielle fondée par l'équipe derrière la famille de modèles GLM, a publié GLM-5.1, son nouveau modèle phare conçu spécifiquement pour les tâches agentiques. Avec 754 milliards de paramètres et une architecture de type Mixture of Experts combinée à une attention à structure dispersée (DSA), le modèle atteint un score de 58,4 sur SWE-Bench Pro, surpassant GPT-5.4, Claude Opus 4.6 et Gemini 3.1 Pro pour établir un nouveau record sur ce benchmark de référence en ingénierie logicielle. Il affiche également 95,3 sur AIME 2026, 86,2 sur GPQA-Diamond, et 68,7 sur CyberGym, contre 48,3 pour son prédécesseur GLM-5. La capacité à maintenir une exécution autonome pendant huit heures consécutives, à travers des centaines d'itérations et des milliers d'appels d'outils, constitue l'un de ses traits distinctifs les plus marquants. Ce qui rend GLM-5.1 particulièrement significatif pour les développeurs, c'est sa réponse à un problème structurel des LLM utilisés comme agents : le plateau d'efficacité. Les modèles précédents, y compris GLM-5, épuisaient rapidement leur répertoire de stratégies et cessaient de progresser même lorsqu'on leur accordait plus de temps. GLM-5.1 est conçu pour rester productif sur des horizons bien plus longs, en décomposant les problèmes complexes, en conduisant des expériences, en lisant les résultats et en révisant sa stratégie à chaque itération. Cette capacité d'auto-correction soutenue réduit concrètement la dérive de stratégie et l'accumulation d'erreurs, rendant le modèle exploitable pour des tâches d'ingénierie autonome de bout en bout, sans supervision humaine constante. Le modèle est rendu possible par une infrastructure d'apprentissage par renforcement asynchrone inédite, qui découple la génération de l'entraînement pour en améliorer drastiquement l'efficacité. Cette approche permet au modèle d'apprendre à partir d'interactions longues et complexes, là où l'entraînement RL classique en tour unique échoue. Z.AI publie GLM-5.1 en open-weight, ce qui signifie que les équipes techniques peuvent envisager un hébergement en propre, bien que l'architecture MoE exige une infrastructure de serving adaptée. Dans un contexte où les grands labs comme OpenAI, Anthropic et Google dominent les classements des modèles fermés, la percée de Z.AI sur SWE-Bench Pro avec un modèle ouvert repositionne le paysage concurrentiel. Avec des scores solides sur MCP-Atlas et Terminal-Bench 2.0, le modèle vise directement les cas d'usage production où les agents doivent opérer des systèmes réels, une tendance qui s'accélère en 2026.

UELe modèle open-weight offre aux équipes européennes une alternative auto-hébergeable aux modèles fermés américains, réduisant la dépendance aux APIs d'OpenAI, Anthropic et Google pour les cas d'usage agentiques en production.

LLMsActu
1 source
L'IA passe à la journée de 8 heures : GLM lance son LLM 5.1 open source et bat Opus 4.6 et GPT 5.4 sur SWE-Bench Pro
2VentureBeat AI 

L'IA passe à la journée de 8 heures : GLM lance son LLM 5.1 open source et bat Opus 4.6 et GPT 5.4 sur SWE-Bench Pro

Z.ai, startup chinoise cotée à la Bourse de Hong Kong depuis début 2026 avec une capitalisation de 52,83 milliards de dollars, a publié le 7 avril 2026 son modèle GLM-5.1 sous licence MIT, permettant à toute entreprise de le télécharger, l'adapter et l'exploiter commercialement via Hugging Face. Ce modèle de 754 milliards de paramètres en architecture Mixture-of-Experts dispose d'une fenêtre de contexte de 202 752 tokens. Sa caractéristique principale est sa capacité à travailler de façon autonome jusqu'à huit heures consécutives sur une tâche complexe, enchaînant jusqu'à 1 700 étapes d'exécution et plusieurs milliers d'appels d'outils, contre une vingtaine d'étapes pour les meilleurs modèles fin 2024 selon le fondateur Lou. Sur le benchmark SWE-Bench Pro, il dépasse Claude Opus 4.6 et GPT-5.4, deux des références actuelles en ingénierie logicielle automatisée. Ce lancement illustre une rupture dans la façon de concevoir la performance des modèles d'IA. Là où la concurrence investit massivement dans les tokens de raisonnement pour gagner en logique à court terme, Z.ai parie sur l'endurance : la capacité d'un modèle à maintenir sa cohérence d'objectif sur des séquences d'exécution très longues. Les tests publiés dans leur rapport technique sont frappants : chargé d'optimiser une base de données vectorielle en Rust (benchmark VectorDBBench), GLM-5.1 a enchaîné 655 itérations et plus de 6 000 appels d'outils, atteignant 21 500 requêtes par seconde, contre 3 547 pour Claude Opus 4.6 dans les meilleures conditions. Le modèle a identifié et résolu six goulots d'étranglement structurels, introduisant de lui-même des techniques comme le IVF cluster probing, la compression vectorielle f16 ou un pipeline à deux étages combinant présélection u8 et reclassement f16. Ce n'est plus un assistant, c'est un département R&D autonome. Le contexte de cette publication est stratégique. Z.ai, connue pour sa famille de modèles GLM open source, avait sorti le mois précédent GLM-5 Turbo sous licence propriétaire uniquement. Le choix du MIT pour GLM-5.1 est délibéré : il s'agit de capter la communauté des développeurs et de s'imposer comme le principal acteur indépendant de LLM en Asie, à l'heure où la Chine tente de reprendre la main sur l'IA open source face aux modèles américains à accès restreint. La notion de "temps de travail autonome" que Lou décrit comme "la courbe la plus importante après les lois d'échelle" pourrait redéfinir les critères d'évaluation de l'industrie entière. Si ce cap se confirme, les prochaines versions de modèles concurrents devront répondre non plus uniquement sur la précision à court terme, mais sur leur capacité à tenir la distance sur des projets entiers.

UELes entreprises et développeurs européens peuvent télécharger et exploiter GLM-5.1 librement sous licence MIT via Hugging Face, offrant une alternative open source compétitive aux modèles propriétaires américains pour des tâches d'ingénierie logicielle autonome longue durée.

LLMsOpinion
1 source
Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)
3Next INpact 

Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Google a lancé Gemma 4, sa nouvelle famille de modèles d'intelligence artificielle en open source, quelques jours avant le week-end de Pâques 2026. La gamme comprend quatre variantes baptisées E2B, E4B, 26B A4B et 31B, offrant respectivement 2,3, 4,5, 25,2 et 30,7 milliards de paramètres. Le modèle 26B A4B adopte une architecture Mixture of Experts (MoE), ce qui signifie que seuls 3,8 milliards de paramètres sont effectivement activés lors de chaque inférence, réduisant considérablement la puissance de calcul nécessaire. Tous les modèles sont multimodaux : ils traitent du texte et des images, les deux plus petits ajoutant la reconnaissance vocale. Les fenêtres de contexte atteignent 128 000 tokens pour les modèles E2B et E4B, et 256 000 tokens pour les deux plus grands. L'ensemble de la famille intègre un mode de raisonnement pas-à-pas, une prise en charge native des outils pour les workflows d'agents, ainsi que des capacités de génération et correction de code. La licence retenue est Apache 2.0, considérée comme l'une des plus permissives : elle autorise la modification, la distribution et l'usage commercial sans contrainte majeure, à condition de conserver les mentions de copyright. Ce changement de licence est la décision la plus significative de cette annonce. Jusqu'ici, Google publiait ses modèles Gemma sous une licence maison, les "Gemma Terms of Use", qui lui permettait de restreindre l'utilisation à sa discrétion. En passant à Apache 2.0, Google offre aux développeurs, entreprises et chercheurs une garantie juridique bien plus solide pour intégrer ces modèles dans des produits commerciaux ou des recherches sensibles. La diversité des tailles proposées, notamment les variantes à 2,3 et 4,5 milliards de paramètres, permet de faire tourner Gemma 4 directement sur des ordinateurs personnels ou des smartphones, sans envoyer de données vers des serveurs tiers. Pour les entreprises soucieuses de confidentialité ou les développeurs indépendants aux ressources limitées, c'est un argument concret et immédiat. Avec cette décision, Google rejoint un camp qui compte déjà Mistral avec son modèle 7B publié en septembre 2023, OpenAI avec gpt-oss-120b et Alibaba avec sa famille Qwen, tous distribués sous Apache 2.0. Meta reste en retrait avec ses modèles LLaMA, soumis à une licence plus restrictive. Le contexte concurrentiel est intense : le marché des modèles ouverts s'est considérablement animé ces dix-huit derniers mois, et Google cherche à s'y positionner comme un acteur sérieux face à des alternatives bien établies. L'annonce intervient également au moment où Anthropic durcit ses conditions d'accès pour les applications tierces sur ses modèles payants, un contraste saisissant qui renforce l'attrait de l'approche ouverte de Google. Les suites dépendront de l'adoption par la communauté et des benchmarks indépendants, mais la combinaison licence permissive et gamme de tailles variées donne à Gemma 4 de sérieux atouts pour s'imposer dans l'écosystème open source.

UELa licence Apache 2.0 et les variantes légères (2-4 milliards de paramètres) permettent aux entreprises et développeurs européens d'intégrer Gemma 4 dans des produits commerciaux ou de le déployer en local, un atout concret pour la conformité RGPD.

💬 La vraie nouvelle, c'est pas les 31 milliards de paramètres, c'est Apache 2.0. Google arrête de jouer avec ses licences maison qui laissaient planer un doute juridique permanent sur l'usage commercial, et ça change tout pour les boîtes qui hésitaient à s'engager. Le petit E2B à 2,3 milliards avec 128k de contexte qui tourne en local, bon, sur le papier c'est exactement ce qu'on attendait pour des usages RGPD-friendly. Reste à voir ce que les benchmarks indépendants vont donner, parce que Google sait aussi soigner ses annonces de Pâques.

LLMsOpinion
1 source
Gemma 4 dépasse les 2 millions de téléchargements
4Latent Space 

Gemma 4 dépasse les 2 millions de téléchargements

Gemma 4, le modèle open source de Google DeepMind, a franchi les 2 millions de téléchargements en moins d'une semaine après son lancement, selon les données compilées par AINews pour la période du 4 au 6 avril 2026. Ce rythme d'adoption est remarquable : à titre de comparaison, Gemma 3 avait totalisé 6,7 millions de téléchargements sur l'ensemble de l'année écoulée, et Gemma 2 avait atteint 1,4 million depuis son lancement en juin 2024. Seul Qwen 3.5, avec environ 27 millions de téléchargements cumulés depuis le lancement de son modèle phare 397B-A17B, dépasse largement ces chiffres. Google a par ailleurs annoncé une keynote dédiée à Gemma 4 depuis Londres dans les prochains jours. Sur le terrain, les signaux d'adoption sont concrets : le modèle Gemma 4 E2B tourne sur iPhone 17 Pro à environ 40 tokens par seconde via MLX, Red Hat a publié des versions quantifiées du modèle 31B en formats NVFP4 et FP8-block, et Ollama a déployé Gemma 4 sur son cloud, adossé aux GPU NVIDIA Blackwell. Ce qui distingue Gemma 4 des précédentes sorties open source, c'est moins sa performance sur les benchmarks que sa capacité à fonctionner directement sur du matériel grand public, en particulier les puces Apple Silicon. Cette dynamique "local-first" crée une pression réelle sur les abonnements payants aux services cloud d'IA : plusieurs observateurs ont souligné que Gemma 4 en local comble suffisamment l'écart de qualité pour rendre un abonnement Claude moins indispensable pour certains usages. HuggingFace héberge gratuitement le modèle, ce qui ouvre la voie à son intégration dans des workflows d'agents sans coût d'inférence. L'ensemble des signaux pointe vers un déplacement structurel : les modèles ouverts ne sont plus seulement des alternatives pour les développeurs expérimentés, ils deviennent des références pour l'inférence en bordure de réseau. Le succès de Gemma 4 illustre également un phénomène plus large : la réussite d'un modèle open source repose désormais autant sur la coordination écosystémique que sur la qualité des poids eux-mêmes. Le lancement a été accompagné d'un soutien simultané de HuggingFace, vLLM, llama.cpp, Ollama, NVIDIA, Unsloth, SGLang, Docker et Cloudflare, une mobilisation rarement vue à cette échelle. En parallèle, Hermes Agent de Nous Research a capté l'attention de la communauté des développeurs d'agents, notamment grâce à sa boucle d'auto-amélioration combinant mémoire persistante et génération autonome de compétences -- une approche qui se distingue d'OpenClaw par son architecture plus opinionée et des compétences définies par les auteurs humains plutôt que générées à la volée. Ces deux dynamiques -- l'essor du local et la maturation des frameworks d'agents open source -- dessinent les contours d'un écosystème IA de plus en plus décentralisé.

UEHuggingFace, entreprise d'origine française, héberge gratuitement Gemma 4, facilitant son intégration dans les workflows européens sans coût d'inférence.

LLMsOpinion
1 source