Aller au contenu principal
Anthropic Claude Opus 4.7 : une longueur d'avance sur 4.6 dans chaque dimension
LLMsLatent Space4j

Anthropic Claude Opus 4.7 : une longueur d'avance sur 4.6 dans chaque dimension

1 source couvre ce sujet·Source originale ↗·

Anthropic a lancé Claude Opus 4.7 le jeudi 14 avril 2026, positionnant ce nouveau modèle comme une amélioration nette et systématique par rapport à son prédécesseur Opus 4.6 sur l'ensemble des dimensions mesurées. Le tarif reste inchangé à 5 dollars par million de tokens en entrée et 25 dollars par million en sortie. La progression est quantifiable : le niveau d'effort 4.7-low surpasse le 4.6-medium, le 4.7-medium dépasse le 4.6-high, et le 4.7-high efface le 4.6-max. Anthropic introduit par ailleurs un nouveau palier d'effort baptisé "xhigh", immédiatement adopté comme niveau par défaut dans Claude Code. Sur SWE-Bench Pro, le benchmark de référence pour l'évaluation des agents de développement, Claude Code gagne 11 points. La vision est également revue en profondeur : Opus 4.7 accepte désormais des images jusqu'à 2 576 pixels sur le grand côté, soit environ 3,75 mégapixels, plus de trois fois la résolution supportée par les versions précédentes.

Ces améliorations ont des répercussions concrètes pour plusieurs catégories d'utilisateurs professionnels. Les développeurs utilisant Claude Code bénéficient immédiatement du gain de performance en programmation, avec une meilleure gestion des tâches longues, un suivi plus précis des instructions et une auto-vérification renforcée avant de répondre. La résolution d'image étendue ouvre des cas d'usage auparavant impossibles : agents d'utilisation de l'ordinateur lisant des captures d'écran denses, extraction de données depuis des schémas complexes, travail nécessitant des références pixel par pixel. Autre point notable sur l'économie des tokens : malgré un nouveau tokenizer qui peut générer jusqu'à 35 % de tokens supplémentaires sur un même texte, les gains d'efficacité de raisonnement sont suffisants pour réduire la consommation totale de tokens de jusqu'à 50 % par rapport aux niveaux équivalents de la génération précédente. Anthropic lance également en bêta publique un système de "task budgets", un outil /ultrareview dans Claude Code, et un accès élargi au mode Auto pour les abonnés Claude Code Max.

Ce lancement s'inscrit dans une séquence de publications majeures qui rythment le marché de l'IA depuis début 2026. OpenAI avait publié le même jour GPT-Rosalind et une nouvelle version de Codex, mais la trajectoire d'Anthropic a capté l'essentiel de l'attention technique. La communauté débat encore du statut exact d'Opus 4.7 : successeur direct d'Opus 4.6, modèle sur nouvelle base d'entraînement, ou système partiellement distillé depuis une architecture interne de plus grande taille ? Le nouveau tokenizer découvert par plusieurs chercheurs alimente cette interrogation sur la nature des changements en préentraînement. Les semaines à venir permettront de mesurer si les gains de benchmark se traduisent en gains réels dans les usages quotidiens des développeurs et des entreprises qui intègrent Claude dans leurs produits.

Impact France/UE

Les développeurs et entreprises européennes intégrant Claude via l'API bénéficient immédiatement des gains de performance et de la réduction de consommation de tokens, sans surcoût tarifaire.

💬 Le point de vue du dev

Le même prix, et chaque palier 4.7-low dépasse le 4.6-medium, le 4.7-medium écrase le 4.6-high. C'est le genre de saut qu'on attendait. Sur le tokenizer qui génère 35% de tokens supplémentaires, Anthropic annonce -50% de consommation globale en raisonnement, mais bon, faut voir ce que ça donne sur de vrais contextes longs avant de se réjouir.

À lire aussi

Le pari open source de la Chine
1MIT Technology Review 

Le pari open source de la Chine

Les laboratoires d'IA chinois ont adopté une stratégie radicalement différente de leurs rivaux américains : au lieu de monétiser leurs modèles derrière des API payantes, ils les publient en open-weight, c'est-à-dire sous forme de packages téléchargeables que n'importe quel développeur peut adapter et faire tourner sur ses propres serveurs. Ce tournant a pris une dimension mondiale en janvier 2025, lorsque DeepSeek a publié son modèle de raisonnement R1, qui a égalé les meilleures performances américaines à une fraction du coût annoncé. Dans la foulée, un véritable écosystème s'est structuré autour de ce modèle : Z.ai (anciennement Zhipu), Moonshot, Alibaba avec sa famille Qwen, et MiniMax ont tous suivi la même logique, en publiant des modèles de plus en plus capables. En août 2025, une étude menée par des chercheurs du MIT et de Hugging Face a établi que les modèles open-weight chinois représentaient 17,1 % des téléchargements mondiaux de modèles d'IA, dépassant pour la première fois la part américaine, fixée à 15,86 %. Les modèles Qwen d'Alibaba comptent aujourd'hui plus de variantes créées par des utilisateurs que ceux de Google et Meta réunis. L'impact de cette stratégie dépasse largement les benchmarks techniques. À mesure que l'enthousiasme autour de l'IA se tasse et que les entreprises passent des expérimentations aux déploiements concrets, les outils moins chers et plus personnalisables prennent l'avantage. Les modèles chinois permettent aux développeurs aux budgets limités d'expérimenter davantage, et le format open-weight leur donne la liberté d'adapter les modèles sans négocier de contrat commercial avec un acteur américain. Cette combinaison de prix bas et de liberté technique crée une adhérence forte : une fois qu'un écosystème se construit autour d'un modèle, comme l'ont montré Linux et Android, l'adoption se traduit naturellement en revenus API. Le Sud global, notamment Singapour, la Malaisie, le Kenya ou le Brésil, embrasse ouvertement ces outils, y voyant un chemin vers une souveraineté numérique. Derrière cette générosité apparente se cachent des calculs stratégiques précis. Sans accès aux puces de pointe bloquées par les contrôles à l'exportation américains, les laboratoires chinois compensent en ouvrant leurs modèles : plus les développeurs extérieurs contribuent et testent, plus vite le cycle d'amélioration s'accélère. Ce n'est pas sans tensions : en février 2026, Anthropic a accusé plusieurs laboratoires chinois de pratiques illicites de distillation, consistant à entraîner un nouveau modèle sur les sorties d'un autre. Les modèles chinois sont par ailleurs soumis aux exigences de censure du gouvernement de Pékin. Malgré ces limites, la dynamique est enclenchée : l'avenir de l'IA sera plus multipolaire que Silicon Valley ne l'anticipait, et rien ne semble pouvoir inverser cette tendance.

UELes modèles open-weight chinois offrent aux développeurs et entreprises européens une alternative concrète aux APIs américaines payantes, renforçant la souveraineté numérique de l'UE sans dépendance contractuelle envers les géants du Silicon Valley.

LLMsOpinion
1 source
LLMs+
2MIT Technology Review 

LLMs+

Depuis le lancement de ChatGPT fin 2022, les grands modèles de langage (LLM) ont envahi le quotidien de centaines de millions d'utilisateurs et provoqué une course effrénée dans toute l'industrie technologique. Aujourd'hui, la prochaine grande rupture se dessine déjà, et elle ne remplace pas les LLM : elle les prolonge. Ces nouveaux modèles, que l'on pourrait appeler les LLM+, sont conçus pour résoudre des problèmes complexes et multi-étapes qui prendraient des jours ou des semaines à un humain, en opérant de manière autonome sur des durées prolongées. Deux axes de progrès dominent la recherche actuelle : rendre les modèles plus efficaces et moins coûteux à faire tourner, et étendre leur capacité à traiter de grandes quantités d'information sans perdre le fil. Sur le plan de l'efficacité, plusieurs approches prometteuses émergent. Le "mixture-of-experts" consiste à fragmenter un LLM en sous-modules spécialisés, dont seule une partie est activée selon la tâche en cours, réduisant ainsi massivement la charge de calcul. D'autres chercheurs envisagent d'abandonner les transformeurs, l'architecture neuronale dominante depuis plusieurs années, au profit des modèles de diffusion, habituellement réservés à la génération d'images et de vidéos. En 2025, la startup chinoise DeepSeek a présenté une méthode d'encodage du texte dans des images pour comprimer les coûts de traitement. Ces innovations pourraient rendre les LLM accessibles à une gamme beaucoup plus large d'applications industrielles et académiques, en abaissant significativement les barrières financières à leur déploiement. L'autre défi central est celui de la fenêtre de contexte, soit la quantité d'information qu'un modèle peut traiter en une seule fois. Il y a deux ans, cette limite se situait à quelques milliers de tokens, soit une trentaine de pages. Les modèles actuels atteignent désormais le million de tokens, l'équivalent d'une pile entière de livres. Mais plus la fenêtre s'allonge, plus les modèles tendent à dériver ou à perdre leur cohérence sur des tâches longues. Une publication récente de chercheurs du MIT CSAIL propose une réponse architecturale : les LLM récursifs. Au lieu d'ingérer un contexte géant d'un seul bloc, ces modèles découpent leur entrée en fragments, les transmettent à des copies d'eux-mêmes qui peuvent elles-mêmes subdiviser et redistribuer le travail. Cette approche distribuée se révèle nettement plus fiable sur des tâches complexes et prolongées, et pourrait constituer le socle des futurs systèmes d'IA capable de travailler en autonomie sur des défis scientifiques ou organisationnels de grande envergure.

LLMsPaper
1 source
Kimi K2.6 exécute des agents pendant plusieurs jours et révèle les limites de l'orchestration d'entreprise
3VentureBeat AI 

Kimi K2.6 exécute des agents pendant plusieurs jours et révèle les limites de l'orchestration d'entreprise

Moonshot AI, le laboratoire chinois à l'origine de la famille de modèles Kimi, a lancé Kimi K2.6, un modèle conçu spécifiquement pour les agents à exécution continue. Contrairement aux systèmes concurrents, Moonshot revendique des cas d'usage internes où des agents ont fonctionné en autonomie pendant plusieurs heures, et dans un cas documenté, cinq jours d'affilée, pour gérer de la surveillance d'infrastructure et de la réponse à des incidents. Le modèle est désormais disponible sur Hugging Face, via l'API Kimi, Kimi Code et l'application Kimi. Sa principale nouveauté technique réside dans une version améliorée des "Agent Swarms", capables de coordonner jusqu'à 300 sous-agents exécutant simultanément 4 000 étapes parallèles. À la différence de Claude Code d'Anthropic ou de Codex d'OpenAI, qui s'appuient sur des rôles prédéfinis pour orchestrer leurs agents, K2.6 laisse le modèle lui-même décider de l'orchestration en temps réel. Cette évolution met en lumière une fragilité structurelle dans l'écosystème des agents IA : les frameworks d'orchestration existants ont été conçus pour des agents qui s'exécutent en quelques secondes ou minutes, pas pour des processus qui durent des jours. Maintenir l'état d'un agent sur une longue durée pose des problèmes inédits, car l'environnement dans lequel il opère ne cesse d'évoluer pendant son exécution. L'agent doit appeler des outils, des API et des bases de données différents tout au long de sa vie, ce qu'aucun framework actuel n'a été conçu pour gérer proprement. Mark Lambert, directeur produit chez ArmorCode, souligne que le déficit de gouvernance dépasse déjà le rythme de déploiement : ces systèmes génèrent du code et des changements système plus vite que la plupart des organisations ne peuvent les examiner, corriger ou auditer. La course aux agents longue durée s'inscrit dans une compétition plus large entre fournisseurs de modèles, où la capacité d'orchestration est devenue un avantage concurrentiel à part entière. Anthropic, OpenAI et désormais Moonshot AI expérimentent tous des architectures multi-sessions et d'exécution en arrière-plan, mais aucun n'a encore résolu le problème fondamental : sans mécanisme de rollback clair, un agent autonome qui échoue après plusieurs heures d'exécution peut laisser des systèmes dans un état incohérent. Kunal Anand, directeur produit chez F5, résume le défi : l'industrie est passée des scripts aux services, puis aux agents, mais le saut architectural que représentent les agents à long horizon était loin d'être anticipé par la plupart des entreprises. Le praticien Maxim Saplin l'énonce clairement : l'orchestration reste fragile, et ce n'est pas en affinant les prompts qu'on réglera le problème, mais en repensant à la fois les produits et l'entraînement des modèles.

LLMsOpinion
1 source
Moonshot AI publie son modèle phare en open source
4SCMP Tech 

Moonshot AI publie son modèle phare en open source

La start-up chinoise Moonshot AI a publié lundi son nouveau modèle phare en open source, Kimi K2.6, une version améliorée de sa précédente génération axée notamment sur le codage longue portée et les tâches complexes nécessitant une planification étendue. Cette sortie intervient alors qu'Alibaba, ByteDance et Tencent ont conjointement signé un engagement pour promouvoir l'open source dans l'intelligence artificielle en Chine, un signal fort de la part de trois des géants technologiques les plus influents du pays. Ce mouvement vers l'ouverture des modèles traduit une tendance de fond dans l'industrie chinoise de l'IA : rendre les modèles accessibles permet d'accélérer l'adoption, d'attirer les développeurs et de construire un écosystème autour de sa technologie, sans pour autant sacrifier la rentabilité sur d'autres segments. Pour les entreprises et développeurs qui cherchent des alternatives aux modèles occidentaux fermés comme GPT-4o ou Claude, Kimi K2.6 représente une option sérieuse, particulièrement pour des usages intensifs en programmation. La décision de Moonshot AI s'inscrit dans une dynamique plus large de compétition entre stratégies ouvertes et fermées en Chine. Alors que des acteurs comme DeepSeek ont démontré qu'un modèle open source pouvait rivaliser avec les meilleurs systèmes propriétaires, les entreprises chinoises naviguent entre impératifs commerciaux et pression à la transparence. La coexistence de l'engagement collectif à l'open source et des investissements parallèles dans des systèmes fermés révèle que la stratégie optimale reste encore à définir dans un secteur en mutation rapide.

UELes développeurs et entreprises européens disposent d'une nouvelle alternative open source sérieuse pour les tâches de codage intensif, sans dépendance aux modèles propriétaires occidentaux.

LLMsOpinion
1 source