Aller au contenu principal
Claude Code réfléchissait trop, puis plus assez : Anthropic corrige le coup de mou
OutilsNext INpact1h

Claude Code réfléchissait trop, puis plus assez : Anthropic corrige le coup de mou

1 source couvre ce sujet·Source originale ↗·

Entre fin mars et mi-avril 2026, les utilisateurs de Claude Code ont constaté une dégradation notable du service : oubli de contexte, réponses incohérentes, consommation anormale de tokens. Anthropic a publié un post-mortem détaillé confirmant trois problèmes distincts, tous résolus le 20 avril avec la version v2.1.116. Le premier remonte au 4 mars : pour accélérer les réponses suite à des retours d'utilisateurs se plaignant de latences excessives, l'entreprise a abaissé le niveau de raisonnement par défaut de « high » à « medium ». Le gain en rapidité était réel, mais au prix d'une qualité de réponse nettement inférieure. Anthropic a fait marche arrière le 7 avril, repassant sur « high effort » pour Opus 4.6 et introduisant un nouveau palier « xhigh effort » pour Opus 4.7. Le deuxième problème, un bug, est apparu le 26 mars lors de l'activation du prompt caching : au lieu de supprimer l'ancien raisonnement une seule fois après une heure d'inactivité, le système effaçait chaque nouveau message passé ce seuil, ne conservant qu'un fragment infime de contexte. Résultat : le modèle agissait sans mémoire de ce qu'il faisait, les requêtes étaient recalculées de zéro à chaque échange, et les quotas fondaient à toute vitesse. Le bug a été identifié et corrigé le 10 avril, non sans mal : il a fallu plus d'une semaine de diagnostic, et c'est Opus 4.7 qui l'a finalement détecté lors de son analyse, là où Opus 4.6 n'avait rien trouvé. Troisième problème enfin : pour contenir la verbosité d'Opus 4.7, Anthropic a imposé le 16 avril une limite de 100 mots par réponse et 25 mots entre appels d'outils, étouffant au passage la capacité du modèle à raisonner en profondeur. La contrainte a été supprimée quatre jours plus tard.

Ces trois incidents révèlent les tensions inhérentes au déploiement continu d'un outil d'IA utilisé professionnellement à grande échelle : chaque optimisation de performance ou de coût peut introduire des régressions fonctionnelles difficiles à détecter avant qu'elles n'atteignent les utilisateurs. L'impact a touché Claude Code ainsi que le Claude Agent SDK et Claude Cowork, mais pas l'API ni la couche d'inférence, ce qui indique des problèmes situés dans la couche applicative plutôt que dans le modèle lui-même. Pour des développeurs qui s'appuient sur l'outil pour des sessions de travail longues et complexes, la perte de contexte et la dégradation du raisonnement ont eu des conséquences concrètes sur la productivité.

En réponse, Anthropic s'engage à plusieurs changements de processus : utiliser plus systématiquement la version publique de Claude Code plutôt que des builds internes de test, produire des analyses d'impact plus rigoureuses avant chaque modification du système, et déployer des outils d'audit et de suivi des changements en production. Le post-mortem lui-même, publiquement disponible, témoigne d'une volonté de transparence inhabituelle dans le secteur. Ces épisodes surviennent alors que la concurrence entre outils d'IA pour développeurs s'intensifie, avec GitHub Copilot, Cursor et d'autres acteurs qui scrutent chaque faux pas. Pour Anthropic, dont Claude Code est l'un des produits les plus visibles auprès des développeurs, maintenir la confiance technique passe désormais autant par la fiabilité du service que par les capacités brutes du modèle.

À lire aussi

Le mode automatique de Claude Code d'Anthropic devient plus sûr
1The Verge AI 

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
2Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

OutilsOutil
1 source
OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic
3The Decoder 

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic

OpenAI a lancé un plugin permettant d'intégrer son assistant de codage Codex directement dans Claude Code, l'outil de développement en ligne de commande d'Anthropic. Cette extension permet aux développeurs utilisant Claude Code d'accéder aux capacités de Codex d'OpenAI sans quitter leur environnement de travail habituel, fusionnant ainsi deux écosystèmes concurrents au sein d'une même interface. Cette initiative est remarquable car elle efface temporairement la frontière entre deux des principaux adversaires du secteur de l'IA. Pour les développeurs, cela signifie un accès élargi aux modèles et aux forces spécifiques de chaque plateforme — Codex étant particulièrement réputé pour la génération et la compréhension de code — sans devoir jongler entre plusieurs outils. L'interopérabilité entre assistants IA devient ainsi un argument commercial concret. Ce mouvement s'inscrit dans une tendance plus large de l'industrie où les éditeurs d'IA misent sur l'ouverture et les intégrations tierces pour étendre leur portée, plutôt que de viser l'exclusivité. OpenAI, qui a récemment repositionné Codex comme produit à part entière après des années où GPT-4 dominait les usages de codage, cherche à imposer sa présence dans des environnements qu'il ne contrôle pas directement. La question des suites — si Anthropic facilitera ou au contraire limitera ce type d'intégrations concurrentes dans Claude Code — reste ouverte.

UELes développeurs français et européens utilisant Claude Code peuvent désormais accéder aux capacités de Codex sans changer d'environnement, élargissant concrètement leur palette d'outils IA.

OutilsOutil
1 source
Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux
4The Decoder 

Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux

Anthropic a publié une explication officielle pour répondre aux nombreuses plaintes d'utilisateurs de Claude Code qui voyaient leurs quotas s'épuiser beaucoup plus vite qu'attendu. Deux facteurs principaux sont en cause : des limitations renforcées aux heures de pointe, lorsque la demande sur les serveurs est la plus forte, et l'accumulation progressive du contexte au fil des sessions de travail, qui fait exploser la consommation de tokens sans que l'utilisateur s'en rende compte. Ce phénomène touche directement les développeurs qui utilisent Claude Code pour des tâches longues et itératives. Un contexte de conversation qui gonfle au fil des échanges peut consommer autant de tokens que plusieurs requêtes indépendantes, vidant rapidement les allocations mensuelles ou quotidiennes. Anthropic a accompagné ses explications de conseils pratiques pour limiter cette consommation, notamment en réinitialisant régulièrement le contexte. Cette clarification intervient alors que Claude Code connaît une adoption rapide parmi les équipes de développement, créant une pression croissante sur l'infrastructure d'Anthropic. La gestion des quotas reste un point sensible pour les abonnés professionnels, et la transparence de l'entreprise sur ce sujet vise à maintenir la confiance des utilisateurs les plus intensifs, dans un marché des assistants de code de plus en plus concurrentiel face à GitHub Copilot et Cursor.

UELes développeurs européens utilisant Claude Code sont directement concernés par ces limitations de quotas, qui peuvent impacter leur productivité et leur planification budgétaire.

OutilsActu
1 source