
Claude Code réfléchissait trop, puis plus assez : Anthropic corrige le coup de mou
Entre fin mars et mi-avril 2026, les utilisateurs de Claude Code ont constaté une dégradation notable du service : oubli de contexte, réponses incohérentes, consommation anormale de tokens. Anthropic a publié un post-mortem détaillé confirmant trois problèmes distincts, tous résolus le 20 avril avec la version v2.1.116. Le premier remonte au 4 mars : pour accélérer les réponses suite à des retours d'utilisateurs se plaignant de latences excessives, l'entreprise a abaissé le niveau de raisonnement par défaut de « high » à « medium ». Le gain en rapidité était réel, mais au prix d'une qualité de réponse nettement inférieure. Anthropic a fait marche arrière le 7 avril, repassant sur « high effort » pour Opus 4.6 et introduisant un nouveau palier « xhigh effort » pour Opus 4.7. Le deuxième problème, un bug, est apparu le 26 mars lors de l'activation du prompt caching : au lieu de supprimer l'ancien raisonnement une seule fois après une heure d'inactivité, le système effaçait chaque nouveau message passé ce seuil, ne conservant qu'un fragment infime de contexte. Résultat : le modèle agissait sans mémoire de ce qu'il faisait, les requêtes étaient recalculées de zéro à chaque échange, et les quotas fondaient à toute vitesse. Le bug a été identifié et corrigé le 10 avril, non sans mal : il a fallu plus d'une semaine de diagnostic, et c'est Opus 4.7 qui l'a finalement détecté lors de son analyse, là où Opus 4.6 n'avait rien trouvé. Troisième problème enfin : pour contenir la verbosité d'Opus 4.7, Anthropic a imposé le 16 avril une limite de 100 mots par réponse et 25 mots entre appels d'outils, étouffant au passage la capacité du modèle à raisonner en profondeur. La contrainte a été supprimée quatre jours plus tard.
Ces trois incidents révèlent les tensions inhérentes au déploiement continu d'un outil d'IA utilisé professionnellement à grande échelle : chaque optimisation de performance ou de coût peut introduire des régressions fonctionnelles difficiles à détecter avant qu'elles n'atteignent les utilisateurs. L'impact a touché Claude Code ainsi que le Claude Agent SDK et Claude Cowork, mais pas l'API ni la couche d'inférence, ce qui indique des problèmes situés dans la couche applicative plutôt que dans le modèle lui-même. Pour des développeurs qui s'appuient sur l'outil pour des sessions de travail longues et complexes, la perte de contexte et la dégradation du raisonnement ont eu des conséquences concrètes sur la productivité.
En réponse, Anthropic s'engage à plusieurs changements de processus : utiliser plus systématiquement la version publique de Claude Code plutôt que des builds internes de test, produire des analyses d'impact plus rigoureuses avant chaque modification du système, et déployer des outils d'audit et de suivi des changements en production. Le post-mortem lui-même, publiquement disponible, témoigne d'une volonté de transparence inhabituelle dans le secteur. Ces épisodes surviennent alors que la concurrence entre outils d'IA pour développeurs s'intensifie, avec GitHub Copilot, Cursor et d'autres acteurs qui scrutent chaque faux pas. Pour Anthropic, dont Claude Code est l'un des produits les plus visibles auprès des développeurs, maintenir la confiance technique passe désormais autant par la fiabilité du service que par les capacités brutes du modèle.
Dans nos dossiers




