
Le code source de Claude Code semble avoir fuité : ce que l'on sait
Un fichier de débogage de 59,8 Mo a été accidentellement inclus dans la version 2.1.88 du package @anthropic-ai/claude-code publié sur le registre npm tôt ce matin. Ce fichier .map, destiné à un usage interne, contenait l'intégralité du code source TypeScript de Claude Code — environ 512 000 lignes. À 4h23 du matin (heure de l'Est), Chaofan Shou, un stagiaire chez Solayer Labs, a publié la découverte sur X avec un lien direct vers une archive téléchargeable. En quelques heures, le code était dupliqué sur GitHub et analysé par des milliers de développeurs. Anthropic, dont le chiffre d'affaires annualisé est estimé à 19 milliards de dollars en mars 2026, n'a pas encore commenté officiellement l'incident.
La fuite est stratégiquement dévastatrice pour une raison précise : Claude Code représente à lui seul 2,5 milliards de dollars de revenus récurrents annualisés, un chiffre qui a plus que doublé depuis janvier 2026, avec 80 % du revenu issu des entreprises. Le code exposé constitue un véritable plan de construction pour les concurrents — de Cursor aux grands acteurs — sur la manière de concevoir un agent IA fiable et commercialement viable. L'architecture mémoire en trois couches dévoilée est particulièrement précieuse : au lieu de tout stocker, le système utilise un fichier MEMORY.md léger comme index de pointeurs, distribuant la connaissance dans des fichiers thématiques chargés à la demande, tandis que les transcriptions brutes ne sont jamais relues intégralement mais parcourues par recherche ciblée. Ce système de "mémoire sceptique" force l'agent à vérifier les faits contre le code réel avant d'agir, évitant les hallucinations lors de sessions longues.
Le code révèle également "KAIROS" — référence grecque au "moment opportun" — un mode daemon autonome mentionné plus de 150 fois dans la source. Cette fonctionnalité non annoncée permet à Claude Code de fonctionner en arrière-plan en continu : lorsque l'utilisateur est inactif, un processus appelé autoDream consolide la mémoire de l'agent, fusionne les observations disparates et élimine les contradictions, de sorte que le contexte soit propre et pertinent au retour de l'utilisateur. Cette fuite survient dans un contexte de concurrence acharnée sur le marché des agents IA codeurs, où chaque avantage architectural représente des mois de R&D. Anthropic se retrouve dans la position inconfortable d'avoir involontairement offert à ses rivaux une fenêtre rare sur ses choix d'ingénierie les plus avancés.



