Aller au contenu principal
Le code source de Claude Code semble avoir fuité : ce que l'on sait
BusinessVentureBeat AI6sem

Le code source de Claude Code semble avoir fuité : ce que l'on sait

Résumé IASource uniqueImpact UE
Source originale ↗·

Un fichier de débogage de 59,8 Mo a été accidentellement inclus dans la version 2.1.88 du package @anthropic-ai/claude-code publié sur le registre npm tôt ce matin. Ce fichier .map, destiné à un usage interne, contenait l'intégralité du code source TypeScript de Claude Code — environ 512 000 lignes. À 4h23 du matin (heure de l'Est), Chaofan Shou, un stagiaire chez Solayer Labs, a publié la découverte sur X avec un lien direct vers une archive téléchargeable. En quelques heures, le code était dupliqué sur GitHub et analysé par des milliers de développeurs. Anthropic, dont le chiffre d'affaires annualisé est estimé à 19 milliards de dollars en mars 2026, n'a pas encore commenté officiellement l'incident.

La fuite est stratégiquement dévastatrice pour une raison précise : Claude Code représente à lui seul 2,5 milliards de dollars de revenus récurrents annualisés, un chiffre qui a plus que doublé depuis janvier 2026, avec 80 % du revenu issu des entreprises. Le code exposé constitue un véritable plan de construction pour les concurrents — de Cursor aux grands acteurs — sur la manière de concevoir un agent IA fiable et commercialement viable. L'architecture mémoire en trois couches dévoilée est particulièrement précieuse : au lieu de tout stocker, le système utilise un fichier MEMORY.md léger comme index de pointeurs, distribuant la connaissance dans des fichiers thématiques chargés à la demande, tandis que les transcriptions brutes ne sont jamais relues intégralement mais parcourues par recherche ciblée. Ce système de "mémoire sceptique" force l'agent à vérifier les faits contre le code réel avant d'agir, évitant les hallucinations lors de sessions longues.

Le code révèle également "KAIROS" — référence grecque au "moment opportun" — un mode daemon autonome mentionné plus de 150 fois dans la source. Cette fonctionnalité non annoncée permet à Claude Code de fonctionner en arrière-plan en continu : lorsque l'utilisateur est inactif, un processus appelé autoDream consolide la mémoire de l'agent, fusionne les observations disparates et élimine les contradictions, de sorte que le contexte soit propre et pertinent au retour de l'utilisateur. Cette fuite survient dans un contexte de concurrence acharnée sur le marché des agents IA codeurs, où chaque avantage architectural représente des mois de R&D. Anthropic se retrouve dans la position inconfortable d'avoir involontairement offert à ses rivaux une fenêtre rare sur ses choix d'ingénierie les plus avancés.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le code source complet du CLI Claude Code a fuité via un fichier map exposé
1Ars Technica AI 

Le code source complet du CLI Claude Code a fuité via un fichier map exposé

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code CLI en publiant ce matin la version 2.1.88 du package npm. Le package contenait un fichier source map, une erreur interne grave qui a permis à quiconque de reconstituer près de 2 000 fichiers TypeScript représentant plus de 512 000 lignes de code. Le chercheur en sécurité Chaofan Shou a été le premier à le signaler publiquement sur X en partageant une archive des fichiers. Le code a ensuite été déposé dans un dépôt GitHub public et a été forké des dizaines de milliers de fois en quelques heures. Cette fuite est un revers significatif pour Anthropic : le code source de Claude Code constitue un blueprint détaillé de l'architecture et du fonctionnement interne de l'outil, offrant aux concurrents — OpenAI, Google, et les dizaines de startups qui développent des agents de codage — une visibilité inédite sur les choix d'ingénierie d'Anthropic. Pour les utilisateurs, la fuite ne compromet pas directement la sécurité de leurs données, mais elle soulève des questions sur les pratiques de publication et de contrôle qualité de l'entreprise. Le code étant désormais massivement distribué, il est pratiquement impossible de le retirer de la circulation. Claude Code est l'un des produits à la plus forte croissance d'Anthropic ces derniers mois, devenu un outil central dans le segment des assistants de développement, en concurrence directe avec GitHub Copilot et Cursor. Cette exposition survient à un moment particulièrement délicat, alors qu'Anthropic cherche à s'imposer comme un acteur de confiance dans l'industrie. La mésaventure rappelle l'incident similaire survenu chez Samsung en 2023, où des ingénieurs avaient involontairement exposé du code propriétaire via ChatGPT — sauf qu'ici, c'est l'entreprise elle-même qui a commis l'erreur. La suite dépendra en partie de la réaction juridique d'Anthropic, même si la diffusion massive rend toute suppression illusoire.

UELa fuite expose l'architecture interne de l'outil le plus utilisé par les développeurs IA en Europe, soulevant des questions sur les pratiques de sécurité des éditeurs de logiciels IA et sur la protection du secret industriel dans le secteur.

BusinessOpinion
1 source
Anthropic expose accidentellement le code source de Claude Code via un fichier npm
2InfoQ AI 

Anthropic expose accidentellement le code source de Claude Code via un fichier npm

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code en incluant un fichier de source map dans la version 2.1.88 du paquet npm, publiée récemment. Ce fichier, normalement réservé au débogage, contenait la totalité du code TypeScript original -- soit environ 512 000 lignes -- qui était pourtant censé rester compilé et opaque. En quelques heures, des développeurs ont archivé le code sur GitHub, le rendant publiquement accessible. Anthropic a confirmé l'incident, le qualifiant d'erreur humaine lors du processus de packaging. La fuite a mis en lumière des éléments sensibles que l'entreprise n'avait pas encore annoncés : des fonctionnalités inédites, des noms de code internes pour ses modèles, ainsi que l'architecture de son système d'orchestration multi-agents. Ces informations constituent une mine de renseignements concurrentiels pour des acteurs comme OpenAI, Google DeepMind ou Meta, qui cherchent à comprendre les orientations techniques d'Anthropic. Pour les développeurs utilisant Claude Code au quotidien, la fuite offre un aperçu rare du fonctionnement interne d'un outil commercial de premier plan. Cet incident illustre la tension croissante entre la volonté des laboratoires d'IA de protéger leur propriété intellectuelle et les risques opérationnels inhérents à la distribution de logiciels via des registres publics comme npm. Anthropic, valorisé à plusieurs dizaines de milliards de dollars, mise largement sur Claude Code pour concurrencer GitHub Copilot et les outils de Cursor dans le segment des assistants de développement. L'entreprise devra désormais renforcer ses processus de publication pour éviter que de telles erreurs ne se reproduisent, d'autant que la course aux agents de codage s'intensifie.

BusinessActu
1 source
Le code source de l'agent de codage d'Anthropic exposé dans une fuite
3The Information AI 

Le code source de l'agent de codage d'Anthropic exposé dans une fuite

Anthropic a accidentellement divulgué une partie du code source de son application Claude Code, a confirmé la société mardi. La fuite, remarquée tôt dans la matinée par des développeurs, a exposé des détails inédits sur le fonctionnement interne de l'outil de programmation assistée par IA, ainsi que des références à des modèles et fonctionnalités encore non annoncés. Cet incident est significatif pour l'industrie car Claude Code est l'un des agents de codage les plus utilisés du moment, directement concurrent de GitHub Copilot et Cursor. L'exposition du code source permet à des concurrents d'analyser l'architecture interne du produit, ses mécanismes de raisonnement et potentiellement d'anticiper la roadmap produit d'Anthropic — un avantage concurrentiel non négligeable dans un secteur en compétition intense. Anthropic a reconnu publiquement l'erreur, ce qui suggère que la fuite n'était pas intentionnelle et que la société a cherché à limiter rapidement les dégâts. La divulgation accidentelle de code propriétaire est un risque opérationnel croissant pour les laboratoires d'IA, dont les produits reposent sur des systèmes de prompts et d'orchestration souvent aussi précieux que les modèles eux-mêmes. L'incident intervient alors qu'Anthropic intensifie sa mise sur le marché des outils développeurs, un segment stratégique face à OpenAI et Google.

BusinessActu
1 source
Anthropic publie accidentellement le code source de Claude Code en accès public
4The Decoder 

Anthropic publie accidentellement le code source de Claude Code en accès public

Anthropic a accidentellement rendu public une partie du code source de Claude Code, son outil d'assistance à la programmation propulsé par l'IA. L'incident, révélé par The Decoder, s'est produit lorsque des fichiers normalement destinés à rester internes ont été accessibles publiquement, permettant à quiconque de les consulter sans autorisation particulière. Il s'agit de la deuxième mésaventure de ce type en peu de temps pour l'entreprise, qui avait déjà vu fuiter des billets de blog internes concernant son futur modèle baptisé Mythos. Cette exposition involontaire du code source est embarrassante pour Anthropic à plusieurs titres. Claude Code est un produit commercial actif, et la divulgation de son implémentation interne peut permettre à des concurrents d'analyser ses choix techniques, ses architectures et potentiellement ses vulnérabilités. Pour les utilisateurs professionnels et entreprises qui s'appuient sur cet outil, la question de la sécurité et de la robustesse des pratiques internes d'Anthropic devient légitime. Cet incident survient dans un contexte de compétition intense entre les grands acteurs de l'IA — OpenAI, Google DeepMind, Meta et Anthropic — où la confidentialité des développements internes représente un avantage stratégique majeur. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI et valorisée à plusieurs dizaines de milliards de dollars, se positionne sur le créneau de l'IA sûre et responsable. Ces fuites répétées fragilisent cette image de sérieux opérationnel, au moment même où la société cherche à s'imposer dans le segment entreprise face à des concurrents mieux établis.

💬 Deux fuites en quelques semaines, ça commence à faire beaucoup pour une boîte qui vend de la rigueur. Ce qui a circulé sur Claude Code montre des choix techniques plutôt solides, mais c'est pas vraiment le sujet : le problème c'est que leurs process internes ont visiblement un trou quelque part. Pour leur pitch auprès des DSI, le timing est vraiment pas idéal.

BusinessActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour