Aller au contenu principal
Le code source complet du CLI Claude Code a fuité via un fichier map exposé
AutreArs Technica AI3j

Le code source complet du CLI Claude Code a fuité via un fichier map exposé

1 source couvre ce sujet·Source originale ↗·

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code CLI en publiant ce matin la version 2.1.88 du package npm. Le package contenait un fichier source map, une erreur interne grave qui a permis à quiconque de reconstituer près de 2 000 fichiers TypeScript représentant plus de 512 000 lignes de code. Le chercheur en sécurité Chaofan Shou a été le premier à le signaler publiquement sur X en partageant une archive des fichiers. Le code a ensuite été déposé dans un dépôt GitHub public et a été forké des dizaines de milliers de fois en quelques heures.

Cette fuite est un revers significatif pour Anthropic : le code source de Claude Code constitue un blueprint détaillé de l'architecture et du fonctionnement interne de l'outil, offrant aux concurrents — OpenAI, Google, et les dizaines de startups qui développent des agents de codage — une visibilité inédite sur les choix d'ingénierie d'Anthropic. Pour les utilisateurs, la fuite ne compromet pas directement la sécurité de leurs données, mais elle soulève des questions sur les pratiques de publication et de contrôle qualité de l'entreprise. Le code étant désormais massivement distribué, il est pratiquement impossible de le retirer de la circulation.

Claude Code est l'un des produits à la plus forte croissance d'Anthropic ces derniers mois, devenu un outil central dans le segment des assistants de développement, en concurrence directe avec GitHub Copilot et Cursor. Cette exposition survient à un moment particulièrement délicat, alors qu'Anthropic cherche à s'imposer comme un acteur de confiance dans l'industrie. La mésaventure rappelle l'incident similaire survenu chez Samsung en 2023, où des ingénieurs avaient involontairement exposé du code propriétaire via ChatGPT — sauf qu'ici, c'est l'entreprise elle-même qui a commis l'erreur. La suite dépendra en partie de la réaction juridique d'Anthropic, même si la diffusion massive rend toute suppression illusoire.

Impact France/UE

La fuite expose l'architecture interne de l'outil le plus utilisé par les développeurs IA en Europe, soulevant des questions sur les pratiques de sécurité des éditeurs de logiciels IA et sur la protection du secret industriel dans le secteur.

À lire aussi

1ZDNET FR 

7 techniques de programmation IA qui vous propulsent dans le monde des rois du Dev

Autre
1 source
2Ars Technica AI 

OpenClaw soulève de nouvelles inquiétudes sur la sécurité des utilisateurs

OpenClaw, l'outil d'IA agentique viral lancé en novembre 2025, vient de corriger trois vulnérabilités de haute sévérité, dont l'une est notée entre 8,1 et 9,8 sur 10 selon les métriques utilisées. Référencée CVE-2026-33579, cette faille permettait à toute personne disposant de privilèges d'appairage — le niveau d'accès le plus bas — d'obtenir un statut administrateur complet. L'outil, qui cumule désormais 347 000 étoiles sur GitHub, est conçu pour prendre le contrôle du poste de l'utilisateur et interagir avec ses applications, fichiers, comptes et sessions actives sur Telegram, Discord, Slack, ainsi que les réseaux locaux et partagés. L'impact potentiel de cette vulnérabilité est particulièrement sévère parce qu'OpenClaw fonctionne par design avec les mêmes permissions que l'utilisateur lui-même. Un attaquant exploitant CVE-2026-33579 n'accédait pas seulement à l'outil, mais à l'ensemble des ressources auxquelles l'instance OpenClaw était connectée : fichiers d'entreprise, messageries professionnelles, sessions authentifiées. Pour des équipes de développement qui utilisent l'outil pour automatiser des tâches sensibles — recherche, organisation de fichiers, achats en ligne — la surface d'attaque est considérable et les conséquences potentiellement graves pour les données personnelles et professionnelles. Depuis son lancement en novembre 2025, OpenClaw s'est imposé très rapidement dans la communauté des développeurs, ce qui a aussi attiré l'attention des chercheurs en sécurité. Depuis plus d'un mois, des praticiens alertaient sur les risques inhérents à ce type d'outil agentique, qui nécessite par nature un accès étendu aux systèmes pour être efficace. Cette tension entre utilité et sécurité est au coeur des débats autour des agents IA autonomes : plus ils sont capables, plus leur compromission est dangereuse. Les correctifs ont été publiés cette semaine, mais l'incident illustre un défi structurel pour toute l'industrie des agents IA, où la course à l'adoption précède souvent les audits de sécurité rigoureux.

UELes équipes de développement européennes utilisant OpenClaw doivent appliquer les correctifs publiés cette semaine pour éliminer une faille d'élévation de privilèges exposant leurs fichiers, messageries professionnelles et sessions authentifiées.

AutreOpinion
1 source
3TechCrunch AI 

Anthropic intensifie ses activités politiques avec un nouveau PAC

Anthropic, le laboratoire d'intelligence artificielle fondé par Dario et Daniela Amodei, a officiellement lancé un comité d'action politique (PAC) en vue des élections de mi-mandat aux États-Unis. Cette structure lui permet de financer directement des candidats politiques dont les positions s'alignent avec les priorités réglementaires de l'entreprise en matière d'IA. Cette décision marque une escalade significative dans l'implication politique du secteur de l'IA. En soutenant des candidats favorables à son agenda, Anthropic cherche à peser sur les futures lois encadrant le développement et le déploiement des modèles d'intelligence artificielle, un enjeu majeur alors que le Congrès américain débat activement de plusieurs propositions législatives sur le sujet. Ce mouvement s'inscrit dans une tendance plus large : OpenAI, Google et Microsoft ont tous intensifié leurs activités de lobbying ces dernières années, dépensant des dizaines de millions de dollars pour influencer la politique technologique américaine. Anthropic, qui a levé plusieurs milliards de dollars auprès d'Amazon et de Google, cherche désormais à s'imposer non seulement comme un acteur technique de premier plan, mais aussi comme une force politique capable de façonner le cadre réglementaire dans lequel évoluera l'IA générative.

AutreReglementation
1 source
4The Information AI 

Jay Edelson a forcé Facebook à payer. Il s'attaque maintenant à l'IA de la Silicon Valley

Jay Edelson, avocat spécialisé dans les recours collectifs basé à Chicago, est devenu l'une des figures les plus redoutées de la Silicon Valley. En moins d'un an, il a participé à un règlement d'un milliard de dollars contre Anthropic pour violation de droits d'auteur, et déposé trois affaires très médiatisées contre OpenAI et Google concernant leurs chatbots d'intelligence artificielle. Il prépare actuellement une nouvelle plainte contre OpenAI, attendue dès la semaine prochaine selon des informations non encore publiées : une femme affirme que ChatGPT aurait transformé son ancien petit ami en harceleur, en lui fournissant des informations ou en alimentant une obsession que le système aurait pu amplifier. Ces procédures illustrent une montée en puissance du contentieux juridique autour de l'IA générative, qui touche désormais des domaines aussi divers que le droit d'auteur, la sécurité des utilisateurs et la responsabilité des plateformes. Pour l'industrie, les enjeux sont considérables : les grands modèles de langage ont été entraînés sur des corpus massifs dont la légalité reste contestée, et leurs interactions avec les utilisateurs peuvent avoir des conséquences imprévisibles dans la vie réelle. Pour les entreprises comme OpenAI ou Google, dont les valorisations atteignent plusieurs centaines de milliards de dollars, ces procès représentent un risque financier et réputationnel croissant. Edelson s'est bâti une réputation en attaquant des géants comme Facebook sur des questions de vie privée et de données biométriques, obtenant des règlements massifs là où d'autres avocats échouaient. Son cabinet, Edelson PC, fonctionne sur un modèle de contingence : il ne perçoit d'honoraires qu'en cas de victoire, ce qui lui permet de prendre des risques que les cabinets traditionnels évitent. Alors que la régulation de l'IA avance lentement côté législatif, les recours collectifs s'imposent comme un levier de responsabilisation de facto, et Edelson entend bien occuper ce terrain durablement.

UELes précédents juridiques américains sur la responsabilité des chatbots et les violations de droits d'auteur pourraient influencer l'interprétation et l'application de l'AI Act européen face à des litiges similaires.

💬 Un milliard contre Anthropic en moins d'un an, c'est pas anodin. Ce qui m'intéresse ici, c'est pas l'avocat, c'est le signal : faute de régulation qui avance, c'est la voie judiciaire qui commence à fixer les règles du jeu, et ça va aller vite. L'affaire ChatGPT-harceleur va faire du bruit, même si le fond juridique est moins solide que les dossiers droits d'auteur.

AutreReglementation
1 source