Malgré les suppressions massives, le clone de l'outil de code IA d'Anthropic a été dupliqué plus de 8 000 fois sur GitHub
Le code source de Claude Code, l'outil de programmation assistée par IA d'Anthropic, a été accidentellement rendu public par l'entreprise elle-même. Malgré des tentatives massives de suppression sur GitHub, le dépôt a été forké plus de 8 000 fois avant que les takedowns ne prennent effet, rendant la fuite pratiquement impossible à contenir.
L'ampleur de cette fuite est potentiellement considérable pour Anthropic. Le code source d'un outil commercial propriétaire expose l'architecture interne, les choix d'implémentation et possiblement des détails sur les intégrations avec les modèles Claude — des informations que la concurrence (OpenAI, Google, Microsoft) peut analyser en détail. Pour les utilisateurs, la fuite ne présente pas de risque direct, mais elle affaiblit la position concurrentielle d'Anthropic sur le marché des assistants de développement, segment en forte croissance.
Claude Code est l'un des outils phares d'Anthropic pour capter les développeurs professionnels, face à GitHub Copilot et Cursor. La startup, valorisée à plus de 60 milliards de dollars après ses dernières levées de fonds, mise sur ces outils pour monétiser ses modèles au-delà des API. Une fuite de ce type illustre les risques opérationnels croissants des entreprises d'IA qui gèrent simultanément des modèles, des produits grand public et des dépôts de code sensibles — et soulève des questions sur les processus internes de gestion des accès chez Anthropic.
