Anthropic publie par erreur le code de son outil pour développeurs : ce qu'il faut savoir
Anthropic, la startup californienne fondatrice de l'assistant Claude, a reconnu avoir publié par inadvertance une partie substantielle du code source de Claude Code, son outil de développement en ligne de commande. L'incident, confirmé par l'entreprise, concerne des fichiers appartenant au cœur de l'outil — dont le fonctionnement était jusqu'alors tenu secret pour protéger les avantages compétitifs d'Anthropic face à des rivaux comme OpenAI ou Google DeepMind.
La divulgation, bien qu'involontaire, soulève des questions sensibles sur la propriété intellectuelle et la confidentialité des systèmes d'IA commerciaux. Anthropic a indiqué qu'aucune faille de sécurité directe n'avait été identifiée pour ses utilisateurs, mais l'exposition du code permet potentiellement à des concurrents ou à des acteurs malveillants d'analyser les mécanismes internes de l'outil et d'identifier des vulnérabilités futures.
Cet épisode illustre une tension croissante dans le secteur : la course effrénée au déploiement de nouveaux produits d'IA raccourcit les cycles de validation et augmente le risque d'erreurs opérationnelles. Anthropic, valorisée à plusieurs dizaines de milliards de dollars après ses dernières levées de fonds, n'est pas la première entreprise d'IA à subir ce type d'incident — une tendance qui pousse l'industrie à repenser ses protocoles de gestion du code propriétaire.