Aller au contenu principal
500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés
AutreLa Tribune1h

500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés

1 source couvre ce sujet·Source originale ↗·

Le 31 mars 2026, une erreur de publication a exposé accidentellement le code source complet de Claude Code, l'assistant de développement phare d'Anthropic. Cette fuite représente environ 500 000 lignes de code, rendues publiquement accessibles avant d'être retirées. L'incident survient seulement quatre jours après un premier incident similaire signalé le 27 mars, suggérant une défaillance systémique dans les processus de déploiement de l'entreprise.

L'exposition de ce volume de code source constitue un risque stratégique majeur pour Anthropic. Les fichiers divulgués auraient révélé des projets non annoncés autour d'agents autonomes — des systèmes capables d'agir de manière indépendante, sans supervision humaine constante. Pour une start-up dont la valeur est estimée à 350 milliards de dollars et qui se positionne comme leader de l'IA dite "sûre et responsable", cette double fuite en moins d'une semaine érode la confiance des investisseurs, partenaires et clients entreprises qui misent précisément sur sa rigueur opérationnelle.

Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI dont Dario et Daniela Amodei, a bâti sa réputation sur la sécurité et l'alignement des IA. La divulgation de projets d'agents autonomes encore non dévoilés alimentera inévitablement les débats sur la transparence des laboratoires d'IA de premier plan, à l'heure où régulateurs européens et américains scrutent de plus près leurs pratiques. La question des mesures internes de contrôle des publications de code — et des éventuelles responsabilités — risque désormais d'occuper le devant de la scène pour l'entreprise.

Impact France/UE

La double fuite en une semaine chez un laboratoire phare de l'IA sécuritaire pourrait accélérer les exigences des régulateurs européens en matière d'audit interne et de transparence des grands labs, dans le cadre de l'application de l'AI Act.

💬 Le point de vue du dev

Deux fuites en quatre jours chez le champion auto-proclamé de l'IA responsable, c'est saignant. Pas tant pour le code lui-même, qui sera archivé et analysé partout d'ici ce soir, mais pour les projets d'agents autonomes qui traînaient dans les fichiers sans jamais avoir été annoncés. Pour une boîte qui vend précisément sa rigueur comme argument commercial, la question des régulateurs va être difficile à esquiver.

À lire aussi

1ZDNET FR 

Droit d'auteur : OpenAI poursuivi en Allemagne

Autre
1 source
2Le Monde Pixels 

L’histoire folle d’une nouvelle pièce de Molière, coécrite avec l’IA

Autre
1 source
3ZDNET FR 

Apple veut transformer Siri en assistant multitâche, plus rapide et plus complet

Autre
1 source
Le code source de Claude a été divulgué par erreur, que s’est-il passé ?
401net 

Le code source de Claude a été divulgué par erreur, que s’est-il passé ?

Anthropic a involontairement exposé des éléments sensibles de son assistant Claude en publiant une mise à jour de Claude Code contenant un fichier permettant de reconstituer l'intégralité du code source de l'IA. L'incident a été découvert peu après le déploiement de la mise à jour, forçant la start-up californienne à réagir en urgence pour retirer le fichier incriminé. Cette fuite représente un incident majeur pour Anthropic, dont la valeur repose en grande partie sur la propriété intellectuelle de ses modèles. Le code source d'un grand modèle de langage constitue un actif stratégique de premier ordre : il révèle les choix d'architecture, les techniques d'entraînement et les optimisations qui différencient un modèle de ses concurrents. Une telle divulgation pourrait bénéficier directement à des rivaux comme OpenAI, Google DeepMind ou des acteurs open source cherchant à combler leur retard. Anthropic traverse une période de croissance intense, avec une valorisation dépassant les 60 milliards de dollars et des investissements massifs d'Amazon et Google. La sécurité opérationnelle est un enjeu critique pour les labos d'IA de pointe, qui font face à des menaces de fuites industrielles et d'espionnage. Cet incident rappelle que même les entreprises les plus avancées techniquement restent vulnérables aux erreurs humaines dans leurs processus de déploiement.

AutreOpinion
1 source