Aller au contenu principal
500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés
SécuritéLa Tribune6sem

500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Le 31 mars 2026, une erreur de publication a exposé accidentellement le code source complet de Claude Code, l'assistant de développement phare d'Anthropic. Cette fuite représente environ 500 000 lignes de code, rendues publiquement accessibles avant d'être retirées. L'incident survient seulement quatre jours après un premier incident similaire signalé le 27 mars, suggérant une défaillance systémique dans les processus de déploiement de l'entreprise.

L'exposition de ce volume de code source constitue un risque stratégique majeur pour Anthropic. Les fichiers divulgués auraient révélé des projets non annoncés autour d'agents autonomes — des systèmes capables d'agir de manière indépendante, sans supervision humaine constante. Pour une start-up dont la valeur est estimée à 350 milliards de dollars et qui se positionne comme leader de l'IA dite "sûre et responsable", cette double fuite en moins d'une semaine érode la confiance des investisseurs, partenaires et clients entreprises qui misent précisément sur sa rigueur opérationnelle.

Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI dont Dario et Daniela Amodei, a bâti sa réputation sur la sécurité et l'alignement des IA. La divulgation de projets d'agents autonomes encore non dévoilés alimentera inévitablement les débats sur la transparence des laboratoires d'IA de premier plan, à l'heure où régulateurs européens et américains scrutent de plus près leurs pratiques. La question des mesures internes de contrôle des publications de code — et des éventuelles responsabilités — risque désormais d'occuper le devant de la scène pour l'entreprise.

Impact France/UE

La double fuite en une semaine chez un laboratoire phare de l'IA sécuritaire pourrait accélérer les exigences des régulateurs européens en matière d'audit interne et de transparence des grands labs, dans le cadre de l'application de l'AI Act.

💬 Le point de vue du dev

Deux fuites en quatre jours chez le champion auto-proclamé de l'IA responsable, c'est saignant. Pas tant pour le code lui-même, qui sera archivé et analysé partout d'ici ce soir, mais pour les projets d'agents autonomes qui traînaient dans les fichiers sans jamais avoir été annoncés. Pour une boîte qui vend précisément sa rigueur comme argument commercial, la question des régulateurs va être difficile à esquiver.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux
101net 

Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux

Des cybercriminels ont rapidement exploité la fuite accidentelle du code source de Claude Code, l'assistant de programmation d'Anthropic, pour monter une campagne de distribution de malwares ciblant les développeurs sur GitHub. Des dépôts frauduleux, se présentant comme hébergeant l'intégralité du code source de l'IA, ont été mis en ligne peu après l'incident, embarquant en réalité deux malwares distincts dont Vidar, un infostealer particulièrement redoutable capable de dérober mots de passe, cookies de session et données de portefeuilles crypto. Cette attaque illustre la rapidité avec laquelle les acteurs malveillants monétisent les incidents de sécurité médiatisés. Les développeurs, naturellement curieux de consulter un code source aussi rare qu'inattendu, constituent une cible de choix : leurs machines hébergent souvent des clés API, des accès à des infrastructures cloud et des secrets d'entreprise à haute valeur. Une compromission réussie peut donc avoir des conséquences bien au-delà de la machine individuelle. La fuite originale chez Anthropic s'inscrit dans une série d'incidents touchant les grandes entreprises d'IA, dont les bases de code sont devenues des actifs stratégiques extrêmement convoités. Vidar est historiquement distribué via des canaux similaires, notamment de faux outils ou de fausses ressources techniques sur des plateformes de développement. Les développeurs sont invités à vérifier scrupuleusement l'authenticité des dépôts avant tout clonage, en particulier lorsqu'ils font suite à un événement médiatique récent.

UELes développeurs français et européens actifs sur GitHub sont directement exposés à cette campagne de distribution de malware ciblant les environnements de développement et leurs secrets d'entreprise.

💬 Les hackers n'ont pas attendu 48h. Dès que la fuite a fait les tours, les faux dépôts étaient en ligne avec Vidar planqué dedans, parce que les devs sont des cibles en or : clés API, accès cloud, tokens d'infra sur la même machine. Vérifie ce que tu clones, surtout quand ça sort pile après un incident qui fait les unes.

SécuritéActu
1 source
Fuite géante chez Anthropic : pourquoi le futur Claude inquiète déjà ses créateurs
201net 

Fuite géante chez Anthropic : pourquoi le futur Claude inquiète déjà ses créateurs

Anthropic a développé en secret un nouveau modèle d'intelligence artificielle baptisé Mythos, considéré en interne comme « de loin le plus puissant » jamais entraîné par la startup californienne. L'information a filtré à l'extérieur avant toute annonce officielle, révélant non seulement l'existence du modèle, mais aussi les préoccupations que celui-ci suscite au sein même de l'entreprise. Selon des informations internes, Mythos présenterait des « risques de cybersécurité significatifs » — une formulation rare et frappante de la part d'un créateur à propos de son propre produit. Cette autocritique publique — même involontaire — est significative : elle indique qu'Anthropic aurait franchi un seuil de capacité suffisamment inquiétant pour le documenter formellement, probablement dans le cadre de ses évaluations de sécurité pré-déploiement. Si le modèle est jugé capable de faciliter des cyberattaques à un niveau notable, cela soulève des questions immédiates sur les conditions dans lesquelles il sera (ou non) rendu accessible, et avec quelles garde-fous. Pour les entreprises, gouvernements et chercheurs qui s'appuient sur Claude, cela signifie une puissance accrue mais aussi un risque de mauvais usage potentiellement inédit. Anthropic s'est toujours positionné comme le laboratoire d'IA le plus rigoureux en matière de sécurité, publiant régulièrement des « model cards » détaillant les risques évalués avant chaque lancement. La fuite autour de Mythos intervient dans un contexte de course effrénée entre OpenAI, Google DeepMind et Anthropic pour sortir des modèles toujours plus capables. La question centrale désormais : jusqu'où un laboratoire peut-il aller avant de décider de ne pas déployer ce qu'il a construit ?

UELes entreprises et institutions européennes utilisant Claude devront surveiller les conditions de déploiement de Mythos et les garde-fous imposés, notamment au regard des obligations d'évaluation des risques prévues par l'AI Act pour les modèles à usage général de forte puissance.

SécuritéOpinion
1 source
3VentureBeat AI 

Trois agents de codage IA ont laissé fuiter des secrets via une injection de prompt, un éditeur l'avait prédit

Un chercheur en sécurité de l'Université Johns Hopkins, Aonan Guan, accompagné de ses collègues Zhengyu Liu et Gavin Zhong, a publié la semaine dernière une divulgation technique intitulée "Comment and Control" démontrant qu'une simple injection de prompt dans le titre d'une pull request GitHub suffisait à compromettre trois agents de codage IA majeurs. L'attaque a forcé l'action Claude Code Security Review d'Anthropic à publier sa propre clé API en commentaire, et la même technique a fonctionné sur le Gemini CLI Action de Google ainsi que sur le Copilot Agent de GitHub (Microsoft), sans nécessiter aucune infrastructure externe. Les trois entreprises ont discrètement corrigé la faille : Anthropic l'a classée CVSS 9.4 Critique en versant une prime de 100 dollars, Google a payé 1 337 dollars, et GitHub a accordé 500 dollars via son programme Copilot Bounty. Aucune des trois n'avait publié de CVE officiel ni d'avis de sécurité public au moment de la divulgation. L'impact de cette vulnérabilité touche directement tous les dépôts GitHub utilisant le déclencheur pullrequesttarget, requis par la plupart des intégrations d'agents IA pour accéder aux secrets. Contrairement au déclencheur standard pull_request, ce mode injecte les secrets dans l'environnement d'exécution, exposant collaborateurs, champs de commentaires et flux de code automatisé à des acteurs malveillants. Merritt Baer, directrice de la sécurité chez Enkrypt AI et ancienne directrice adjointe de la sécurité chez AWS, résume l'enjeu sans détour : la protection doit se situer "à la frontière de l'action, pas à celle du modèle", c'est le runtime qui constitue le véritable périmètre d'exposition. Cette attaque illustre une surface de risque concrète pour toute organisation ayant intégré des agents IA dans ses pipelines de revue de code. Ce qui rend cet incident particulièrement révélateur, c'est que la fiche système d'Anthropic pour Claude Code Security Review indiquait explicitement que l'outil "n'est pas durci contre les injections de prompt", l'exploit n'a fait que confirmer ce qui était documenté. En comparaison, la fiche système d'OpenAI pour GPT-5.4 publie des évaluations d'injection au niveau du modèle mais ne documente pas la résistance au niveau du runtime ou de l'exécution des outils. Celle de Google pour Gemini 3.1 Pro, publiée en février, renvoie pour l'essentiel à une documentation plus ancienne et maintient son programme de red teaming entièrement interne, sans programme cyber externe. L'écart entre ce que les éditeurs documentent et ce qu'ils protègent réellement est désormais au coeur du débat sur la sécurité des agents IA déployés dans des environnements de développement sensibles.

UELes organisations européennes intégrant des agents IA (Claude Code, Gemini CLI, Copilot) dans leurs pipelines CI/CD GitHub sont directement exposées : tout dépôt utilisant le déclencheur `pullrequesttarget` peut avoir vu ses secrets fuiter, et une revue de configuration s'impose immédiatement.

💬 Anthropic a classé ça CVSS 9.4 et a payé 100 dollars de bounty. Cent dollars pour une fuite de clé API dans le titre d'une pull request, c'est le genre de disproportion qui dit tout sur comment ces outils ont été mis en prod. Le pire, c'est que c'était écrit noir sur blanc dans leur system card : "non durci contre les injections de prompt." Si tu utilises `pullrequesttarget` dans tes workflows GitHub avec un agent IA, va vérifier maintenant.

SécuritéActu
1 source
OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine
4La Tribune 

OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine

OpenAI, Anthropic et Google ont annoncé une collaboration inédite pour contrer ce que les trois entreprises qualifient de "distillation" de leurs modèles d'intelligence artificielle par des entités liées à la Chine. Ce phénomène consiste à utiliser les sorties des grands modèles américains pour entraîner des systèmes concurrents à moindre coût, contournant ainsi les investissements colossaux, plusieurs dizaines de milliards de dollars, réalisés par ces laboratoires. Les rivaux habituels ont décidé de partager leurs données de sécurité pour identifier et bloquer ces pratiques plus efficacement. Cette alliance soulève des enjeux considérables pour la compétitivité technologique américaine. La distillation permet théoriquement à des acteurs étrangers d'obtenir des capacités comparables à celles des modèles de pointe sans en supporter les coûts de recherche et développement, rééquilibrant ainsi le rapport de force dans la course mondiale à l'IA. Pour les trois entreprises, la menace est à la fois commerciale et stratégique : perdre cet avantage compétitif reviendrait à fragiliser une position que Washington considère désormais comme un élément de sécurité nationale à part entière. La démarche s'inscrit dans un contexte de tensions croissantes entre les États-Unis et la Chine sur le terrain technologique, après les restrictions à l'export de puces Nvidia et les débats autour de DeepSeek, le modèle chinois dont l'efficacité avait provoqué une onde de choc sur les marchés début 2025. En mutualisant leur veille, OpenAI, Anthropic et Google cherchent à établir un front commun que chaque entreprise isolément n'aurait pas les moyens de tenir face à des techniques d'extraction en constante évolution.

UELes laboratoires européens d'IA restent exposés aux mêmes pratiques de distillation sans mécanisme de protection collectif équivalent à celui que se dotent désormais les géants américains.

SécuritéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour