Aller au contenu principal
Mistral AI piraté ? Un hacker met en vente 5 Go de code source et 450 dépôts internes pour 25 000 dollars
SécuritéNumerama1h

Mistral AI piraté ? Un hacker met en vente 5 Go de code source et 450 dépôts internes pour 25 000 dollars

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Depuis le 13 mai 2026, un vendeur anonyme propose sur un forum cybercriminel l'accès à environ 5 Go de données attribuées à Mistral AI : près de 450 dépôts privés et du code source interne, mis en vente pour 25 000 dollars. La startup française d'intelligence artificielle, fondée en 2023 et valorisée à plusieurs milliards d'euros, n'a pas confirmé publiquement la fuite. Toutefois, des informations indiquent que Mistral AI mène une enquête interne sur un incident de sécurité distinct, lié cette fois à une attaque de type supply chain, ce qui suggère que l'entreprise a bien subi une intrusion d'une forme ou d'une autre.

L'exposition potentielle de 450 dépôts privés représente un risque majeur pour une entreprise dont la valeur repose précisément sur ses modèles propriétaires et son infrastructure technique. Si la fuite est authentique, des concurrents pourraient accéder à des algorithmes, des pipelines d'entraînement ou des données de configuration qui constituent le cœur compétitif de Mistral. Pour les clients enterprise utilisant les API de la startup, la question de la sécurité de leurs données transmises se pose également.

Mistral AI s'est imposée comme le principal acteur européen de l'IA générative, face aux géants américains OpenAI et Anthropic. La startup a levé des centaines de millions d'euros en moins de deux ans et collabore avec des institutions publiques françaises, ce qui rend toute compromission particulièrement sensible. Les attaques supply chain, qui visent les outils et dépendances utilisés par les équipes de développement plutôt que les systèmes en production, sont en forte hausse dans le secteur tech depuis 2024, et ciblent désormais explicitement les startups IA à forte croissance.

Impact France/UE

La compromission potentielle de Mistral AI, principal acteur européen de l'IA générative collaborant avec des institutions publiques françaises, menace directement la souveraineté technologique française et pourrait exposer les données des clients enterprise européens utilisant ses API.

💬 Le point de vue du dev

25 000 dollars pour les pipelines d'entraînement de Mistral, c'est presque insultant comme prix vu la valorisation. Si c'est authentique, le vrai dégât c'est pas le code volé, c'est la confiance des clients enterprise et des institutions publiques qui s'évapore d'un coup. Une supply chain attack bien menée, ça ne se voit pas venir, et visiblement même les boîtes les mieux financées du moment ne sont pas immunisées.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars
1The Information AI 

Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars

Cisco est en négociations avancées pour acquérir Astrix Security, une startup israélienne de cybersécurité fondée il y a cinq ans, pour un montant compris entre 250 et 350 millions de dollars. Cette somme représenterait une prime d'au moins 25 % par rapport à la dernière valorisation de la société, estimée à environ 200 millions de dollars. Astrix commercialise des logiciels permettant de surveiller et sécuriser les agents IA, ces programmes capables d'agir automatiquement au nom des utilisateurs sur leurs appareils. Cette acquisition potentielle illustre l'urgence croissante pour les grandes entreprises technologiques de se doter d'outils face aux risques que posent les agents IA. En quelques mois, leur adoption a explosé dans les environnements professionnels, soulevant des questions inédites de sécurité : un agent mal configuré ou compromis peut accéder à des données sensibles, exécuter des actions non autorisées ou servir de vecteur d'attaque. Pour les entreprises clientes de Cisco, disposer d'une couche de protection dédiée devient rapidement une priorité opérationnelle. Cisco s'inscrit dans une tendance de fond : les grands éditeurs de logiciels, de Microsoft à Palo Alto Networks, cherchent à intégrer des capacités de sécurité spécifiques aux agents IA, soit en développant leurs propres fonctionnalités, soit en rachetant des startups spécialisées. Fondée en Israël, qui reste un vivier mondial de talents en cybersécurité, Astrix a su se positionner tôt sur ce créneau émergent. Si l'accord se conclut, il signalerait que la sécurisation des agents IA est désormais considérée comme un marché à part entière, et non plus un simple ajout aux solutions existantes.

UELes entreprises européennes clientes de Cisco pourraient bénéficier de capacités renforcées pour sécuriser leurs agents IA, un besoin croissant dans les environnements professionnels soumis au RGPD et à l'AI Act.

SécuritéActu
1 source
Après la fuite du code source de Claude Code : 5 actions pour les responsables sécurité en entreprise
2VentureBeat AI 

Après la fuite du code source de Claude Code : 5 actions pour les responsables sécurité en entreprise

Le 31 mars 2026, Anthropic a accidentellement inclus un fichier source map de 59,8 Mo dans la version 2.1.88 de son package npm @anthropic-ai/claude-code, exposant 512 000 lignes de TypeScript non obfusqué réparties dans 1 906 fichiers. Le code lisible contenait l'intégralité du modèle de permissions, les 23 validateurs de sécurité bash, 44 drapeaux de fonctionnalités inédites, ainsi que des références à des modèles non encore annoncés — dont un dénommé Claude Mythos. Le chercheur en sécurité Chaofan Shou a rendu la découverte publique sur X vers 4h23 UTC. Des dépôts miroirs ont proliféré sur GitHub en quelques heures. Anthropic a confirmé qu'il s'agissait d'une erreur humaine de packaging, sans exposition de données clients ni de poids de modèles. La société a émis une demande de retrait DMCA, mais celle-ci a touché par erreur plus de 8 000 dépôts et forks — bien au-delà du dépôt ciblé — avant d'être partiellement rétractée. Entre-temps, des développeurs avaient déjà utilisé d'autres outils d'IA pour réécrire les fonctionnalités de Claude Code dans d'autres langages de programmation, ces réécritures devenant elles-mêmes virales. L'impact dépasse la simple fuite de code. Les 512 000 lignes révèlent l'architecture complète de l'agent : un moteur de requêtes de 46 000 lignes gérant la compression de contexte sur trois niveaux, plus de 40 outils avec leurs schémas et contrôles de permissions granulaires, et 2 500 lignes de validation bash couvrant des vecteurs d'attaque sophistiqués comme l'injection d'espaces Unicode zéro-largeur ou les contournements de tokens malformés découverts via HackerOne. Des concurrents et des startups disposent désormais d'une feuille de route détaillée pour reproduire ces fonctionnalités sans reverse engineering. La coïncidence de timing aggrave la situation : dans la même fenêtre d'installation (entre 00h21 et 03h29 UTC), des versions malveillantes du package npm axios contenant un cheval de Troie d'accès distant étaient actives sur le même registre. Toute équipe ayant mis à jour Claude Code pendant cette période a potentiellement été exposée aux deux menaces simultanément. Ce n'est pas un incident isolé. Cinq jours avant la fuite du code source, une mauvaise configuration CMS avait déjà exposé près de 3 000 assets internes non publiés d'Anthropic. Gartner, dans une analyse publiée le jour même, qualifie l'ensemble des incidents de mars de signal systémique révélant un écart entre les capacités produit d'Anthropic et sa maturité opérationnelle. L'analyste note également un détail juridique lourd de conséquences : selon les propres déclarations publiques d'Anthropic, 90 % de Claude Code est généré par IA. Or, la loi américaine sur le droit d'auteur exige une paternité humaine — et la Cour suprême a refusé en mars 2026 de revoir ce standard. La protection intellectuelle du code exposé est donc considérablement affaiblie, ce qui ouvre la voie à une utilisation et une réutilisation difficiles à contester légalement.

UELes entreprises françaises ayant mis à jour Claude Code entre 00h21 et 03h29 UTC le 31 mars 2026 ont potentiellement été exposées simultanément à la fuite du code source Anthropic et au cheval de Troie dans le package axios, rendant un audit immédiat des dépendances npm nécessaire.

💬 Le truc qui m'a frappé, c'est pas la fuite en elle-même, c'est le détail juridique en fin d'article : 90 % du code est généré par IA, donc quasiment pas de protection intellectuelle selon le droit américain actuel, ce qui signifie que tous les concurrents qui viennent de récupérer ces 512 000 lignes peuvent les réutiliser sans grand risque légal. Et la DMCA lancée à l'aveugle sur 8 000 repos, ça finit d'illustrer le gap entre la vitesse produit d'Anthropic et leur maturité opérationnelle. Gartner a raison pour une fois.

SécuritéOpinion
1 source
Une commande transforme tout dépôt open source en porte dérobée pour agents IA, indétectable par les scanners (OpenClaw)
3VentureBeat AI 

Une commande transforme tout dépôt open source en porte dérobée pour agents IA, indétectable par les scanners (OpenClaw)

Une équipe de chercheurs de l'Université de Hong Kong a publié en mars 2026 un outil baptisé CLI-Anything, capable d'analyser le code source de n'importe quel dépôt open source et de générer automatiquement une interface en ligne de commande (CLI) exploitable par un agent IA en une seule instruction. Compatible avec Claude Code, Codex, Cursor, GitHub Copilot CLI et d'autres, l'outil a dépassé les 30 000 étoiles sur GitHub en deux mois. Mais c'est ce que CLI-Anything génère qui inquiète les chercheurs en sécurité : des fichiers SKILL.md, des définitions d'instructions en langage naturel que les agents IA utilisent pour comprendre comment opérer un logiciel. Or en février 2026, les travaux ToxicSkills de Snyk avaient déjà recensé 76 charges malveillantes confirmées dans des fichiers de ce type sur ClawHub et skills.sh. La communauté offensive discute désormais ouvertement des implications sur X et dans les forums de sécurité. Le problème central est qu'aucun scanner de sécurité existant n'est équipé pour détecter des instructions malveillantes glissées dans des définitions de compétences pour agents IA. Les outils SAST analysent la syntaxe du code source ; les outils SCA vérifient les versions des dépendances. Ni l'un ni l'autre ne comprend la couche sémantique où opèrent les descriptions d'outils MCP, les prompts d'agents et les fichiers de règles. Cisco l'a confirmé en avril dans un billet annonçant son AI Agent Security Scanner, précisant que ces outils traditionnels "n'ont pas été conçus pour cela". Merritt Baer, directrice de la sécurité chez Enkrypt AI et ancienne Deputy CISO chez AWS, résume : "SAST et SCA ont été construits pour le code et les dépendances. Ils n'inspectent pas les instructions." Une définition de compétence empoisonnée ne déclenche aucune CVE et n'apparaît jamais dans un SBOM. Cette faille structurelle s'inscrit dans une évolution plus large des chaînes d'approvisionnement logicielles. Les outils de type agent bridge, MCP connectors ou fichiers de règles Cursor constituent une troisième couche entre le code et les dépendances : des fichiers de configuration en langage naturel qui, sans ressembler à du code, s'exécutent comme du code. Des chercheurs de quatre universités (Griffith, Nanyang, UNSW et Tokyo) ont documenté en avril la technique DDIPE (Document-Driven Implicit Payload Execution), qui intègre une logique malveillante dans des exemples de documentation de compétences. Sur quatre frameworks d'agents et cinq grands modèles de langage, le taux de contournement a atteint entre 11,6 % et 33,5 %, et 2,5 % des échantillons ont échappé aux quatre couches de détection testées. L'industrie se trouve donc dans une fenêtre de pré-exploitation : l'attaque est théorisée, l'outil est déployé, et les défenses n'ont pas encore de catégorie pour nommer ce qu'elles cherchent.

UELes entreprises et institutions européennes utilisant des agents IA basés sur des fichiers de règles ou connecteurs MCP sont exposées à cette faille structurelle dans leurs chaînes d'approvisionnement logicielles, sans outil de détection disponible à ce jour.

💬 Le vrai problème, c'est qu'on a ajouté une couche entière dans la chaîne logicielle, des fichiers en langage naturel qui s'exécutent comme du code, sans que personne ait d'outil pour la surveiller. SAST et SCA ont été conçus pour la syntaxe et les dépendances, pas pour la couche sémantique où tournent tes agents. Ce qui m'inquiète le plus : l'attaque est théorisée, l'outil est déployé, et les défenses n'ont même pas encore de catégorie pour nommer ce qu'elles cherchent.

SécuritéOpinion
1 source
Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux
401net 

Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux

Des cybercriminels ont rapidement exploité la fuite accidentelle du code source de Claude Code, l'assistant de programmation d'Anthropic, pour monter une campagne de distribution de malwares ciblant les développeurs sur GitHub. Des dépôts frauduleux, se présentant comme hébergeant l'intégralité du code source de l'IA, ont été mis en ligne peu après l'incident, embarquant en réalité deux malwares distincts dont Vidar, un infostealer particulièrement redoutable capable de dérober mots de passe, cookies de session et données de portefeuilles crypto. Cette attaque illustre la rapidité avec laquelle les acteurs malveillants monétisent les incidents de sécurité médiatisés. Les développeurs, naturellement curieux de consulter un code source aussi rare qu'inattendu, constituent une cible de choix : leurs machines hébergent souvent des clés API, des accès à des infrastructures cloud et des secrets d'entreprise à haute valeur. Une compromission réussie peut donc avoir des conséquences bien au-delà de la machine individuelle. La fuite originale chez Anthropic s'inscrit dans une série d'incidents touchant les grandes entreprises d'IA, dont les bases de code sont devenues des actifs stratégiques extrêmement convoités. Vidar est historiquement distribué via des canaux similaires, notamment de faux outils ou de fausses ressources techniques sur des plateformes de développement. Les développeurs sont invités à vérifier scrupuleusement l'authenticité des dépôts avant tout clonage, en particulier lorsqu'ils font suite à un événement médiatique récent.

UELes développeurs français et européens actifs sur GitHub sont directement exposés à cette campagne de distribution de malware ciblant les environnements de développement et leurs secrets d'entreprise.

💬 Les hackers n'ont pas attendu 48h. Dès que la fuite a fait les tours, les faux dépôts étaient en ligne avec Vidar planqué dedans, parce que les devs sont des cibles en or : clés API, accès cloud, tokens d'infra sur la même machine. Vérifie ce que tu clones, surtout quand ça sort pile après un incident qui fait les unes.

SécuritéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour