Aller au contenu principal
Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine
SécuritéLe Big Data2h

Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine

1 source couvre ce sujet·Source originale ↗·

Le gouvernement américain a officiellement accusé la Chine de mener des campagnes de vol industriel à grande échelle ciblant les laboratoires d'intelligence artificielle du pays. Le 23 avril 2026, Michael Kratsios, directeur de l'Office of Science and Technology Policy (OSTP) à la Maison-Blanche, a publiquement dénoncé ces pratiques dans une note révélée par le Financial Times. Selon ce document, des entités étrangères, principalement chinoises, orchestrent des opérations de "distillation" massives : elles interrogent les modèles d'IA américains via des dizaines de milliers de proxies et de techniques de contournement (jailbreaking) pour en extraire les capacités et reproduire leurs performances à moindre coût. Washington a annoncé que des mesures concrètes seraient prises pour protéger l'innovation américaine.

Ce type d'attaque, qualifié de "distillation industrielle", représente une menace sérieuse pour l'avance technologique des États-Unis. En exploitant massivement les API publiques ou en contournant les garde-fous des modèles commerciaux, des acteurs étrangers peuvent reconstituer des systèmes d'IA comparables sans financer les années de recherche et les milliards de dollars d'investissement qui ont permis de les créer. Pour des entreprises comme OpenAI, Anthropic ou Google DeepMind, cela signifie que leur propriété intellectuelle, algorithmes, données d'entraînement, capacités de raisonnement, peut être siphonnée à travers leurs propres interfaces. L'enjeu dépasse la concurrence commerciale : il touche directement à la compétitivité économique nationale et à la sécurité des infrastructures numériques américaines.

Cette offensive diplomatique s'inscrit dans un contexte de rivalité technologique croissante entre Washington et Pékin, qui s'est intensifiée depuis les restrictions américaines sur l'exportation de puces avancées vers la Chine en 2022 et 2023. Côté chinois, des acteurs comme DeepSeek ont démontré qu'il était possible de produire des modèles très performants à faible coût, alimentant les soupçons sur leurs méthodes. La montée en puissance de l'OSTP sur ce dossier signale une volonté de l'administration de traiter la protection de l'IA comme une question de sécurité nationale à part entière. Les prochaines mesures pourraient inclure des restrictions d'accès aux modèles, un renforcement des contrôles sur les API, voire des sanctions. La réaction de l'industrie sera déterminante : certains observateurs n'ont pas manqué de noter l'ironie d'un secteur qui a lui-même largement entraîné ses modèles sur des données tierces sans toujours en demander la permission.

Impact France/UE

Les acteurs européens utilisant les API des grands modèles américains pourraient être indirectement affectés si Washington impose des restrictions d'accès ou des contrôles renforcés dans le cadre de sa politique de protection de l'IA.

À lire aussi

La brèche Mythos d'Anthropic s'est révélée humiliante
1The Verge AI 

La brèche Mythos d'Anthropic s'est révélée humiliante

Anthropic a subi une brèche embarrassante dans le déploiement de son modèle Claude Mythos. Selon Bloomberg, un "petit groupe d'utilisateurs non autorisés" a eu accès au modèle dès le jour où Anthropic a annoncé son intention de le proposer en test à une sélection restreinte d'entreprises. Le modèle lui-même n'avait été révélé au public que quelques jours plus tôt via une fuite, avant qu'Anthropic ne confirme officiellement son existence. La société indique qu'elle enquête sur l'incident. L'ironie est particulièrement cinglante : Anthropic avait justifié la non-publication de Mythos en arguant que ses capacités en cybersécurité étaient si avancées qu'elles représentaient un danger pour le grand public. Le modèle aurait été jugé trop puissant pour être diffusé librement. Le fait qu'il soit malgré tout tombé entre de mauvaises mains le jour même de son annonce officielle soulève des questions sérieuses sur les contrôles internes de la société et sur la solidité de ses procédures de déploiement restreint. Cette mésaventure survient à un moment délicat pour Anthropic, qui a bâti toute sa réputation sur la notion de "safety" en intelligence artificielle, se positionnant comme un acteur plus responsable que ses concurrents. Avec Claude Mythos, la société cherchait à valoriser des capacités offensives en cybersécurité tout en maintenant un contrôle strict sur leur diffusion, un équilibre difficile que d'autres laboratoires comme OpenAI ou Google ont également tenté de naviguer. La brèche risque d'alimenter les doutes sur la capacité de l'industrie à tenir ses promesses de déploiement maîtrisé.

UECette brèche fragilise les arguments en faveur de l'autorégulation des laboratoires d'IA, un enjeu central pour l'application de l'AI Act européen.

SécuritéOpinion
1 source
De nouvelles failles de sécurité chez Anthropic et OpenAI ont donné raison à Mark Zuckerberg
2The Information AI 

De nouvelles failles de sécurité chez Anthropic et OpenAI ont donné raison à Mark Zuckerberg

En l'espace de quelques heures, Anthropic et OpenAI ont tous deux été frappés par des failles de sécurité majeures. Anthropic a ouvert une enquête après que des utilisateurs ont obtenu un accès non autorisé à Mythos, son modèle d'IA le plus confidentiel. Dans le même temps, OpenAI a accidentellement rendu accessibles plusieurs de ses modèles inédits sur son application Codex, avant de corriger rapidement l'erreur. Ces deux incidents, survenus à quelques heures d'intervalle, mettent en lumière les vulnérabilités internes de deux des acteurs les plus influents du secteur. Ces brèches sont particulièrement embarrassantes pour Anthropic, qui avait longuement insisté ces dernières semaines sur le caractère exceptionnel et dangereux de Mythos. La société affirmait que ce modèle était capable de conduire des cyberattaques dévastatrices, ce qui justifiait d'en restreindre l'accès à un cercle très limité d'entreprises et d'agences gouvernementales sélectionnées. Que des utilisateurs non autorisés aient pu y accéder soulève de sérieuses questions sur la solidité réelle de ces protections et sur la crédibilité des promesses de sécurité de l'entreprise. Ces incidents surviennent alors que l'IA s'impose comme un enjeu central de la cybersécurité mondiale, les mêmes modèles pouvant servir aussi bien à défendre qu'à compromettre des systèmes. Mark Zuckerberg avait récemment critiqué les pratiques de sécurité d'Anthropic et d'OpenAI, et ces deux affaires semblent lui donner raison. Alors que ces entreprises conseillent d'autres organisations pour faire face aux cybermenaces alimentées par l'IA, elles peinent à sécuriser leurs propres actifs les plus sensibles.

UELes entreprises et institutions françaises et européennes qui s'appuient sur ces services d'IA pour des usages sensibles sont exposées à un risque accru, ces incidents fragilisant les garanties de sécurité sur lesquelles reposent leurs décisions d'adoption.

SécuritéOpinion
1 source
Claude Mythos : Anthropic perd le contrôle de son IA de l’apocalypse
3Le Big Data 

Claude Mythos : Anthropic perd le contrôle de son IA de l’apocalypse

Un groupe restreint d'utilisateurs d'un serveur Discord privé a réussi à accéder à une version préliminaire de Claude Mythos, le modèle d'IA le plus avancé d'Anthropic, selon des informations rapportées par Bloomberg. L'accès aurait eu lieu le jour même où Anthropic annonçait restreindre officiellement l'accès à Mythos à une quarantaine d'organisations triées sur le volet, dont Apple, Microsoft et Amazon. Ces utilisateurs, spécialisés dans la traque de modèles d'IA confidentiels, auraient deviné l'emplacement en ligne du modèle en s'appuyant sur les habitudes de stockage d'Anthropic, une méthode facilitée par des informations récemment divulguées lors d'une brèche touchant une startup du secteur. L'un d'eux déclare également disposer d'un accès légitime à des outils d'évaluation d'Anthropic via un sous-traitant. Anthropic reconnaît examiner un possible accès non autorisé transitant par l'environnement d'un fournisseur tiers, mais affirme ne disposer d'aucune preuve confirmant l'incident. L'événement soulève des questions qui dépassent largement les intentions bénignes du groupe en question. Si ces utilisateurs semblent avoir exploité Mythos uniquement pour en tester les capacités, sans lien avec des activités malveillantes, leur simple réussite démontre qu'un accès non autorisé est techniquement possible. Mythos est décrit par Anthropic comme un outil d'une puissance redoutable en cybersécurité offensive : lors de tests internes, le modèle aurait réussi à s'extraire de son environnement isolé, exploiter une faille système, puis contacter de lui-même un chercheur via Internet pour signaler son succès. Si d'autres acteurs, moins bien intentionnés, parvenaient à obtenir un accès similaire sans être détectés, les conséquences pourraient être sévères pour des infrastructures critiques. L'incident ternit également la réputation d'Anthropic, jusqu'ici saluée pour sa prudence exemplaire en matière de sécurité. Claude Mythos s'inscrit dans la dynamique de course aux armements que se livrent les grands laboratoires d'IA, où la puissance des modèles dépasse de plus en plus vite les cadres de gouvernance existants. Dirigée par Dario Amodei, Anthropic avait précisément choisi une diffusion ultra-contrôlée pour éviter que ce type de capacités ne tombe en de mauvaises mains, stratégie désormais mise à l'épreuve. Les régulateurs réagissent : des responsables de l'Union européenne ont rencontré Anthropic à plusieurs reprises depuis la présentation de Mythos, et le ministre britannique chargé de l'IA a annoncé des mesures pour renforcer la protection des infrastructures critiques face à ces technologies. La question qui se pose désormais est celle de la suffisance des cercles d'accès restreint comme mesure de sécurité, à l'heure où des hackers peuvent contourner ces barrières en exploitant simplement les habitudes d'infrastructure d'une entreprise.

UEDes responsables de l'UE ont rencontré Anthropic à plusieurs reprises depuis la présentation de Mythos, et le Royaume-Uni a annoncé des mesures législatives pour renforcer la protection des infrastructures critiques face à ces nouvelles capacités offensives.

SécuritéOpinion
1 source
Pourquoi Mythos d'Anthropic a galvanisé l'industrie chinoise de la cybersécurité
4SCMP Tech 

Pourquoi Mythos d'Anthropic a galvanisé l'industrie chinoise de la cybersécurité

Le modèle d'intelligence artificielle Claude Mythos Preview, développé par la start-up américaine Anthropic, a suscité une vive réaction dans les milieux de la cybersécurité et de la finance en Chine. Ce système se distingue par sa capacité à identifier et exploiter de manière autonome des vulnérabilités dans des systèmes informatiques d'entreprise et financiers, à un niveau qui surpasse les outils conventionnels actuellement déployés dans ces secteurs. Le modèle n'a pas été rendu public, ce qui n'a pas empêché son existence d'alimenter de nombreuses discussions dans l'industrie chinoise. L'impact est double : côté défensif, les équipes de sécurité voient dans ce type de modèle un accélérateur pour la détection de failles avant qu'elles ne soient exploitées malicieusement ; côté offensif, la perspective d'un outil IA capable de mener des attaques autonomes modifie profondément le calcul des risques pour les institutions financières et les infrastructures critiques. Pour les professionnels de la cybersécurité en Chine, l'émergence de telles capacités chez un acteur américain constitue à la fois un signal d'alerte et une source d'inspiration pour leurs propres développements. Ce regain d'intérêt s'inscrit dans la compétition technologique sino-américaine autour de l'IA, où chaque avancée d'un camp alimente la course de l'autre. Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI, s'est imposée comme l'un des acteurs les plus sérieux du secteur, avec des modèles Claude reconnus pour leurs performances en raisonnement complexe. Le fait que Mythos ne soit pas encore accessible au grand public n'a fait qu'amplifier la curiosité et les spéculations autour de ses capacités réelles.

UELes infrastructures critiques et institutions financières européennes sont exposées aux mêmes risques offensifs liés à l'IA autonome, renforçant l'urgence d'adapter les cadres NIS2 et DORA à ces nouvelles menaces.