Aller au contenu principal
SécuritéArs Technica AI2h

Les États-Unis accusent la Chine de vol de données IA à grande échelle, Pékin dément

1 source couvre ce sujet·Source originale ↗·

Les États-Unis se préparent à durcir leur réponse face à ce qu'ils qualifient de vol massif de propriété intellectuelle dans le domaine de l'intelligence artificielle. Michael Kratsios, directeur du Bureau de la politique scientifique et technologique de la Maison Blanche, a alerté dans une note interne consultée par le Financial Times que "des entités étrangères, principalement basées en Chine, mènent des campagnes délibérées et à l'échelle industrielle pour distiller les systèmes d'IA frontière américains." Les accusations concrètes s'accumulent depuis plusieurs mois : en janvier, Google a signalé que des acteurs "commercialement motivés" avaient sollicité son modèle Gemini plus de 100 000 fois pour entraîner des copies moins coûteuses. En février, Anthropic a révélé que les entreprises chinoises DeepSeek, Moonshot et MiniMax avaient généré plus de 16 millions d'échanges avec Claude via environ 24 000 comptes frauduleux. OpenAI a confirmé au même moment que la majorité des attaques qu'elle détecte proviennent de Chine.

La technique incriminée, appelée "distillation", consiste à interroger massivement un modèle IA existant pour en extraire les comportements et reproduire ses capacités à moindre coût. Pour les laboratoires américains, il s'agit d'un contournement délibéré de leur avantage concurrentiel : des années de recherche et des milliards d'investissements potentiellement captés à travers de simples appels API. L'enjeu dépasse le seul plan commercial, car pour Washington, ces pratiques risquent d'accélérer la montée en puissance de la Chine dans la course à l'IA, réduisant l'écart technologique sans que Pékin n'ait eu à supporter les coûts de développement correspondants.

La cristallisation de ces accusations coïncide avec le lancement de DeepSeek début 2025, un modèle chinois dont les performances ont suscité l'étonnement dans l'industrie et rapidement fait naître des soupçons. OpenAI avait affirmé que ses propres sorties de modèle auraient servi à entraîner ce concurrent. La Chine a rejeté l'ensemble de ces accusations, les qualifiant de "calomnies". Le contexte est celui d'une rivalité technologique croissante entre les deux puissances, déjà marquée par des contrôles américains à l'exportation sur les semi-conducteurs et les modèles avancés. La réponse réglementaire en préparation pourrait inclure des restrictions d'accès plus strictes aux API des grands modèles et des obligations de surveillance renforcées pour les entreprises du secteur.

Impact France/UE

Les entreprises européennes dépendant des API des grands modèles américains pourraient être indirectement affectées si Washington durcit les contrôles d'accès en réponse aux abus détectés.

À lire aussi

1MarkTechPost 

Mend.io publie un cadre de gouvernance de la sécurité IA couvrant inventaire des actifs, niveaux de risque et chaîne d'approvisionnement

La société Mend.io, spécialisée en sécurité applicative, vient de publier un guide pratique intitulé "AI Security Governance: A Practical Framework for Security and Development Teams". Ce document s'adresse directement aux responsables AppSec, chefs d'équipes ingénierie et data scientists confrontés à une prolifération incontrôlée des outils d'IA au sein de leurs organisations. Le cadre propose quatre piliers concrets : un inventaire exhaustif des actifs IA, un système de classification des risques en trois niveaux, une gestion de la chaîne d'approvisionnement des modèles, et un modèle de maturité progressif. Le système de scoring attribue à chaque déploiement IA une note de 1 à 3 sur cinq dimensions, sensibilité des données, autorité décisionnelle, accès systèmes, exposition externe et origine dans la chaîne d'approvisionnement, pour un total entre 5 et 15. Un score de 5 à 7 place l'actif en Tier 1 (revue standard), 8 à 11 en Tier 2 (audits comportementaux trimestriels), et 12 à 15 en Tier 3, qui impose une évaluation complète, une supervision continue et un plan de réponse aux incidents opérationnel avant tout déploiement. Ce framework répond à un problème devenu critique dans presque toutes les grandes entreprises : les outils d'IA entrent en production bien avant que les équipes sécurité n'en soient informées. Un développeur installe GitHub Copilot, une équipe produit intègre discrètement un modèle tiers dans une branche de fonctionnalité, un analyste interroge un LLM externe pour ses rapports. Résultat : des modèles traitent des données sensibles et prennent des décisions réelles sans aucun contrôle formalisé. Mend insiste sur un point souvent négligé : le niveau de risque d'un modèle peut passer brutalement du Tier 1 au Tier 3 sans que son code change, simplement parce qu'on lui a accordé un accès en écriture à une base de données de production ou qu'on l'a exposé à des utilisateurs externes. Le guide exige aussi d'appliquer le principe du moindre privilège aux systèmes IA exactement comme aux utilisateurs humains : clés API à portée restreinte, accès en lecture seule par défaut, et filtrage des sorties pour les données régulées comme les numéros de sécurité sociale, les cartes bancaires ou les clés d'API. Le document s'inscrit dans une tendance plus large qui voit la sécurité logicielle traditionnelle s'adapter à l'ère des modèles de fondation. Mend étend notamment le concept de SBOM (Software Bill of Materials) en introduisant un "AI-BOM", qui documente non seulement les dépendances logicielles, mais aussi les datasets d'entraînement, les entrées de fine-tuning et l'infrastructure d'inférence. Face à des outils comme OpenAI, Google Gemini, Notion AI ou Codeium désormais omniprésents dans les workflows professionnels, l'enjeu est de normaliser une gouvernance qui reste encore absente dans la majorité des organisations. Le code généré par IA est traité comme une entrée non fiable, soumise aux mêmes analyses SAST, SCA et détection de secrets que le code humain, un changement de posture qui pourrait redéfinir les standards de l'industrie dans les prochains mois.

UECe cadre de gouvernance par niveaux de risque peut aider les entreprises européennes à structurer leur mise en conformité avec l'AI Act, qui impose une classification similaire des systèmes d'IA selon leur niveau de risque.

SécuritéOpinion
1 source
La brèche Mythos d'Anthropic s'est révélée humiliante
2The Verge AI 

La brèche Mythos d'Anthropic s'est révélée humiliante

Anthropic a subi une brèche embarrassante dans le déploiement de son modèle Claude Mythos. Selon Bloomberg, un "petit groupe d'utilisateurs non autorisés" a eu accès au modèle dès le jour où Anthropic a annoncé son intention de le proposer en test à une sélection restreinte d'entreprises. Le modèle lui-même n'avait été révélé au public que quelques jours plus tôt via une fuite, avant qu'Anthropic ne confirme officiellement son existence. La société indique qu'elle enquête sur l'incident. L'ironie est particulièrement cinglante : Anthropic avait justifié la non-publication de Mythos en arguant que ses capacités en cybersécurité étaient si avancées qu'elles représentaient un danger pour le grand public. Le modèle aurait été jugé trop puissant pour être diffusé librement. Le fait qu'il soit malgré tout tombé entre de mauvaises mains le jour même de son annonce officielle soulève des questions sérieuses sur les contrôles internes de la société et sur la solidité de ses procédures de déploiement restreint. Cette mésaventure survient à un moment délicat pour Anthropic, qui a bâti toute sa réputation sur la notion de "safety" en intelligence artificielle, se positionnant comme un acteur plus responsable que ses concurrents. Avec Claude Mythos, la société cherchait à valoriser des capacités offensives en cybersécurité tout en maintenant un contrôle strict sur leur diffusion, un équilibre difficile que d'autres laboratoires comme OpenAI ou Google ont également tenté de naviguer. La brèche risque d'alimenter les doutes sur la capacité de l'industrie à tenir ses promesses de déploiement maîtrisé.

UECette brèche fragilise les arguments en faveur de l'autorégulation des laboratoires d'IA, un enjeu central pour l'application de l'AI Act européen.

SécuritéOpinion
1 source
Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine
3Le Big Data 

Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine

Le gouvernement américain a officiellement accusé la Chine de mener des campagnes de vol industriel à grande échelle ciblant les laboratoires d'intelligence artificielle du pays. Le 23 avril 2026, Michael Kratsios, directeur de l'Office of Science and Technology Policy (OSTP) à la Maison-Blanche, a publiquement dénoncé ces pratiques dans une note révélée par le Financial Times. Selon ce document, des entités étrangères, principalement chinoises, orchestrent des opérations de "distillation" massives : elles interrogent les modèles d'IA américains via des dizaines de milliers de proxies et de techniques de contournement (jailbreaking) pour en extraire les capacités et reproduire leurs performances à moindre coût. Washington a annoncé que des mesures concrètes seraient prises pour protéger l'innovation américaine. Ce type d'attaque, qualifié de "distillation industrielle", représente une menace sérieuse pour l'avance technologique des États-Unis. En exploitant massivement les API publiques ou en contournant les garde-fous des modèles commerciaux, des acteurs étrangers peuvent reconstituer des systèmes d'IA comparables sans financer les années de recherche et les milliards de dollars d'investissement qui ont permis de les créer. Pour des entreprises comme OpenAI, Anthropic ou Google DeepMind, cela signifie que leur propriété intellectuelle, algorithmes, données d'entraînement, capacités de raisonnement, peut être siphonnée à travers leurs propres interfaces. L'enjeu dépasse la concurrence commerciale : il touche directement à la compétitivité économique nationale et à la sécurité des infrastructures numériques américaines. Cette offensive diplomatique s'inscrit dans un contexte de rivalité technologique croissante entre Washington et Pékin, qui s'est intensifiée depuis les restrictions américaines sur l'exportation de puces avancées vers la Chine en 2022 et 2023. Côté chinois, des acteurs comme DeepSeek ont démontré qu'il était possible de produire des modèles très performants à faible coût, alimentant les soupçons sur leurs méthodes. La montée en puissance de l'OSTP sur ce dossier signale une volonté de l'administration de traiter la protection de l'IA comme une question de sécurité nationale à part entière. Les prochaines mesures pourraient inclure des restrictions d'accès aux modèles, un renforcement des contrôles sur les API, voire des sanctions. La réaction de l'industrie sera déterminante : certains observateurs n'ont pas manqué de noter l'ironie d'un secteur qui a lui-même largement entraîné ses modèles sur des données tierces sans toujours en demander la permission.

UELes acteurs européens utilisant les API des grands modèles américains pourraient être indirectement affectés si Washington impose des restrictions d'accès ou des contrôles renforcés dans le cadre de sa politique de protection de l'IA.

SécuritéReglementation
1 source
De nouvelles failles de sécurité chez Anthropic et OpenAI ont donné raison à Mark Zuckerberg
4The Information AI 

De nouvelles failles de sécurité chez Anthropic et OpenAI ont donné raison à Mark Zuckerberg

En l'espace de quelques heures, Anthropic et OpenAI ont tous deux été frappés par des failles de sécurité majeures. Anthropic a ouvert une enquête après que des utilisateurs ont obtenu un accès non autorisé à Mythos, son modèle d'IA le plus confidentiel. Dans le même temps, OpenAI a accidentellement rendu accessibles plusieurs de ses modèles inédits sur son application Codex, avant de corriger rapidement l'erreur. Ces deux incidents, survenus à quelques heures d'intervalle, mettent en lumière les vulnérabilités internes de deux des acteurs les plus influents du secteur. Ces brèches sont particulièrement embarrassantes pour Anthropic, qui avait longuement insisté ces dernières semaines sur le caractère exceptionnel et dangereux de Mythos. La société affirmait que ce modèle était capable de conduire des cyberattaques dévastatrices, ce qui justifiait d'en restreindre l'accès à un cercle très limité d'entreprises et d'agences gouvernementales sélectionnées. Que des utilisateurs non autorisés aient pu y accéder soulève de sérieuses questions sur la solidité réelle de ces protections et sur la crédibilité des promesses de sécurité de l'entreprise. Ces incidents surviennent alors que l'IA s'impose comme un enjeu central de la cybersécurité mondiale, les mêmes modèles pouvant servir aussi bien à défendre qu'à compromettre des systèmes. Mark Zuckerberg avait récemment critiqué les pratiques de sécurité d'Anthropic et d'OpenAI, et ces deux affaires semblent lui donner raison. Alors que ces entreprises conseillent d'autres organisations pour faire face aux cybermenaces alimentées par l'IA, elles peinent à sécuriser leurs propres actifs les plus sensibles.

UELes entreprises et institutions françaises et européennes qui s'appuient sur ces services d'IA pour des usages sensibles sont exposées à un risque accru, ces incidents fragilisant les garanties de sécurité sur lesquelles reposent leurs décisions d'adoption.

SécuritéOpinion
1 source