Aller au contenu principal
SécuritéFrandroid1sem

La Chine clone-t-elle l’IA américaine ? La Maison-Blanche accuse son rival de pillage industriel

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :01net

La Maison-Blanche a publié un mémorandum interne révélant que des entreprises chinoises mènent des opérations de piratage industriel visant à reproduire les grands modèles d'intelligence artificielle américains, notamment ChatGPT d'OpenAI et Claude d'Anthropic. La technique incriminée est le "model distillation" : en interrogeant massivement un modèle existant, il est possible d'entraîner un modèle concurrent à bien moindre coût, sans accéder directement aux poids ou au code source de l'original. Cette pratique permettrait à des acteurs chinois de contourner des années de recherche et des milliards de dollars d'investissement.

L'enjeu est considérable pour les entreprises américaines qui ont engagé des ressources colossales dans le développement de leurs modèles. Si le clonage à grande échelle est confirmé, c'est l'avantage compétitif fondamental de l'industrie IA américaine qui est menacé : non pas le code, mais l'intelligence accumulée dans les paramètres des modèles. Pour les utilisateurs et les investisseurs, cela soulève des questions sur la viabilité des barrières à l'entrée dans ce secteur et sur la capacité des entreprises à rentabiliser leurs recherches face à des concurrents qui s'approprient leurs résultats.

Cette accusation s'inscrit dans un contexte de rivalité technologique intense entre Washington et Pékin. Le phénomène avait déjà éclaté au grand jour début 2025 avec DeepSeek, dont plusieurs chercheurs avaient soupçonné qu'il s'était appuyé sur des sorties de ChatGPT pour s'entraîner. Les États-Unis ont depuis renforcé les contrôles à l'exportation sur les puces Nvidia destinées à la Chine, mais ces restrictions ne bloquent pas les attaques par distillation, qui n'exigent qu'un accès aux API publiques.

Impact France/UE

La rivalité sino-américaine sur l'IA renforce les enjeux de souveraineté technologique en Europe, où les institutions et régulateurs pourraient être amenés à encadrer l'accès aux API des grands modèles pour limiter des risques similaires de distillation à grande échelle.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les États-Unis accusent la Chine de vol de données IA à grande échelle, Pékin dément
1Ars Technica AI 

Les États-Unis accusent la Chine de vol de données IA à grande échelle, Pékin dément

Les États-Unis se préparent à durcir leur réponse face à ce qu'ils qualifient de vol massif de propriété intellectuelle dans le domaine de l'intelligence artificielle. Michael Kratsios, directeur du Bureau de la politique scientifique et technologique de la Maison Blanche, a alerté dans une note interne consultée par le Financial Times que "des entités étrangères, principalement basées en Chine, mènent des campagnes délibérées et à l'échelle industrielle pour distiller les systèmes d'IA frontière américains." Les accusations concrètes s'accumulent depuis plusieurs mois : en janvier, Google a signalé que des acteurs "commercialement motivés" avaient sollicité son modèle Gemini plus de 100 000 fois pour entraîner des copies moins coûteuses. En février, Anthropic a révélé que les entreprises chinoises DeepSeek, Moonshot et MiniMax avaient généré plus de 16 millions d'échanges avec Claude via environ 24 000 comptes frauduleux. OpenAI a confirmé au même moment que la majorité des attaques qu'elle détecte proviennent de Chine. La technique incriminée, appelée "distillation", consiste à interroger massivement un modèle IA existant pour en extraire les comportements et reproduire ses capacités à moindre coût. Pour les laboratoires américains, il s'agit d'un contournement délibéré de leur avantage concurrentiel : des années de recherche et des milliards d'investissements potentiellement captés à travers de simples appels API. L'enjeu dépasse le seul plan commercial, car pour Washington, ces pratiques risquent d'accélérer la montée en puissance de la Chine dans la course à l'IA, réduisant l'écart technologique sans que Pékin n'ait eu à supporter les coûts de développement correspondants. La cristallisation de ces accusations coïncide avec le lancement de DeepSeek début 2025, un modèle chinois dont les performances ont suscité l'étonnement dans l'industrie et rapidement fait naître des soupçons. OpenAI avait affirmé que ses propres sorties de modèle auraient servi à entraîner ce concurrent. La Chine a rejeté l'ensemble de ces accusations, les qualifiant de "calomnies". Le contexte est celui d'une rivalité technologique croissante entre les deux puissances, déjà marquée par des contrôles américains à l'exportation sur les semi-conducteurs et les modèles avancés. La réponse réglementaire en préparation pourrait inclure des restrictions d'accès plus strictes aux API des grands modèles et des obligations de surveillance renforcées pour les entreprises du secteur.

UELes entreprises européennes dépendant des API des grands modèles américains pourraient être indirectement affectées si Washington durcit les contrôles d'accès en réponse aux abus détectés.

SécuritéActu
1 source
Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine
2Le Big Data 

Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine

Le gouvernement américain a officiellement accusé la Chine de mener des campagnes de vol industriel à grande échelle ciblant les laboratoires d'intelligence artificielle du pays. Le 23 avril 2026, Michael Kratsios, directeur de l'Office of Science and Technology Policy (OSTP) à la Maison-Blanche, a publiquement dénoncé ces pratiques dans une note révélée par le Financial Times. Selon ce document, des entités étrangères, principalement chinoises, orchestrent des opérations de "distillation" massives : elles interrogent les modèles d'IA américains via des dizaines de milliers de proxies et de techniques de contournement (jailbreaking) pour en extraire les capacités et reproduire leurs performances à moindre coût. Washington a annoncé que des mesures concrètes seraient prises pour protéger l'innovation américaine. Ce type d'attaque, qualifié de "distillation industrielle", représente une menace sérieuse pour l'avance technologique des États-Unis. En exploitant massivement les API publiques ou en contournant les garde-fous des modèles commerciaux, des acteurs étrangers peuvent reconstituer des systèmes d'IA comparables sans financer les années de recherche et les milliards de dollars d'investissement qui ont permis de les créer. Pour des entreprises comme OpenAI, Anthropic ou Google DeepMind, cela signifie que leur propriété intellectuelle, algorithmes, données d'entraînement, capacités de raisonnement, peut être siphonnée à travers leurs propres interfaces. L'enjeu dépasse la concurrence commerciale : il touche directement à la compétitivité économique nationale et à la sécurité des infrastructures numériques américaines. Cette offensive diplomatique s'inscrit dans un contexte de rivalité technologique croissante entre Washington et Pékin, qui s'est intensifiée depuis les restrictions américaines sur l'exportation de puces avancées vers la Chine en 2022 et 2023. Côté chinois, des acteurs comme DeepSeek ont démontré qu'il était possible de produire des modèles très performants à faible coût, alimentant les soupçons sur leurs méthodes. La montée en puissance de l'OSTP sur ce dossier signale une volonté de l'administration de traiter la protection de l'IA comme une question de sécurité nationale à part entière. Les prochaines mesures pourraient inclure des restrictions d'accès aux modèles, un renforcement des contrôles sur les API, voire des sanctions. La réaction de l'industrie sera déterminante : certains observateurs n'ont pas manqué de noter l'ironie d'un secteur qui a lui-même largement entraîné ses modèles sur des données tierces sans toujours en demander la permission.

UELes acteurs européens utilisant les API des grands modèles américains pourraient être indirectement affectés si Washington impose des restrictions d'accès ou des contrôles renforcés dans le cadre de sa politique de protection de l'IA.

SécuritéReglementation
1 source
OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine
3La Tribune 

OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine

OpenAI, Anthropic et Google ont annoncé une collaboration inédite pour contrer ce que les trois entreprises qualifient de "distillation" de leurs modèles d'intelligence artificielle par des entités liées à la Chine. Ce phénomène consiste à utiliser les sorties des grands modèles américains pour entraîner des systèmes concurrents à moindre coût, contournant ainsi les investissements colossaux, plusieurs dizaines de milliards de dollars, réalisés par ces laboratoires. Les rivaux habituels ont décidé de partager leurs données de sécurité pour identifier et bloquer ces pratiques plus efficacement. Cette alliance soulève des enjeux considérables pour la compétitivité technologique américaine. La distillation permet théoriquement à des acteurs étrangers d'obtenir des capacités comparables à celles des modèles de pointe sans en supporter les coûts de recherche et développement, rééquilibrant ainsi le rapport de force dans la course mondiale à l'IA. Pour les trois entreprises, la menace est à la fois commerciale et stratégique : perdre cet avantage compétitif reviendrait à fragiliser une position que Washington considère désormais comme un élément de sécurité nationale à part entière. La démarche s'inscrit dans un contexte de tensions croissantes entre les États-Unis et la Chine sur le terrain technologique, après les restrictions à l'export de puces Nvidia et les débats autour de DeepSeek, le modèle chinois dont l'efficacité avait provoqué une onde de choc sur les marchés début 2025. En mutualisant leur veille, OpenAI, Anthropic et Google cherchent à établir un front commun que chaque entreprise isolément n'aurait pas les moyens de tenir face à des techniques d'extraction en constante évolution.

UELes laboratoires européens d'IA restent exposés aux mêmes pratiques de distillation sans mécanisme de protection collectif équivalent à celui que se dotent désormais les géants américains.

SécuritéActu
1 source
Cette guerre ne finit jamais : la Maison-Blanche freine l’expansion d’une IA d’Anthropic jugée incontrôlable
4Le Big Data 

Cette guerre ne finit jamais : la Maison-Blanche freine l’expansion d’une IA d’Anthropic jugée incontrôlable

La Maison-Blanche a bloqué le projet d'Anthropic d'élargir l'accès à son modèle d'IA Mythos, actuellement limité à environ cinquante organisations. L'entreprise souhaitait intégrer soixante-dix nouveaux clients pour atteindre environ cent vingt organisations partenaires, mais Washington a mis son veto. Officiellement, la décision repose sur des impératifs de sécurité nationale. En réalité, selon plusieurs sources internes citées dans des analyses récentes, le gouvernement américain craint surtout de perdre son accès prioritaire à la puissance de calcul associée au modèle : davantage de clients signifie moins de ressources disponibles pour les usages gouvernementaux. Un tweet analysant la situation résume la logique de la Maison-Blanche : ce n'est pas tant la dangerosité du modèle qui pose problème que la volonté de garder la main dessus. L'enjeu dépasse la simple question d'accès. Mythos est décrit comme capable d'identifier et d'exploiter des failles critiques dans des infrastructures sensibles, réseaux électriques, hôpitaux, centrales énergétiques, avec une efficacité sans précédent. Des analyses internes évoquent un niveau de performance offensif jugé inédit pour un système commercial. Ce risque a été aggravé par un incident récent : des acteurs malveillants auraient réussi à accéder au modèle et exploiteraient déjà ses capacités offensives, au-delà du simple test. Ce point change radicalement la nature du débat : il ne s'agit plus d'un risque théorique mais d'une menace active, ce qui justifie aux yeux de Washington un contrôle strict du périmètre d'accès. Anthropic elle-même aurait alerté en interne sur ces dangers. Les tensions entre la Maison-Blanche et Anthropic ne sont pas nouvelles. Plus tôt en 2026, le Pentagone avait rompu un contrat avec l'entreprise après qu'elle a refusé de fournir un accès sans restriction à ses outils, arguant de la nécessité d'encadrer les usages sensibles. Ce refus avait durci le climat entre les deux parties. Depuis, Washington voit dans Anthropic un acteur difficile à contrôler, tandis que l'entreprise défend une approche responsable face à des demandes qu'elle juge incompatibles avec ses principes de sécurité. Le bras de fer autour de Mythos illustre une tension plus large : à mesure que les modèles frontières deviennent des ressources stratégiques, les gouvernements cherchent à les traiter comme des actifs souverains, en concurrence directe avec la logique commerciale de leurs développeurs. La question de qui contrôle l'accès à ces systèmes, et à quelles conditions, est désormais au coeur des rivalités entre l'industrie privée de l'IA et les appareils d'État.

UECe bras de fer entre Anthropic et Washington sur le contrôle d'un modèle IA aux capacités offensives inédites pose un précédent qui pourrait influencer les débats européens sur la régulation des systèmes IA à double usage dans le cadre de l'AI Act.

SécuritéOpinion
1 source