Aller au contenu principal
« Risque de sécurité réel » : les États-Unis sur le point d’interdire les robots humanoïdes chinois ?
RégulationNumerama6sem

« Risque de sécurité réel » : les États-Unis sur le point d’interdire les robots humanoïdes chinois ?

Résumé IASource uniqueImpact UE
Source originale ↗·

Le 26 mars 2026, deux sénateurs américains ont déposé un projet de loi visant à interdire l'utilisation de robots humanoïdes fabriqués en Chine par les agences fédérales américaines. Le texte, dont les détails précis n'ont pas encore été rendus publics, cible explicitement les équipements robotiques d'origine chinoise déployés dans des environnements gouvernementaux sensibles.

L'enjeu dépasse la simple question commerciale : les législateurs craignent que ces robots, équipés de capteurs, caméras et microphones, ne constituent des vecteurs potentiels de collecte de renseignements au profit de Pékin. Un robot humanoïde opérant dans un bâtiment fédéral aurait théoriquement accès à des conversations, des documents et des flux vidéo — une surface d'attaque comparable à celle des équipements réseau Huawei, déjà bannis aux États-Unis depuis 2019.

Cette initiative s'inscrit dans une rivalité technologique sino-américaine qui s'intensifie dans le domaine de la robotique. Des entreprises chinoises comme Unitree ou Fourier Intelligence gagnent rapidement du terrain sur le marché mondial, inquiétant Washington qui cherche à protéger ses infrastructures critiques. Si le projet est adopté, il pourrait ouvrir la voie à des restrictions similaires chez les alliés américains, et accélérer les appels à une production robotique souveraine en Occident.

Impact France/UE

Si le projet de loi est adopté, il pourrait pousser les alliés américains à adopter des restrictions similaires et accélérer les appels à une production robotique souveraine en Europe.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

« Ils menacent la vie privée des Américains » : les robots humanoïdes chinois, nouveau cauchemar des États-Unis
101net 

« Ils menacent la vie privée des Américains » : les robots humanoïdes chinois, nouveau cauchemar des États-Unis

Un projet de loi bipartisan a été déposé au Congrès américain pour interdire formellement au gouvernement fédéral l'achat et le déploiement de robots terrestres fabriqués par des entreprises chinoises. Le texte cible explicitement les robots humanoïdes et autres systèmes mobiles autonomes, dans un contexte où des fabricants comme Unitree ou Fourier Intelligence gagnent rapidement des parts de marché mondial grâce à des prix nus face à leurs concurrents américains ou japonais. La menace perçue dépasse la simple compétition industrielle : les législateurs américains craignent que ces robots, équipés de caméras, microphones et capteurs de cartographie, ne deviennent des vecteurs de collecte de renseignements sur les infrastructures sensibles, les bâtiments gouvernementaux ou les comportements des agents fédéraux. C'est le même raisonnement qui avait conduit à l'interdiction de TikTok et aux restrictions imposées à Huawei — sauf que cette fois, le risque est physique et se déplace dans l'espace réel. Ce mouvement s'inscrit dans une escalade technologique plus large entre Washington et Pékin. Après les semi-conducteurs, les drones (DJI est déjà sur liste noire), et les équipements télécom, la robotique humanoïde devient le prochain front de la guerre technologique. La Chine a massivement subventionné ce secteur ces dernières années, avec l'ambition affichée de dominer le marché mondial d'ici 2030. Si la loi passe, elle pourrait aussi pousser les alliés américains à adopter des restrictions similaires, redessinant les chaînes d'approvisionnement robotiques à l'échelle mondiale.

UESi adoptée, cette loi pourrait inciter les alliés américains, dont les États membres de l'UE, à imposer des restrictions similaires sur les robots terrestres chinois, redessinant les chaînes d'approvisionnement robotiques en Europe.

RégulationReglementation
1 source
Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
2The Decoder 

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington. La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation. L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

UELa décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

RégulationReglementation
1 source
L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA
3The Verge AI 

L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA

Le Parlement européen a voté à une large majorité pour repousser les délais de conformité de l'AI Act, la loi phare de l'Union européenne sur la régulation de l'intelligence artificielle. Les développeurs de systèmes d'IA dits "à haut risque" — ceux présentant un risque sérieux pour la santé, la sécurité ou les droits fondamentaux — auront jusqu'en décembre 2027 pour se conformer, contre une échéance initiale plus proche. Les entreprises dont les systèmes relèvent de réglementations sectorielles existantes, comme les jouets ou les dispositifs médicaux, bénéficieront d'un délai encore plus long, fixé à août 2028. Parallèlement, le Parlement a approuvé l'interdiction des applications dites "nudify", qui génèrent des images dénudées non consenties à partir de photos de personnes réelles. Ce report soulage une industrie tech qui dénonçait des délais irréalistes pour adapter des systèmes complexes aux exigences de l'AI Act. Pour les développeurs d'IA médicale, industrielle ou éducative, ce gain de temps est concret : il leur permet de mettre en place les audits, la documentation et les processus de conformité requis. L'interdiction des nudify apps, elle, répond à une demande croissante de protection contre les deepfakes non consentis, qui touchent majoritairement des femmes et alimentent le harcèlement en ligne. L'AI Act, adopté en 2024, est la première grande législation mondiale à encadrer l'IA par niveau de risque. Sa mise en œuvre progressive a d'emblée suscité des tensions entre ambition régulatoire et réalité industrielle, notamment face à la montée en puissance de modèles comme ceux d'OpenAI ou Google. Ce vote reflète un ajustement pragmatique, mais aussi la pression des lobbys tech européens et américains, alors que l'Europe cherche à ne pas freiner son écosystème IA face à la concurrence internationale.

UELes entreprises françaises développant des systèmes d'IA à haut risque (médical, industriel, éducatif) gagnent jusqu'à décembre 2027 pour se conformer à l'AI Act, et jusqu'en août 2028 pour les systèmes couverts par des réglementations sectorielles existantes.

💬 Le report, c'est une bonne nouvelle pour les devs qui bossaient dans le flou total sur les délais. 2027 pour les systèmes à haut risque, ça laisse enfin le temps de faire la conformité sérieusement plutôt qu'à la va-vite. Sur les nudify apps, là pas de débat : l'interdiction était évidente, ça aurait dû arriver bien avant.

RégulationReglementation
1 source
Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »
4TechCrunch AI 

Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »

Le département américain de la Défense (DoD) a qualifié Anthropic de risque inacceptable pour la sécurité nationale, citant les "lignes rouges" de l'entreprise qui pourraient l'amener à désactiver ses technologies en pleine opération militaire. Cette préoccupation justifie, selon le Pentagone, la classification d'Anthropic comme risque dans la chaîne d'approvisionnement en IA.

UECe conflit entre éthique d'entreprise et exigences militaires américaines alimente le débat européen sur la souveraineté IA et les conditions d'usage des LLMs dans les secteurs sensibles.

RégulationActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour