Aller au contenu principal
RégulationSciences et Avenir Tech6sem

Nouvel assaut du gouvernement Trump contre la régulation de l'IA

Résumé IASource uniqueImpact UE
Source originale ↗·

L'administration Trump repart à l'offensive contre la fragmentation réglementaire de l'intelligence artificielle aux États-Unis. La Maison Blanche pousse à nouveau pour imposer un cadre fédéral unique qui supplante les législations locales sur l'IA, jugées trop disparates et contraignantes pour les entreprises du secteur.

L'enjeu est considérable pour l'industrie technologique américaine : sans harmonisation nationale, les développeurs et éditeurs d'IA doivent naviguer entre des dizaines de régimes juridiques différents selon les États, ce qui génère des coûts de mise en conformité élevés et freine l'innovation. La stratégie de Washington vise explicitement à préserver la compétitivité des entreprises américaines face à leurs rivales étrangères, notamment chinoises.

Cette offensive n'est pas une première. Une tentative similaire avait déjà été lancée en 2025 mais s'était soldée par un échec. L'administration persiste néanmoins, invoquant la nécessité d'éliminer des "obligations superflues" imposées aux acteurs du marché. Le projet prône une régulation centralisée au niveau fédéral, retirant aux États leur capacité à légiférer indépendamment sur l'IA.

La question reste entière quant à l'accueil que réserveront le Congrès et les États à cette nouvelle initiative. Plusieurs d'entre eux ont déjà adopté — ou sont en train d'adopter — leurs propres lois sur l'IA, et certains résisteront à tout transfert de compétences vers le fédéral. Le bras de fer entre souveraineté étatique et standardisation nationale s'annonce une nouvelle fois âpre.

Impact France/UE

La tentative américaine d'uniformiser la régulation IA au niveau fédéral influence indirectement les négociations entre l'UE et les États-Unis sur les standards internationaux de gouvernance de l'IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Mesures critiquées : L'administration Trump envisage de nouvelles actions contre Anthropic
1Wired AI 

Mesures critiquées : L'administration Trump envisage de nouvelles actions contre Anthropic

L'administration Trump envisage un décret exécutif ciblant la startup d'IA Anthropic, sans exclure d'autres mesures à venir contre l'entreprise. Cette initiative intervient alors que des actions antérieures de la Maison Blanche contre Anthropic font face à un examen judiciaire important.

RégulationActu
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
2Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
Anthropic obtient une injonction contre l'administration Trump dans l'affaire du Pentagone
3TechCrunch AI 

Anthropic obtient une injonction contre l'administration Trump dans l'affaire du Pentagone

Un juge fédéral américain a ordonné à l'administration Trump de lever les restrictions récemment imposées à Anthropic, la société mère de l'assistant conversationnel Claude. L'injonction, prononcée par un tribunal fédéral, contraint le gouvernement à annuler des mesures qui limitaient les activités ou l'accès de l'entreprise dans le cadre de contrats liés au Pentagone. Cette décision judiciaire représente un revers significatif pour l'administration Trump dans ses tentatives de réguler ou de restreindre certaines entreprises d'intelligence artificielle. Pour Anthropic, le maintien de ses relations contractuelles avec le département de la Défense est crucial : les contrats gouvernementaux constituent une source de revenus importante et un gage de légitimité pour les acteurs de l'IA en compétition pour des marchés fédéraux estimés à plusieurs milliards de dollars. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et plusieurs acteurs technologiques, certaines entreprises ayant été ciblées par des décisions exécutives controversées. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI, cherche à s'imposer comme un partenaire de confiance du gouvernement américain face à des concurrents comme OpenAI et Google DeepMind. L'issue de ce bras de fer juridique pourrait faire jurisprudence pour d'autres sociétés d'IA confrontées à des restrictions similaires.

RégulationReglementation
1 source
Le retournement de la stratégie du Pentagone contre Anthropic
4MIT Technology Review 

Le retournement de la stratégie du Pentagone contre Anthropic

Un juge fédéral californien, Rita Lin, a temporairement bloqué jeudi dernier le Pentagone dans sa tentative de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation qui aurait contraint toutes les agences gouvernementales à cesser d'utiliser ses outils d'IA. Dans une opinion de 43 pages, la juge a suspendu cette décision, interdit au Pentagone de l'appliquer et invalidé les promesses publiques faites par le secrétaire à la Défense Pete Hegseth et le président Donald Trump. Le gouvernement dispose de sept jours pour faire appel, et une deuxième procédure intentée par Anthropic reste en suspens. La start-up, cofondée par Dario Amodei, avait fourni son modèle Claude à des employés du Pentagone via Palantir pendant une grande partie de 2025, dans le cadre d'une politique d'utilisation gouvernementale spécifique interdisant notamment la « surveillance de masse des Américains » et la « guerre autonome létale », selon une déclaration sous serment du cofondateur Jared Kaplan. La rupture ne résulte pas d'un incident technique ou d'une faille de sécurité, mais d'un désaccord contractuel survenu lorsque le gouvernement a voulu traiter directement avec Anthropic — et d'une réponse politique qui a rapidement dérapé. Le 27 février, Trump a publié sur Truth Social un message dénonçant les « gauchistes fous » d'Anthropic et ordonné à toutes les agences fédérales de cesser d'utiliser ses produits. Hegseth a emboîté le pas en annonçant la désignation « supply chain risk ». Or la juge Lin a constaté que Hegseth n'avait pas suivi les procédures légales requises pour activer cette désignation : les lettres envoyées aux comités du Congrès affirmaient que des mesures moins radicales avaient été évaluées, sans fournir le moindre détail. Les avocats du gouvernement ont également dû admettre qu'ils n'avaient aucune preuve de l'existence d'un supposé « kill switch » qu'Anthropic aurait pu activer pour couper l'accès au gouvernement — argument central de la désignation. Pire, ils ont reconnu que l'ordre d'Hegseth interdisant à tout prestataire de « faire des affaires avec Anthropic » n'avait « absolument aucun effet juridique ». Cette affaire illustre une tension structurelle croissante entre l'administration Trump et les grandes entreprises d'IA qui refusent d'aligner leur politique sur les priorités idéologiques de Washington. Anthropic se trouve dans une position particulièrement délicate : elle est l'une des rares entreprises du secteur à avoir explicitement ancré la sécurité dans son identité commerciale, tout en cherchant à décrocher des contrats de défense. La juge a conclu que le gouvernement cherchait à « punir publiquement Anthropic pour son idéologie », ce qui constitue une atteinte au premier amendement. Le dossier n'est pas clos — l'appel possible et la seconde procédure maintiennent une incertitude réelle — mais la reculade judiciaire du Pentagone envoie un signal fort : utiliser des désignations de sécurité nationale comme levier de pression politique contre des entreprises privées reste juridiquement risqué, surtout quand les tweets précèdent les arguments juridiques.

💬 Le gouvernement n'avait aucune preuve du kill switch, n'a pas suivi les procédures légales, et a lancé la désignation quand même. Un tweet de Trump, une lettre vague au Congrès, des arguments que les avocats eux-mêmes ont reconnus sans effet juridique : c'est pas une stratégie, c'est de la panique. Anthropic voulait les contrats de défense sans plier sur sa politique d'usage, et là on voit ce que ça coûte vraiment.

RégulationReglementation
1 source