Aller au contenu principal
Mark Zuckerberg et Jensen Huang rejoignent le nouveau conseil technologique de Trump
RégulationThe Verge AI6sem

Mark Zuckerberg et Jensen Huang rejoignent le nouveau conseil technologique de Trump

Résumé IASource uniqueImpact UE
Source originale ↗·

Mark Zuckerberg, PDG de Meta, Jensen Huang, PDG de Nvidia, Larry Ellison, PDG d'Oracle, et le co-fondateur de Google Sergey Brin rejoignent le Conseil des conseillers du président en matière de sciences et technologie (PCAST), selon le Wall Street Journal. Ces quatre figures emblématiques de la tech américaine constituent les premiers membres d'un panel dédié à orienter la politique américaine en matière d'intelligence artificielle.

Ce conseil consultatif revêt une importance stratégique majeure à un moment où les États-Unis cherchent à consolider leur leadership mondial sur l'IA face à la concurrence chinoise. En associant directement les dirigeants des plus grandes entreprises technologiques à la prise de décision politique, l'administration Trump signale une volonté d'aligner étroitement les intérêts du secteur privé avec la politique industrielle et réglementaire nationale en matière de technologies émergentes.

Le PCAST comptera initialement 13 membres, avec une capacité d'extension jusqu'à 24 membres. Il sera co-présidé par David Sacks, le « tsar » de l'IA et des cryptomonnaies de la Maison Blanche, et Michael Kratsios, conseiller technologique. Selon l'annonce officielle de janvier, le conseil a pour mission de « conseiller le président sur les questions relatives à la science, la technologie, l'éducation et la politique d'innovation ».

La composition de ce panel illustre une concentration inédite de puissance industrielle autour du pouvoir exécutif américain — Nvidia dominant l'infrastructure GPU de l'IA, Meta et Google pesant sur les modèles fondationnels, et Oracle sur l'infrastructure cloud. Cette proximité entre l'administration et les géants de la tech soulèvera inévitablement des questions sur les conflits d'intérêts dans l'élaboration des futures régulations sectorielles.

Impact France/UE

La composition pro-industrie de ce conseil pourrait accélérer la divergence réglementaire entre Washington et Bruxelles, renforçant la pression concurrentielle sur les entreprises européennes d'IA soumises à l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang
1Presse-citron 

En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang

Donald Trump a annoncé la création d'un « Conseil des Sages » dédié aux sciences et technologies, intégrant des figures majeures de la tech américaine comme Mark Zuckerberg (Meta) et Jensen Huang (Nvidia). Ce type d'instance consultative a existé sous d'autres présidences, mais c'est la première fois qu'elle est aussi explicitement orientée vers l'intelligence artificielle. Cette initiative intervient dans un contexte de questionnement croissant sur la stratégie américaine en matière d'IA, notamment face à la montée en puissance de la Chine. Associer directement les PDG des entreprises les plus influentes du secteur au sommet de l'État signale une volonté de coordonner politique publique et industrie privée à un niveau inédit. Les États-Unis cherchent ainsi à structurer une gouvernance de l'IA au plus haut niveau, alors que la concurrence technologique mondiale s'intensifie et que les débats sur la régulation restent vifs.

UEUne coordination renforcée entre l'administration américaine et les géants de la tech pourrait accélérer la course aux standards mondiaux de l'IA et compliquer la position européenne dans les négociations réglementaires internationales.

RégulationReglementation
1 source
2Ars Technica AI 

Des juges nommés par Trump refusent de bloquer sa liste noire visant les technologies d'Anthropic

La cour d'appel fédérale du circuit du district de Columbia a refusé hier d'accorder un sursis d'urgence à Anthropic, qui tentait de bloquer sa mise sur liste noire par l'administration Trump. La décision a été rendue par un panel de trois juges nommés par des républicains, dont Gregory Katsas et Neomi Rao, tous deux anciens membres de l'administration Trump. Katsas avait occupé le poste de conseiller juridique adjoint du président lors du premier mandat de Trump, tandis que Rao avait servi au Bureau de la gestion et du budget. Si le tribunal a refusé l'urgence, il a toutefois accepté d'accélérer la procédure et fixé des plaidoiries orales au 19 mai. Anthropic a par ailleurs obtenu davantage de succès dans une seconde affaire distincte qu'elle a intentée simultanément contre l'administration. Ce revers judiciaire illustre la gravité de la situation pour Anthropic : Trump a ordonné à l'ensemble des agences fédérales de cesser d'utiliser ses technologies, et le secrétaire à la Défense Pete Hegseth a classifié l'entreprise comme un "risque pour la chaîne d'approvisionnement en matière de sécurité nationale". Cette désignation interdit aux sous-traitants militaires de collaborer avec Anthropic, ce qui représente une menace directe sur une part significative de ses contrats commerciaux et de son accès aux marchés publics américains. Selon Anthropic, ces mesures constituent une forme de représailles politiques. La société affirme avoir exercé ses droits constitutionnels garantis par le Premier Amendement en refusant que ses modèles Claude soient utilisés pour des opérations de guerre autonome ou de surveillance de masse des citoyens américains. La bataille juridique s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certaines entreprises technologiques sur les questions d'usage militaire de l'intelligence artificielle. L'issue des plaidoiries du 19 mai pourrait redéfinir les limites du pouvoir exécutif face aux acteurs privés de l'IA, et établir un précédent déterminant pour l'ensemble du secteur.

UEUn précédent américain sur les limites du pouvoir exécutif face aux entreprises IA pourrait influencer les débats européens sur la gouvernance de l'IA, notamment pour les partenaires européens d'Anthropic exposés aux marchés publics américains.

RégulationReglementation
1 source
Google, Microsoft, xAI… Trump va tester les nouvelles IA en avant-première
3Le Big Data 

Google, Microsoft, xAI… Trump va tester les nouvelles IA en avant-première

Google DeepMind, Microsoft et xAI ont conclu un accord formel avec l'administration Trump pour soumettre leurs futurs modèles d'intelligence artificielle à des évaluations gouvernementales avant tout déploiement public. Ces tests seront conduits par le Center for AI Standards and Innovation (CAISI), un organisme rattaché au département du Commerce américain. Le centre travaillait déjà avec OpenAI et Anthropic, mais l'élargissement à ces trois nouveaux acteurs majeurs marque une étape concrète dans la volonté de Washington de reprendre la main sur le calendrier des lancements. Chris Fall, directeur du CAISI, a insisté sur la nécessité d'une évaluation indépendante et rigoureuse des modèles les plus avancés, invoquant des enjeux de sécurité nationale, de cybersécurité, de désinformation et d'usages militaires potentiels. Ce virage représente un changement de paradigme notable pour une industrie qui défendait jusqu'ici le principe d'une innovation rapide et peu entravée. Que des géants comme Google ou Microsoft acceptent que l'État examine leurs modèles avant chaque lancement illustre un rééquilibrage du rapport de force entre la Silicon Valley et le pouvoir politique. Pour les utilisateurs et les entreprises, cela pourrait se traduire par des délais de mise sur le marché allongés, mais aussi par une forme de garantie supplémentaire sur les capacités et les risques des systèmes déployés. La portée de ces évaluations reste encore floue : le gouvernement n'a pas précisé quels critères s'appliqueront ni si ces tests pourraient bloquer ou retarder un lancement. Selon le New York Times, Donald Trump envisagerait par ailleurs un décret présidentiel pour aller plus loin, en réunissant dirigeants technologiques et responsables gouvernementaux pour superviser directement le développement des nouvelles IA. Le rapprochement avec xAI est particulièrement significatif : Elon Musk, pourtant critique habituel des dérives régulatoires et promoteur d'une IA sans censure idéologique, accepte ici de collaborer avec les autorités fédérales, ce qui témoigne du poids géopolitique qu'a pris le secteur. Les États-Unis cherchent avant tout à préserver leur avance sur la Chine dans la course aux modèles frontières, et les entreprises, de leur côté, ont tout intérêt à s'afficher comme des partenaires responsables de l'État plutôt que comme des acteurs incontrôlables. La question centrale qui émerge de cet accord est celle du contrôle réel : évaluer un modèle avant son lancement n'est pas nécessairement le réguler, et la frontière entre supervision de sécurité et ingérence politique reste, pour l'instant, soigneusement laissée dans le flou.

UECe cadre américain d'évaluation pré-déploiement pourrait servir de référence pour l'interprétation des obligations GPAI de l'AI Act européen, mais n'a pas d'effet direct sur les entreprises ou institutions françaises à ce stade.

RégulationReglementation
1 source
Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile
4FrenchWeb 

Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile

À huit mois des élections de mi-mandat de novembre 2026, l'intelligence artificielle s'impose comme un enjeu politique majeur aux États-Unis. David Sacks, nommé « AI & Crypto Czar » par Donald Trump en janvier 2025, pilote une offensive réglementaire et rhétorique visant à faire des États-Unis le leader mondial de l'IA. L'administration Trump a déjà signé un décret exécutif abrogeant les restrictions imposées par Biden sur les modèles d'IA, et prépare un cadre favorable aux grandes entreprises technologiques comme OpenAI, Google, Microsoft et Meta, dont les dirigeants entretiennent des liens étroits avec la Maison-Blanche. L'enjeu est considérable : selon plusieurs sondages récents, une majorité d'Américains se déclarent inquiets des effets de l'IA sur l'emploi, la désinformation et la vie privée. Cette méfiance croissante constitue un handicap politique potentiel pour les républicains, qui risquent de se retrouver en porte-à-faux avec une base électorale peu enthousiaste à l'idée de financer massivement une technologie perçue comme menaçante pour les travailleurs. Cette tension reflète un clivage plus profond entre les intérêts des grandes plateformes technologiques, qui investissent des centaines de milliards de dollars dans l'IA générative, et une société civile qui réclame davantage de garde-fous. Les démocrates cherchent à exploiter ce fossé pour les midterms, tandis que Sacks et ses alliés parient sur la promesse de compétitivité face à la Chine pour rallier l'opinion. Le résultat de ce bras de fer idéologique influencera directement la trajectoire réglementaire de l'IA aux États-Unis pour les années à venir.

UELa trajectoire réglementaire pro-IA de l'administration Trump crée une asymétrie croissante avec l'AI Act européen, risquant de désavantager les entreprises soumises aux exigences de conformité européennes face à des acteurs américains moins contraints.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour