Aller au contenu principal
En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang
RégulationPresse-citron6sem

En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang

Résumé IASource uniqueImpact UE
Source originale ↗·

Donald Trump vient de franchir un pas décisif dans sa politique technologique en créant un « Conseil des Sages » dédié à la science et à la technologie, avec à sa tête des figures emblématiques de l'industrie dont Mark Zuckerberg (Meta) et Jensen Huang (NVIDIA). Cette initiative intervient dans un contexte de questionnements croissants sur la stratégie américaine en matière d'intelligence artificielle.

Ce conseil consultatif représente un tournant dans la relation entre la Maison-Blanche et la Silicon Valley. Si ce type d'organe a déjà existé par le passé sous d'autres administrations, c'est la première fois qu'il est aussi explicitement orienté vers la tech et l'IA — un signal fort que Washington entend peser directement sur l'orientation stratégique du secteur, dans un contexte de rivalité intense avec la Chine.

La composition du conseil est particulièrement significative : en choisissant Jensen Huang, patron de NVIDIA dont les puces sont au cœur de la course aux modèles d'IA, et Mark Zuckerberg, qui a massivement investi dans l'IA générative chez Meta, Trump s'entoure des acteurs les plus influents de l'infrastructure et des applications IA mondiales. Cette proximité inédite entre le pouvoir exécutif et les grandes entreprises technologiques soulève des questions sur les conflits d'intérêts potentiels.

La création de ce conseil s'inscrit dans un moment de doute stratégique américain, notamment après l'irruption de DeepSeek sur la scène mondiale, qui a remis en cause la suprématie technologique des États-Unis. La Maison-Blanche cherche visiblement à structurer une réponse coordonnée entre secteur public et privé pour maintenir le leadership américain en IA.

Impact France/UE

Une coordination renforcée entre l'administration américaine et les géants de la tech pourrait accélérer la course aux standards mondiaux de l'IA et compliquer la position européenne dans les négociations réglementaires internationales.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Mark Zuckerberg et Jensen Huang rejoignent le nouveau conseil technologique de Trump
1The Verge AI 

Mark Zuckerberg et Jensen Huang rejoignent le nouveau conseil technologique de Trump

Mark Zuckerberg (Meta), Larry Ellison (Oracle), Jensen Huang (Nvidia) et Sergey Brin (Google) seront les quatre premiers membres du Conseil des conseillers du président sur la science et la technologie (PCAST), selon le Wall Street Journal. Ce panel, qui aura son mot à dire sur la politique en matière d'IA, comptera 13 membres au départ et pourrait s'étendre à 24. Il sera coprésidé par David Sacks, le « tsar » de l'IA et des cryptomonnaies de Trump, et Michael Kratsios, conseiller technologique de la Maison-Blanche. Cette initiative place directement les PDG des géants technologiques au cœur de la politique fédérale sur l'intelligence artificielle. Leur influence pourrait peser lourd sur les réglementations à venir, les investissements publics et la position américaine face à la concurrence chinoise dans la course à l'IA. Le fait que des dirigeants de sociétés privées siègent officiellement dans un organe consultatif présidentiel soulève aussi des questions sur les conflits d'intérêts potentiels. Le PCAST est une instance historique qui conseille la Maison-Blanche sur la science, la technologie, l'éducation et l'innovation — sa composition reflète la priorité absolue accordée par l'administration Trump à la domination américaine dans le domaine de l'IA.

UELa composition pro-industrie de ce conseil pourrait accélérer la divergence réglementaire entre Washington et Bruxelles, renforçant la pression concurrentielle sur les entreprises européennes d'IA soumises à l'AI Act.

RégulationReglementation
1 source
L’UE bannit les contenus IA, Donald Trump en fait un levier politique
2ZDNET FR 

L’UE bannit les contenus IA, Donald Trump en fait un levier politique

Les institutions européennes ont officialisé l'interdiction des images et vidéos générées par intelligence artificielle dans leurs communications officielles, dans le cadre de la mise en œuvre progressive de l'AI Act. Cette décision vise à contrer la prolifération des deepfakes et à préserver l'intégrité de l'information diffusée par les organes de l'UE, qu'il s'agisse du Parlement, de la Commission ou du Conseil. Cette mesure prend une résonance particulière face aux dérives observées outre-Atlantique. Donald Trump et son entourage ont fait des contenus générés par IA un outil de communication à part entière, publiant régulièrement des images retouchées ou synthétiques sur les réseaux sociaux à des fins de propagande politique. L'écart de posture est saisissant : là où Bruxelles choisit la restriction pour protéger la confiance du citoyen, Washington instrumentalise la technologie pour amplifier un récit partisan. Cette divergence illustre une fracture plus profonde entre les deux blocs sur la régulation de l'IA. L'Europe avance avec l'AI Act comme boussole réglementaire, imposant des garde-fous stricts sur les usages sensibles. Les États-Unis, eux, n'ont pas de cadre fédéral équivalent, laissant le champ libre à des utilisations politiques qui alimentent la méfiance envers l'information numérique à l'approche des scrutins majeurs.

UELes institutions européennes (Parlement, Commission, Conseil) ont formellement interdit les contenus IA dans leurs communications officielles, marquant une application concrète de l'AI Act sur les usages sensibles.

RégulationReglementation
1 source
Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts
3Ars Technica AI 

Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts

L'administration Trump a conclu des accords cette semaine avec Google DeepMind, Microsoft et xAI pour soumettre leurs modèles d'IA de pointe à des contrôles de sécurité gouvernementaux, avant et après leur mise sur le marché. Ce revirement survient après que Donald Trump avait ouvertement balayé les politiques héritées de l'ère Biden, qualifiant les vérifications volontaires de surréglementation freinant l'innovation. Il avait même rebaptisé l'AI Safety Institute en Centre pour les Standards et l'Innovation de l'IA (CAISI), supprimant délibérément le mot "sécurité" dans un geste symbolique adressé à son prédécesseur. Selon Kevin Hassett, directeur du Conseil économique national de la Maison Blanche, Trump envisagerait désormais de signer un décret présidentiel rendant ces tests obligatoires avant tout déploiement de systèmes d'IA avancés. Ce changement de cap brutal illustre les tensions croissantes autour des modèles les plus puissants. Il intervient directement après qu'Anthropic a annoncé suspendre la sortie de son dernier modèle, Claude Mythos, estimant que ses capacités avancées en cybersécurité représentaient un risque trop élevé d'exploitation par des acteurs malveillants. Cette décision a visiblement ébranlé la Maison Blanche, qui semblait jusqu'ici peu préoccupée par la question. L'engagement de trois géants technologiques dans un dispositif de vérification officiel marque un tournant potentiellement structurant pour la gouvernance de l'IA aux États-Unis, à un moment où les modèles frontier franchissent de nouveaux seuils de capacité. Ce volte-face s'inscrit dans une tension plus large au sein de l'administration Trump entre l'impératif de compétitivité technologique face à la Chine et la gestion des risques concrets posés par des systèmes toujours plus autonomes. Depuis son retour à la Maison Blanche, Trump avait adopté une posture délibérément permissive sur la régulation de l'IA, cherchant à attirer investissements et talents. Mais la décision d'Anthropic de bloquer la sortie de Claude Mythos a rendu intenable l'absence totale de cadre fédéral. Si un décret est finalement signé, il pourrait redéfinir le rôle du CAISI et établir un précédent sur la manière dont Washington entend superviser les technologies les plus sensibles de la prochaine décennie.

UEUn cadre fédéral américain obligatoire de tests pré-déploiement créerait une pression normative internationale et pourrait influencer l'interprétation pratique de l'AI Act européen sur les obligations de contrôle des modèles frontier.

💬 Ce qui a mis Trump en mouvement, c'est Anthropic qui a bloqué son propre modèle, pas une campagne de lobbying ou un rapport du Congrès. Quand les labos eux-mêmes freinent des deux pieds parce que leurs outils font trop peur, l'absence de cadre fédéral devient indéfendable, et même Washington le voit. Reste à voir si ces tests ont des dents ou si c'est du tampon de complaisance.

RégulationReglementation
1 source
Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile
4FrenchWeb 

Midterms 2026 : David SACKS pousse l’agenda pro-IA de Donald Trump face à une Amérique de plus en plus hostile

À huit mois des élections de mi-mandat de novembre 2026, l'intelligence artificielle s'impose comme un enjeu politique majeur aux États-Unis. David Sacks, nommé « AI & Crypto Czar » par Donald Trump en janvier 2025, pilote une offensive réglementaire et rhétorique visant à faire des États-Unis le leader mondial de l'IA. L'administration Trump a déjà signé un décret exécutif abrogeant les restrictions imposées par Biden sur les modèles d'IA, et prépare un cadre favorable aux grandes entreprises technologiques comme OpenAI, Google, Microsoft et Meta, dont les dirigeants entretiennent des liens étroits avec la Maison-Blanche. L'enjeu est considérable : selon plusieurs sondages récents, une majorité d'Américains se déclarent inquiets des effets de l'IA sur l'emploi, la désinformation et la vie privée. Cette méfiance croissante constitue un handicap politique potentiel pour les républicains, qui risquent de se retrouver en porte-à-faux avec une base électorale peu enthousiaste à l'idée de financer massivement une technologie perçue comme menaçante pour les travailleurs. Cette tension reflète un clivage plus profond entre les intérêts des grandes plateformes technologiques, qui investissent des centaines de milliards de dollars dans l'IA générative, et une société civile qui réclame davantage de garde-fous. Les démocrates cherchent à exploiter ce fossé pour les midterms, tandis que Sacks et ses alliés parient sur la promesse de compétitivité face à la Chine pour rallier l'opinion. Le résultat de ce bras de fer idéologique influencera directement la trajectoire réglementaire de l'IA aux États-Unis pour les années à venir.

UELa trajectoire réglementaire pro-IA de l'administration Trump crée une asymétrie croissante avec l'AI Act européen, risquant de désavantager les entreprises soumises aux exigences de conformité européennes face à des acteurs américains moins contraints.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour