Aller au contenu principal
RégulationArs Technica AI1h

Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts

Résumé IASource uniqueImpact UE
Source originale ↗·

L'administration Trump a conclu des accords cette semaine avec Google DeepMind, Microsoft et xAI pour soumettre leurs modèles d'IA de pointe à des contrôles de sécurité gouvernementaux, avant et après leur mise sur le marché. Ce revirement survient après que Donald Trump avait ouvertement balayé les politiques héritées de l'ère Biden, qualifiant les vérifications volontaires de surréglementation freinant l'innovation. Il avait même rebaptisé l'AI Safety Institute en Centre pour les Standards et l'Innovation de l'IA (CAISI), supprimant délibérément le mot "sécurité" dans un geste symbolique adressé à son prédécesseur. Selon Kevin Hassett, directeur du Conseil économique national de la Maison Blanche, Trump envisagerait désormais de signer un décret présidentiel rendant ces tests obligatoires avant tout déploiement de systèmes d'IA avancés.

Ce changement de cap brutal illustre les tensions croissantes autour des modèles les plus puissants. Il intervient directement après qu'Anthropic a annoncé suspendre la sortie de son dernier modèle, Claude Mythos, estimant que ses capacités avancées en cybersécurité représentaient un risque trop élevé d'exploitation par des acteurs malveillants. Cette décision a visiblement ébranlé la Maison Blanche, qui semblait jusqu'ici peu préoccupée par la question. L'engagement de trois géants technologiques dans un dispositif de vérification officiel marque un tournant potentiellement structurant pour la gouvernance de l'IA aux États-Unis, à un moment où les modèles frontier franchissent de nouveaux seuils de capacité.

Ce volte-face s'inscrit dans une tension plus large au sein de l'administration Trump entre l'impératif de compétitivité technologique face à la Chine et la gestion des risques concrets posés par des systèmes toujours plus autonomes. Depuis son retour à la Maison Blanche, Trump avait adopté une posture délibérément permissive sur la régulation de l'IA, cherchant à attirer investissements et talents. Mais la décision d'Anthropic de bloquer la sortie de Claude Mythos a rendu intenable l'absence totale de cadre fédéral. Si un décret est finalement signé, il pourrait redéfinir le rôle du CAISI et établir un précédent sur la manière dont Washington entend superviser les technologies les plus sensibles de la prochaine décennie.

Impact France/UE

Un cadre fédéral américain obligatoire de tests pré-déploiement créerait une pression normative internationale et pourrait influencer l'interprétation pratique de l'AI Act européen sur les obligations de contrôle des modèles frontier.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Siècle Digital 

Le Sénat adopte une loi qui pourrait forcer les géants de l’IA à prouver l’origine de leurs données

Le Sénat français a adopté le 8 avril 2026 une proposition de loi imposant aux entreprises développant des systèmes d'intelligence artificielle de divulguer les données utilisées pour entraîner leurs modèles. Ce texte vise directement les géants du secteur comme OpenAI, Google, Meta ou Mistral, qui ont massivement ingéré des contenus issus d'œuvres protégées par le droit d'auteur, des articles de presse, des livres et des créations artistiques, sans compensation ni transparence vis-à-vis des auteurs concernés. L'enjeu est considérable pour les créateurs, éditeurs et médias français, qui réclament depuis l'essor de ChatGPT fin 2022 une reconnaissance légale de leur contribution aux modèles IA. Si cette loi entre en vigueur, les entreprises devront prouver l'origine de chaque jeu de données utilisé, ouvrant la voie à des négociations de licences et potentiellement à des mécanismes de rémunération. Pour l'industrie de l'IA, cela représente une contrainte technique et juridique majeure, susceptible de ralentir le déploiement de nouveaux modèles en France et en Europe. Ce vote s'inscrit dans un mouvement plus large de régulation du secteur, parallèlement à l'AI Act européen qui entre progressivement en application. Plusieurs procès intentés par des journaux américains contre OpenAI ont déjà mis en lumière la question de l'utilisation non autorisée de contenus. La France cherche ici à anticiper ces conflits en posant un cadre légal national, même si le texte devra encore passer devant l'Assemblée nationale avant de devenir définitivement loi.

UELe Sénat français impose aux développeurs d'IA de prouver l'origine de leurs données d'entraînement, ouvrant la voie à des négociations de licences et à une rémunération des créateurs, éditeurs et médias français.

💬 C'est le genre de texte de loi qu'on attendait depuis le début, et le Sénat a eu le bon sens de pas attendre que les procès américains fassent jurisprudence ici. Reste qu'entre "adopté au Sénat" et "en vigueur", il y a encore l'Assemblée nationale, et ça peut prendre du temps. Mistral va devoir jouer le jeu aussi, pas seulement les Américains, ce qui rend le truc vraiment sérieux.

RégulationReglementation
1 source
Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale
2The Decoder 

Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale

Le Département américain du Commerce vient d'élargir son programme d'accès anticipé aux modèles d'intelligence artificielle développés par les principaux laboratoires du secteur. Après Anthropic et OpenAI, trois nouvelles entreprises ont rejoint le dispositif : Google DeepMind, Microsoft et xAI, la startup d'Elon Musk. Ces acteurs ont signé des accords avec le Center for AI Standards and Innovation (CASI), une entité rattachée au National Institute of Standards and Technology. Concrètement, ils fournissent au gouvernement des versions de leurs modèles dont les garde-fous de sécurité ont été partiellement désactivés, pour permettre des évaluations approfondies dans des environnements classifiés. Cet accès privilégié permet aux agences fédérales d'examiner les capacités réelles de ces systèmes avant leur mise sur le marché, y compris leurs potentiels d'utilisation malveillante. En supprimant les filtres habituels, les testeurs gouvernementaux peuvent sonder les limites des modèles d'une façon que les versions publiques ne permettent pas : identifier des failles exploitables, simuler des scénarios de cyberattaque, ou évaluer les risques liés à la divulgation d'informations sensibles. C'est une rupture significative dans la manière dont l'État supervise ces technologies. Cette expansion s'inscrit dans un contexte de concurrence technologique croissante avec la Chine et de risques cybersécurité liés à l'IA en forte hausse. Washington cherche à établir des standards nationaux solides avant que ces systèmes ne se diffusent à grande échelle. Le fait que cinq des principaux laboratoires mondiaux participent désormais à ce programme signale une convergence inédite entre industrie privée et sécurité nationale, qui pourrait préfigurer un modèle de gouvernance applicable bien au-delà des frontières américaines.

UECe programme américain de supervision pré-déploiement pourrait servir de référence aux autorités européennes qui définissent encore les modalités concrètes d'évaluation des modèles à haut risque dans le cadre de l'AI Act.

💬 C'est le genre d'accord qu'on imaginait se faire dans l'ombre depuis des années, et là c'est officialisé. Cinq labos fournissent des versions sans filtres pour que le gouvernement cherche les failles, ce qui est probablement plus rassurant que l'alternative (tout le monde faisant semblant que ça n'existe pas). Ce qui m'intéresse maintenant, c'est de voir si Bruxelles va copier le modèle ou s'inventer une usine à gaz de plus.

RégulationReglementation
1 source
Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
3The Decoder 

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington. La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation. L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

UELa décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

RégulationReglementation
1 source
L’UE bannit les contenus IA, Donald Trump en fait un levier politique
4ZDNET FR 

L’UE bannit les contenus IA, Donald Trump en fait un levier politique

Les institutions européennes ont officialisé l'interdiction des images et vidéos générées par intelligence artificielle dans leurs communications officielles, dans le cadre de la mise en œuvre progressive de l'AI Act. Cette décision vise à contrer la prolifération des deepfakes et à préserver l'intégrité de l'information diffusée par les organes de l'UE, qu'il s'agisse du Parlement, de la Commission ou du Conseil. Cette mesure prend une résonance particulière face aux dérives observées outre-Atlantique. Donald Trump et son entourage ont fait des contenus générés par IA un outil de communication à part entière, publiant régulièrement des images retouchées ou synthétiques sur les réseaux sociaux à des fins de propagande politique. L'écart de posture est saisissant : là où Bruxelles choisit la restriction pour protéger la confiance du citoyen, Washington instrumentalise la technologie pour amplifier un récit partisan. Cette divergence illustre une fracture plus profonde entre les deux blocs sur la régulation de l'IA. L'Europe avance avec l'AI Act comme boussole réglementaire, imposant des garde-fous stricts sur les usages sensibles. Les États-Unis, eux, n'ont pas de cadre fédéral équivalent, laissant le champ libre à des utilisations politiques qui alimentent la méfiance envers l'information numérique à l'approche des scrutins majeurs.

UELes institutions européennes (Parlement, Commission, Conseil) ont formellement interdit les contenus IA dans leurs communications officielles, marquant une application concrète de l'AI Act sur les usages sensibles.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour