Aller au contenu principal
Des juges nommés par Trump refusent de bloquer sa liste noire visant les technologies d'Anthropic
RégulationArs Technica AI2h

Des juges nommés par Trump refusent de bloquer sa liste noire visant les technologies d'Anthropic

1 source couvre ce sujet·Source originale ↗·

La cour d'appel fédérale du circuit du district de Columbia a refusé hier d'accorder un sursis d'urgence à Anthropic, qui tentait de bloquer sa mise sur liste noire par l'administration Trump. La décision a été rendue par un panel de trois juges nommés par des républicains, dont Gregory Katsas et Neomi Rao, tous deux anciens membres de l'administration Trump. Katsas avait occupé le poste de conseiller juridique adjoint du président lors du premier mandat de Trump, tandis que Rao avait servi au Bureau de la gestion et du budget. Si le tribunal a refusé l'urgence, il a toutefois accepté d'accélérer la procédure et fixé des plaidoiries orales au 19 mai. Anthropic a par ailleurs obtenu davantage de succès dans une seconde affaire distincte qu'elle a intentée simultanément contre l'administration.

Ce revers judiciaire illustre la gravité de la situation pour Anthropic : Trump a ordonné à l'ensemble des agences fédérales de cesser d'utiliser ses technologies, et le secrétaire à la Défense Pete Hegseth a classifié l'entreprise comme un "risque pour la chaîne d'approvisionnement en matière de sécurité nationale". Cette désignation interdit aux sous-traitants militaires de collaborer avec Anthropic, ce qui représente une menace directe sur une part significative de ses contrats commerciaux et de son accès aux marchés publics américains.

Selon Anthropic, ces mesures constituent une forme de représailles politiques. La société affirme avoir exercé ses droits constitutionnels garantis par le Premier Amendement en refusant que ses modèles Claude soient utilisés pour des opérations de guerre autonome ou de surveillance de masse des citoyens américains. La bataille juridique s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certaines entreprises technologiques sur les questions d'usage militaire de l'intelligence artificielle. L'issue des plaidoiries du 19 mai pourrait redéfinir les limites du pouvoir exécutif face aux acteurs privés de l'IA, et établir un précédent déterminant pour l'ensemble du secteur.

Impact France/UE

Un précédent américain sur les limites du pouvoir exécutif face aux entreprises IA pourrait influencer les débats européens sur la gouvernance de l'IA, notamment pour les partenaires européens d'Anthropic exposés aux marchés publics américains.

À lire aussi

Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence
1Le Big Data 

Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence

Mistral AI, la licorne française valorisée 11,7 milliards d'euros, a publié un document détaillant 22 mesures d'urgence pour permettre à l'Europe de ne pas se laisser distancer par les États-Unis et la Chine dans la course à l'intelligence artificielle. Parmi les propositions phares figure la création d'une "AI blue card", un titre de séjour simplifié inspiré de la carte bleue européenne, destiné à faciliter l'installation de chercheurs et développeurs étrangers sur le continent. L'entreprise appelle également à instaurer une préférence européenne dans les marchés publics, à introduire des incitations fiscales pour l'adoption d'infrastructures locales, et à centraliser les oeuvres du domaine public afin d'alimenter l'entraînement des modèles d'IA sans dépendre des plateformes étrangères. Pour donner corps à sa vision, Mistral AI a levé 830 millions de dollars de dette, destinés notamment à la construction d'un centre de données en France, avec un objectif de plus d'un milliard d'euros de chiffre d'affaires d'ici 2026. Ces propositions s'attaquent à un déséquilibre structurel documenté : sur 1 400 milliards de dollars investis dans le numérique à l'échelle mondiale, 80 % sont captés par les États-Unis. L'Europe dispose des talents et d'une capacité de financement, mais peine à organiser un marché cohérent qui permette à ses acteurs de rivaliser. Si les mesures proposées par Mistral étaient adoptées, elles changeraient concrètement les règles du jeu pour les entreprises et administrations européennes, qui seraient incitées à privilégier des solutions locales plutôt que de s'appuyer sur AWS, Azure ou Google Cloud. Pour les chercheurs étrangers, la "AI blue card" représenterait un signal fort que l'Europe entend sérieusement concurrencer la Silicon Valley en matière d'attractivité. Ces propositions s'inscrivent dans un contexte de prise de conscience accélérée sur la souveraineté technologique en Europe. OpenAI elle-même a publié récemment 13 pages de recommandations sur l'encadrement de l'automatisation, signe que les grands acteurs cherchent à peser sur les débats réglementaires avant que les gouvernements ne tranchent. Mistral, fondée en 2023 par d'anciens chercheurs de DeepMind et Meta, s'est rapidement imposée comme le champion européen de l'IA générative, avec des modèles open source compétitifs face aux offres américaines. En publiant ce plan en 22 points, la startup sort d'une posture purement technique pour entrer dans le débat politique et industriel, à un moment où la Commission européenne et les États membres cherchent encore leur doctrine face à la montée en puissance des grands modèles. Les prochains mois seront décisifs : si ces mesures trouvent un écho à Bruxelles ou à Paris, elles pourraient redéfinir les conditions dans lesquelles se développe l'IA en Europe.

UEMistral AI, licorne française, propose 22 mesures concrètes, préférence européenne dans les marchés publics, 'AI blue card' pour les talents étrangers, incitations fiscales pour l'infrastructure locale, qui pourraient redéfinir les règles du jeu pour les entreprises et administrations françaises et européennes.

RégulationReglementation
1 source
Les défis de gouvernance de l'IA à base d'agents face au règlement européen en 2026
2AI News 

Les défis de gouvernance de l'IA à base d'agents face au règlement européen en 2026

Les agents d'intelligence artificielle capables d'agir de façon autonome, de déplacer des données entre systèmes et de déclencher des décisions sans intervention humaine posent un défi de gouvernance croissant pour les organisations européennes. À partir d'août 2026, l'entrée en vigueur des dispositions d'exécution de l'AI Act de l'Union européenne rendra ce défi juridiquement contraignant. Les articles 9 et 13 du texte imposent aux entreprises utilisant des systèmes d'IA dans des domaines à risque élevé, notamment le traitement de données personnelles ou les opérations financières, de maintenir une gestion des risques continue, documentée et révisable à chaque étape du déploiement, ainsi que de garantir que les sorties des systèmes soient interprétables par leurs utilisateurs. Les manquements à ces obligations exposeront les organisations à des pénalités substantielles. Pour les responsables informatiques, cela signifie concrètement qu'ils doivent être capables de prouver, pièces à l'appui, qu'un agent IA agit de façon sûre et légale. Or, beaucoup d'organisations échouent dès la première étape : elles ne disposent pas d'un registre centralisé de leurs agents en production, ni d'un enregistrement précis de leurs capacités et permissions. Sans traçabilité complète des actions, quand un agent interagit avec d'autres agents dans des architectures multi-agents, la chaîne de responsabilité devient impossible à reconstituer. Des solutions techniques existent, comme le SDK Python Asqav, qui signe cryptographiquement chaque action d'un agent et lie les enregistrements à une chaîne de hachage immuable, rendant toute falsification détectable. L'enjeu dépasse la technique : il touche directement à la capacité des entreprises à démontrer leur conformité réglementaire à tout instant. L'émergence des architectures agentiques complexes, où des systèmes délèguent des tâches à d'autres agents sans supervision humaine directe, a rendu obsolètes les approches traditionnelles de gouvernance logicielle. L'AI Act oblige désormais les entreprises à repenser leurs processus de bout en bout : tout agent doit avoir une identité unique, des permissions documentées, et surtout un mécanisme de révocation rapide, idéalement en quelques secondes, incluant la suppression immédiate des accès API et l'annulation des tâches en attente. La supervision humaine ne peut se limiter à un score de confiance ou à l'affichage d'une requête : les opérateurs doivent disposer d'un contexte suffisant pour intervenir avant qu'une erreur ne se produise. Les fournisseurs tiers d'IA sont également concernés, car leurs systèmes doivent être suffisamment documentés et interprétables pour que les entreprises clientes puissent en garantir un usage conforme à la loi.

UELes entreprises françaises et européennes déployant des agents IA dans des domaines à risque élevé doivent mettre en conformité leurs processus de gouvernance (registre d'agents, traçabilité, révocation) avant l'entrée en vigueur des articles 9 et 13 de l'AI Act en août 2026, sous peine de pénalités substantielles.

RégulationReglementation
1 source
Des YouTubeurs accusent Apple d’avoir utilisé leurs vidéos pour entraîner son IA
3Siècle Digital 

Des YouTubeurs accusent Apple d’avoir utilisé leurs vidéos pour entraîner son IA

Le fondateur de h3h3Productions, la chaîne YouTube comptant plusieurs millions d'abonnés, a déposé une action collective devant un tribunal fédéral de Californie contre Apple. Il est rejoint par deux chaînes spécialisées dans le golf, MrShortGame Golf et Golfholics. Les plaignants accusent Apple d'avoir utilisé leurs vidéos sans autorisation ni compensation pour entraîner les modèles de langage qui alimentent Apple Intelligence, le système d'IA intégré à iOS 18, iPadOS 18 et macOS Sequoia. Cette affaire illustre une tension croissante entre les créateurs de contenu numérique et les grandes entreprises technologiques qui aspirent des volumes massifs de données pour construire leurs modèles d'IA. Si le recours aboutit, il pourrait contraindre Apple à indemniser des milliers de créateurs dont les œuvres ont été ingérées sans consentement, et potentiellement redéfinir les obligations légales des entreprises en matière de collecte de données d'entraînement. Pour les YouTubeurs, dont les revenus dépendent directement de la valorisation de leur contenu, l'enjeu est autant financier que symbolique. Cette plainte s'inscrit dans une vague de litiges similaires qui secouent l'industrie de l'IA depuis 2023 : des auteurs, artistes, journaux comme le New York Times, et désormais des créateurs vidéo contestent devant les tribunaux l'utilisation de leurs œuvres par OpenAI, Meta, Google ou Stability AI. Apple, longtemps discret sur ses pratiques d'entraînement, se retrouve pour la première fois en première ligne de ces batailles juridiques qui pourraient remodeler les règles du jeu pour tout le secteur.

UEL'AI Act européen impose des obligations de transparence sur les données d'entraînement, et ce procès pourrait renforcer les revendications des créateurs de contenu européens face aux pratiques similaires des grandes plateformes opérant en Europe.

RégulationReglementation
1 source
Le Sénat adopte une loi qui pourrait forcer les géants de l’IA à prouver l’origine de leurs données
4Siècle Digital 

Le Sénat adopte une loi qui pourrait forcer les géants de l’IA à prouver l’origine de leurs données

Le Sénat français a adopté le 8 avril 2026 une proposition de loi imposant aux entreprises développant des systèmes d'intelligence artificielle de divulguer les données utilisées pour entraîner leurs modèles. Ce texte vise directement les géants du secteur comme OpenAI, Google, Meta ou Mistral, qui ont massivement ingéré des contenus issus d'œuvres protégées par le droit d'auteur, des articles de presse, des livres et des créations artistiques, sans compensation ni transparence vis-à-vis des auteurs concernés. L'enjeu est considérable pour les créateurs, éditeurs et médias français, qui réclament depuis l'essor de ChatGPT fin 2022 une reconnaissance légale de leur contribution aux modèles IA. Si cette loi entre en vigueur, les entreprises devront prouver l'origine de chaque jeu de données utilisé, ouvrant la voie à des négociations de licences et potentiellement à des mécanismes de rémunération. Pour l'industrie de l'IA, cela représente une contrainte technique et juridique majeure, susceptible de ralentir le déploiement de nouveaux modèles en France et en Europe. Ce vote s'inscrit dans un mouvement plus large de régulation du secteur, parallèlement à l'AI Act européen qui entre progressivement en application. Plusieurs procès intentés par des journaux américains contre OpenAI ont déjà mis en lumière la question de l'utilisation non autorisée de contenus. La France cherche ici à anticiper ces conflits en posant un cadre légal national, même si le texte devra encore passer devant l'Assemblée nationale avant de devenir définitivement loi.

UELe Sénat français impose aux développeurs d'IA de prouver l'origine de leurs données d'entraînement, ouvrant la voie à des négociations de licences et à une rémunération des créateurs, éditeurs et médias français.

💬 C'est le genre de texte de loi qu'on attendait depuis le début, et le Sénat a eu le bon sens de pas attendre que les procès américains fassent jurisprudence ici. Reste qu'entre "adopté au Sénat" et "en vigueur", il y a encore l'Assemblée nationale, et ça peut prendre du temps. Mistral va devoir jouer le jeu aussi, pas seulement les Américains, ce qui rend le truc vraiment sérieux.

RégulationReglementation
1 source