Aller au contenu principal
Sanctions de Trump contre Anthropic : la justice suspend les mesures
AutreFrandroid3h

Sanctions de Trump contre Anthropic : la justice suspend les mesures

1 source couvre ce sujet·Source originale ↗·

Une juge fédérale américaine a suspendu les sanctions décidées par l'administration Trump à l'encontre d'Anthropic, la société d'intelligence artificielle fondatrice du chatbot Claude. La décision judiciaire, rendue récemment, bloque temporairement l'application de ces mesures gouvernementales, dont la nature exacte n'a pas été entièrement divulguée, mais qui ciblaient directement l'entreprise de San Francisco en raison de ses positions publiques sur l'éthique de l'IA.

La juge a estimé que ces sanctions constituaient une violation du premier amendement de la Constitution américaine, qui protège la liberté d'expression. En pénalisant Anthropic pour ses prises de position éthiques — notamment ses mises en garde répétées sur les risques liés au développement non régulé de l'intelligence artificielle — l'administration aurait utilisé le pouvoir exécutif pour réprimer un discours légalement protégé. Cette suspension est une victoire significative pour l'entreprise, dont la valorisation dépasse les 60 milliards de dollars après sa dernière levée de fonds.

Ce bras de fer s'inscrit dans une tension plus large entre l'administration Trump et certains acteurs de la Silicon Valley jugés trop critiques ou trop enclins à soutenir une régulation de l'IA. Anthropic, cofondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, s'est distinguée par une approche explicitement orientée vers la sécurité et la responsabilité. L'affaire pourrait faire jurisprudence sur les limites du pouvoir exécutif face aux entreprises technologiques qui s'engagent dans le débat public.

À lire aussi

1Numerama 

Une « erreur humaine » provoque la fuite de Claude Mythos : le prochain modèle d’Anthropic qui inquiète jusqu’à ses créateurs

Le 26 mars 2026, une erreur de configuration sur le blog officiel d'Anthropic a rendu publiquement accessible un document interne décrivant Claude Mythos, le prochain grand modèle de l'entreprise. La fuite, qualifiée d'« erreur humaine » par Anthropic, a duré suffisamment longtemps pour que des captures d'écran circulent largement sur les réseaux sociaux avant d'être supprimées. Le document révèle que Claude Mythos atteindrait un niveau dit « ASL-4 » sur l'échelle interne d'évaluation des risques de l'entreprise — un seuil jamais franchi jusqu'ici. Ce classement ASL-4 est particulièrement préoccupant car il signifie, selon le cadre de sécurité d'Anthropic lui-même, que le modèle présente des capacités offensives en cybersécurité supérieures à tout ce qui existe actuellement sur le marché. Concrètement, un tel modèle pourrait faciliter des attaques informatiques sophistiquées, voire assister des acteurs malveillants dans la conception d'armes biologiques ou chimiques — des scénarios que les chercheurs en sécurité de l'IA considèrent comme des risques existentiels. Ce n'est pas un tiers qui tire la sonnette d'alarme : c'est Anthropic elle-même qui documente ces risques dans ses propres évaluations. Cette révélation involontaire s'inscrit dans un contexte de course effrénée aux modèles toujours plus puissants entre Anthropic, OpenAI et Google DeepMind. Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI sur la promesse d'une IA « sûre par conception », se retrouve face à une contradiction fondamentale : publier un modèle qu'elle-même juge potentiellement dangereux. La question de savoir si — et quand — Claude Mythos sera effectivement déployé, et avec quelles restrictions, reste entière.

UEUn modèle classé ASL-4 tomberait sous les dispositions de l'AI Act pour les modèles à risque systémique, obligeant Anthropic à des évaluations renforcées avant tout déploiement dans l'UE.

AutreActu
1 source
2Le Monde Pixels 

« La Silicon Valley a compris avant tout le monde que la guerre du futur serait une guerre logicielle »

Georges Nahon, ancien directeur général d'Orange Labs, publie dans Le Monde une tribune dans laquelle il interroge la nécessité d'une nationalisation partielle, voire totale, des grandes entreprises d'intelligence artificielle générative. Face à la montée en puissance de l'IA dans les stratégies militaires mondiales, il soulève une question que peu d'acteurs institutionnels osent encore poser publiquement : peut-on laisser des technologies aussi décisives entre des mains entièrement privées ? L'enjeu est considérable. Si la guerre du futur est avant tout une guerre logicielle — comme le titre de la tribune l'affirme —, alors les entreprises qui maîtrisent les modèles de langage les plus avancés détiennent un avantage stratégique comparable à celui que représentaient autrefois l'armement nucléaire ou le contrôle des ressources énergétiques. Laisser cette puissance aux seules mains d'acteurs privés, non élus et peu régulés, pose des questions démocratiques et sécuritaires fondamentales. La Silicon Valley a, selon Nahon, anticipé bien avant les États cette convergence entre IA civile et militaire. Des contrats comme ceux de Palantir, Microsoft ou Google avec l'armée américaine illustrent ce mouvement. En Europe, la question de la souveraineté numérique resurgit avec une acuité nouvelle, alors que ni la France ni l'Union européenne ne disposent de champions comparables capables de peser dans cette nouvelle course aux armements algorithmiques.

UELa tribune soulève directement la question de la souveraineté numérique française et européenne, pointant l'absence de champions IA capables de peser dans la nouvelle course aux armements algorithmiques face aux acteurs américains.

AutreReglementation
1 source
3Le Monde Pixels 

Intelligence artificielle : une juge fédérale suspend pour une semaine les sanctions de l’administration Trump envers Anthropic

Il me semble que le corps de l'article n'a pas été inclus dans votre message — j'ai uniquement le titre et une légende de photo. Pourriez-vous coller le texte complet de l'article ? Avec les détails (nom de la juge, nature des sanctions, date de la décision, contexte juridique), je pourrai rédiger le résumé de qualité journalistique que vous attendez.

UEUne décision judiciaire américaine bloquant des sanctions gouvernementales contre un acteur majeur de l'IA crée un précédent sur l'intervention des États dans le secteur, susceptible d'influencer le débat réglementaire européen sur la gouvernance de l'IA.

AutreReglementation
1 source
4TechCrunch AI 

Anthropic obtient une injonction contre l'administration Trump dans l'affaire du Pentagone

Un juge fédéral américain a ordonné à l'administration Trump de lever les restrictions récemment imposées à Anthropic, la société mère de l'assistant conversationnel Claude. L'injonction, prononcée par un tribunal fédéral, contraint le gouvernement à annuler des mesures qui limitaient les activités ou l'accès de l'entreprise dans le cadre de contrats liés au Pentagone. Cette décision judiciaire représente un revers significatif pour l'administration Trump dans ses tentatives de réguler ou de restreindre certaines entreprises d'intelligence artificielle. Pour Anthropic, le maintien de ses relations contractuelles avec le département de la Défense est crucial : les contrats gouvernementaux constituent une source de revenus importante et un gage de légitimité pour les acteurs de l'IA en compétition pour des marchés fédéraux estimés à plusieurs milliards de dollars. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et plusieurs acteurs technologiques, certaines entreprises ayant été ciblées par des décisions exécutives controversées. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI, cherche à s'imposer comme un partenaire de confiance du gouvernement américain face à des concurrents comme OpenAI et Google DeepMind. L'issue de ce bras de fer juridique pourrait faire jurisprudence pour d'autres sociétés d'IA confrontées à des restrictions similaires.

AutreReglementation
1 source