Aller au contenu principal
Microsoft et des chercheurs concurrents en IA se rassemblent pour soutenir Anthropic contre le Département de la Défense
RégulationThe Decoder8sem

Microsoft et des chercheurs concurrents en IA se rassemblent pour soutenir Anthropic contre le Département de la Défense

Résumé IASource uniqueImpact UE
Source originale ↗·

Une large coalition soutient Anthropic dans son bras de fer juridique avec le Département de la Défense américain. Microsoft, des dizaines d'employés d'OpenAI et Google, d'anciens responsables militaires ainsi que des organisations de défense des droits civils ont déposé des mémoires d'amicus curiae en faveur de l'entreprise. Ce front uni entre concurrents directs illustre l'ampleur des enjeux soulevés par ce conflit entre l'IA civile et les intérêts militaires américains.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic poursuit le Département de la Défense
1The Verge AI 

Anthropic poursuit le Département de la Défense

Anthropic a poursuivi le gouvernement américain en justice après que le Pentagone l'a désigné comme un risque pour la chaîne d'approvisionnement. L'entreprise accuse l'administration Trump de représailles illégales pour avoir fixé des "lignes rouges" contre la surveillance de masse et les armes autonomes. Le procès, déposé en Californie, invoque une violation de la Constitution en raison de la position d'Anthropic sur la sécurité de l'IA.

RégulationActu
1 source
Employés d'OpenAI et Google soutiennent le recours d'Anthropic contre le Pentagone
2The Verge AI 

Employés d'OpenAI et Google soutiennent le recours d'Anthropic contre le Pentagone

Anthropic a déposé lundi une plainte contre le Département de la Défense américain après avoir été désigné comme "risque pour la chaîne d'approvisionnement" — une classification habituellement réservée aux entreprises étrangères. Dans la foulée, près de 40 employés d'OpenAI et Google, dont Jeff Dean (chef scientifique de Google et responsable de Gemini), ont soumis un mémoire d'amicus curiae en soutien à Anthropic. Cette désignation par l'administration Trump soulève de vives inquiétudes sur ses implications pour le secteur de l'IA américain.

RégulationActu
1 source
Anthropic poursuit en justice le Département de la Défense pour une classification de risque dans la chaîne d'approvisionnement
3Wired AI 

Anthropic poursuit en justice le Département de la Défense pour une classification de risque dans la chaîne d'approvisionnement

Anthropic a engagé des poursuites judiciaires contre le Département de la Défense américain, accusant l'administration Trump d'avoir transformé un litige contractuel en interdiction fédérale de ses technologies. La société estime que le gouvernement a outrepassé ses prérogatives en lui attribuant une désignation de risque dans la chaîne d'approvisionnement. Cette décision menace directement les activités commerciales d'Anthropic, développeur du chatbot Claude.

RégulationReglementation
1 source
Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
4MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour