
Le Pentagone choisit ses nouveaux fournisseurs IA et exclut Anthropic… enfin presque
Le Pentagone a signé fin avril 2026 des accords avec huit fournisseurs de modèles d'intelligence artificielle pour déployer leurs technologies dans des opérations militaires classifiées. Les entreprises retenues sont OpenAI, Google, Microsoft, Amazon Web Services, NVIDIA, Oracle, SpaceX via sa filiale xAI, et Reflection. Ces contrats couvrent deux niveaux de classification : l'IL6, équivalent du « secret défense », et l'IL7, réservé aux données encore plus sensibles liées aux opérations en cours. Concrètement, ces IA seront mobilisées pour l'analyse de renseignement, la planification d'opérations et l'aide à la prise de décision en temps réel. Une entreprise brille par son absence : Anthropic, pourtant l'un des acteurs les plus avancés du secteur, a été écarté de ces accords.
Cette sélection marque une accélération majeure de l'intégration de l'IA dans l'appareil militaire américain, avec des implications industrielles et éthiques immédiates. Chez Google, l'accord signé le 27 avril a provoqué une fronde interne : plus de 560 employés ont adressé une lettre ouverte à Sundar Pichai, réclamant que l'entreprise refuse tout contrat impliquant des opérations classifiées. « La seule façon de garantir que Google ne soit pas associé à de tels dommages est de refuser tout travail sur des projets classifiés », écrivent les signataires. Kent Walker, président des affaires juridiques d'Alphabet, a répondu sans ambiguïté dans un mémo interne, affirmant que Google travaillait « avec fierté » avec le ministère de la Défense depuis ses débuts et que soutenir la sécurité nationale de manière « réfléchie et responsable » restait une priorité de l'entreprise.
Le cas Anthropic illustre les tensions profondes entre les exigences du Pentagone et les garde-fous éthiques des labs d'IA. Le DoD utilisait pourtant les modèles Claude depuis 2024, dans des opérations sensibles : ils auraient notamment contribué à la capture de Nicolas Maduro le 3 janvier, et aux premières opérations militaires liées au conflit israélo-iranien. Mais Anthropic a posé des conditions, refusant notamment que sa technologie serve à la surveillance de masse de citoyens américains ou à des armes entièrement autonomes. Le DoD, peu enclin à se laisser imposer des contraintes par un fournisseur, a alors désigné Anthropic « fournisseur à risque », une première pour une entreprise américaine, assimilée à une menace pour la chaîne d'approvisionnement nationale. L'affaire s'est depuis enlisée devant les tribunaux. Le lancement de Mythos par Anthropic début avril semble avoir légèrement rouvert la porte : le directeur technique du DoD, Emil Michael, reconnaît qu'Anthropic reste un risque d'approvisionnement tout en laissant entendre que la situation pourrait évoluer.
L'accélération de l'IA militaire classifiée aux États-Unis risque de relancer les débats européens sur une doctrine IA-défense propre et sur les limites que l'AI Act pourrait imposer aux applications militaires des modèles d'IA.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



