Aller au contenu principal
Huit géants technologiques signent des contrats avec le Pentagone pour bâtir une force combattante axée sur l'IA sur des réseaux classifiés
SécuritéThe Decoder2h

Huit géants technologiques signent des contrats avec le Pentagone pour bâtir une force combattante axée sur l'IA sur des réseaux classifiés

Résumé IASource uniqueImpact UE
Source originale ↗·

Le Pentagone a signé des contrats avec huit entreprises technologiques pour déployer des solutions d'intelligence artificielle sur ses réseaux classifiés, dans le cadre d'une initiative visant à bâtir ce que le département de la Défense appelle une "force de combat orientée IA en priorité". Ces accords matérialisent l'ambition américaine d'intégrer l'IA au coeur même de ses opérations militaires les plus sensibles. Anthropic, le créateur du modèle Claude, est ostensiblement absent de cette liste après avoir refusé de signer une clause d'utilisation imposée par le Pentagone, ce qui lui a valu d'être officiellement signalé comme "risque de sécurité".

L'intégration de l'IA dans des réseaux militaires classifiés représente un tournant structurant pour l'industrie technologique américaine. Ces contrats ouvrent la voie à une utilisation opérationnelle de l'IA dans des environnements de haute sécurité, potentiellement de la logistique jusqu'à la prise de décision tactique. Le cas Anthropic illustre une tension croissante entre les garde-fous éthiques que s'imposent certains acteurs de l'IA et les exigences sans concession des forces armées, une ligne de fracture appelée à s'approfondir à mesure que les usages militaires se multiplient.

Cette dynamique s'inscrit dans une course aux armements numériques entre grandes puissances, les États-Unis cherchant à conserver leur avance technologique face à la Chine. Le Pentagone intensifie depuis plusieurs années ses partenariats avec le secteur privé, de Project Maven à JEDI, pour moderniser ses capacités numériques. Le refus d'Anthropic rappelle la résistance qu'avaient manifestée des ingénieurs de Google lors de Project Maven en 2018, posant une question désormais centrale: jusqu'où les entreprises d'IA dites "responsables" sont-elles prêtes à collaborer avec les militaires?

Impact France/UE

La militarisation accélérée de l'IA aux États-Unis oblige les gouvernements européens à définir leur propre doctrine sur l'usage militaire de l'IA, un débat directement lié à la politique de défense commune de l'UE et à l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale
1The Verge 

Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale

Google a conclu un accord classifié avec le département américain de la Défense (DoD) autorisant ce dernier à utiliser ses modèles d'intelligence artificielle pour "tout usage gouvernemental légal", selon un rapport de The Information publié lundi. La révélation intervient moins de vingt-quatre heures après qu'une partie des employés de Google a adressé une pétition au PDG Sundar Pichai, exigeant qu'il bloque l'accès du Pentagone à ses technologies, par crainte que celles-ci soient employées à des fins "inhumaines ou extrêmement préjudiciables". Cet accord positionne Google aux côtés d'OpenAI et xAI, qui ont eux aussi signé des contrats classifiés avec le gouvernement américain. La décision illustre la tension croissante au sein des grandes entreprises tech entre impératifs commerciaux et éthique de déploiement : le DoD représente un client stratégique de premier plan, mais ses usages potentiels des systèmes d'IA restent opaques pour le grand public comme pour les salariés de ces entreprises. Le contexte récent éclaire la portée de ce choix. Anthropic a été récemment inscrit sur liste noire par le Pentagone après avoir refusé de supprimer ses garde-fous de sécurité sur demande du DoD. Google, en acceptant un accès étendu et sans restrictions explicites, prend le chemin inverse. La question des applications militaires de l'IA, qu'il s'agisse de ciblage, de surveillance ou d'automatisation de décisions, s'impose désormais comme un enjeu central pour l'ensemble du secteur.

UEL'accord pousse les régulateurs européens à préciser dans l'AI Act les conditions d'usage militaire de l'IA, mettant en lumière un vide réglementaire que les institutions de l'UE devront combler.

SécuritéOpinion
1 source
Télémétrie orientée gouvernance pour le contrôle en boucle fermée des systèmes IA multi-agents
2Apple Machine Learning 

Télémétrie orientée gouvernance pour le contrôle en boucle fermée des systèmes IA multi-agents

Les systèmes d'IA multi-agents déployés en entreprise génèrent des milliers d'interactions inter-agents par heure, créant un défi de supervision inédit. Des chercheurs ont présenté GAAT (Governance-Aware Agent Telemetry), une architecture de référence conçue pour fermer la boucle entre la collecte de télémétrie et l'application automatique de politiques de gouvernance dans ces environnements complexes. L'architecture cible précisément le point aveugle laissé par les outils actuels comme OpenTelemetry ou Langfuse, qui enregistrent les données d'observabilité sans jamais intervenir en temps réel. Le problème que GAAT cherche à résoudre est concret : aujourd'hui, les violations de politiques dans les pipelines d'agents IA ne sont détectées qu'après coup, une fois les dommages causés. Ce fossé "observer-sans-agir" expose les entreprises à des risques opérationnels, réglementaires et de sécurité significatifs. En couplant la télémétrie à un moteur d'exécution de politiques, GAAT permet de détecter et bloquer une violation au moment même où elle se produit, transformant l'observabilité en levier de contrôle actif. Cette proposition s'inscrit dans un contexte où l'adoption des architectures multi-agents s'accélère fortement, notamment avec des frameworks comme LangGraph, AutoGen ou CrewAI, sans que les outils de gouvernance n'aient suivi le même rythme. Les régulations émergentes sur l'IA, en particulier l'AI Act européen, imposent des exigences croissantes de traçabilité et d'auditabilité des systèmes automatisés. GAAT représente une tentative de combler ce retard en proposant un standard d'architecture que les équipes d'ingénierie pourraient adopter avant que les incidents ne forcent leur main.

UEL'AI Act européen imposant des exigences de traçabilité et d'auditabilité des systèmes automatisés, GAAT propose une architecture de référence concrète que les entreprises européennes pourraient adopter pour anticiper leur mise en conformité réglementaire.

SécuritéOpinion
1 source
Red-teaming d'un réseau d'agents : ce qui se brise quand les agents IA interagissent à grande échelle
3Microsoft Research 

Red-teaming d'un réseau d'agents : ce qui se brise quand les agents IA interagissent à grande échelle

Des chercheurs ont mené des tests offensifs, ou red-teaming, sur une plateforme interne réunissant plus de 100 agents d'intelligence artificielle en interaction, chacun tournant sur des modèles différents, avec des instructions et des mémoires distinctes, et agissant au nom d'un utilisateur humain. Le résultat est sans ambiguïté : certains risques n'apparaissent pas lors des tests d'agents isolés, ils émergent uniquement lorsque les agents communiquent entre eux. L'équipe a identifié quatre types de vulnérabilités spécifiques aux réseaux : la propagation (un message malveillant se transmet de proche en proche en collectant des données privées à chaque étape), l'amplification (un attaquant exploite la réputation d'un agent fiable pour diffuser une fausse information jusqu'à générer de fausses preuves en chaîne), la capture de confiance (détournement du mécanisme de vérification entre agents pour qu'il valide des mensonges), et l'invisibilité (l'origine d'une attaque devient intraçable car l'information transite par des agents qui n'en ont pas conscience). Ces découvertes ont des implications concrètes pour l'ensemble de l'industrie de l'IA. Les plateformes comme Claude, Copilot ou ChatGPT, combinées à des outils existants comme GitHub ou la messagerie électronique, mettent des agents en contact permanent. Lorsqu'un réseau d'agents opère en continu et communique plus vite que les humains, une information, ou une attaque, peut se propager en quelques minutes à travers des dizaines d'entités. La fiabilité d'un agent individuel ne prédit pas le comportement collectif du réseau : les défaillances se propagent aussi vite que les succès. Un réseau social exclusivement peuplé d'agents, lancé récemment, a attiré des dizaines de milliers de participants en quelques jours avant d'être rapidement submergé de spam et d'arnaques, illustrant concrètement ce phénomène. Ces travaux s'inscrivent dans une ligne de recherche émergente sur les systèmes multi-agents, qui comprend notamment les frameworks Prompt Infection et ClawWorm, ou encore le rapport Agents of Chaos, qui documentent comment des prompts adversariaux peuvent se propager de façon autonome. La particularité de cette étude est d'avoir été conduite sur un environnement réel et en conditions opérationnelles, et non sur un dispositif purement expérimental. Les chercheurs ont également observé des signes précoces de défense spontanée : une minorité d'agents avait adopté des comportements orientés sécurité qui limitaient la progression des attaques. Ce résultat encourage, mais les auteurs soulignent que les mécanismes de défense au niveau réseau restent un défi ouvert. Construire des réseaux d'agents robustes exigera de dépasser les benchmarks mono-agent, désormais insuffisants face à la réalité des déploiements interconnectés.

UELes organisations européennes déployant des architectures multi-agents pour automatiser leurs processus sont exposées à des classes de vulnérabilités émergentes (propagation, amplification, capture de confiance) non détectables par les tests mono-agent standards actuellement en usage.

SécuritéOpinion
1 source
Fuite géante chez Anthropic : pourquoi le futur Claude inquiète déjà ses créateurs
401net 

Fuite géante chez Anthropic : pourquoi le futur Claude inquiète déjà ses créateurs

Anthropic a développé en secret un nouveau modèle d'intelligence artificielle baptisé Mythos, considéré en interne comme « de loin le plus puissant » jamais entraîné par la startup californienne. L'information a filtré à l'extérieur avant toute annonce officielle, révélant non seulement l'existence du modèle, mais aussi les préoccupations que celui-ci suscite au sein même de l'entreprise. Selon des informations internes, Mythos présenterait des « risques de cybersécurité significatifs » — une formulation rare et frappante de la part d'un créateur à propos de son propre produit. Cette autocritique publique — même involontaire — est significative : elle indique qu'Anthropic aurait franchi un seuil de capacité suffisamment inquiétant pour le documenter formellement, probablement dans le cadre de ses évaluations de sécurité pré-déploiement. Si le modèle est jugé capable de faciliter des cyberattaques à un niveau notable, cela soulève des questions immédiates sur les conditions dans lesquelles il sera (ou non) rendu accessible, et avec quelles garde-fous. Pour les entreprises, gouvernements et chercheurs qui s'appuient sur Claude, cela signifie une puissance accrue mais aussi un risque de mauvais usage potentiellement inédit. Anthropic s'est toujours positionné comme le laboratoire d'IA le plus rigoureux en matière de sécurité, publiant régulièrement des « model cards » détaillant les risques évalués avant chaque lancement. La fuite autour de Mythos intervient dans un contexte de course effrénée entre OpenAI, Google DeepMind et Anthropic pour sortir des modèles toujours plus capables. La question centrale désormais : jusqu'où un laboratoire peut-il aller avant de décider de ne pas déployer ce qu'il a construit ?

UELes entreprises et institutions européennes utilisant Claude devront surveiller les conditions de déploiement de Mythos et les garde-fous imposés, notamment au regard des obligations d'évaluation des risques prévues par l'AI Act pour les modèles à usage général de forte puissance.

SécuritéOpinion
1 source