Aller au contenu principal
Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense
ÉthiqueMIT Technology Review6sem

Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense

Résumé IASource uniqueImpact UE
Source originale ↗·

Le Pentagone envisage de créer des environnements sécurisés permettant aux grandes entreprises d'intelligence artificielle d'entraîner leurs modèles sur des données classifiées militaires, selon des informations obtenues par le MIT Technology Review. Ce développement marquerait une rupture significative avec la pratique actuelle, où des modèles comme Claude d'Anthropic sont déjà utilisés pour répondre à des questions en contexte classifié — notamment pour l'analyse de cibles en Iran — sans pour autant avoir accès aux données lors de leur phase d'entraînement.

L'enjeu est de taille : entraîner des modèles directement sur des renseignements classifiés permettrait de les rendre sensiblement plus précis et efficaces pour des tâches militaires spécifiques. Cette initiative s'inscrit dans un contexte de forte demande, alors que le Pentagone a déjà conclu des accords avec OpenAI et xAI d'Elon Musk pour opérer leurs modèles dans des environnements sécurisés, et qu'il cherche à se transformer en une force de combat « IA-first » face à l'escalade des tensions avec l'Iran.

Concrètement, l'entraînement se déroulerait dans des centres de données accrédités pour héberger des projets gouvernementaux classifiés. Le Département de la Défense conserverait la propriété des données, mais du personnel des entreprises d'IA disposant des habilitations appropriées pourrait, dans de rares cas, y avoir accès. Avant d'aller plus loin, le Pentagone prévoit néanmoins d'évaluer d'abord les performances des modèles sur des données non classifiées, comme des images satellites commerciales. Aalok Mehta, directeur du Wadhwani AI Center au Center for Strategic and International Studies, pointe le risque principal : des informations sensibles — comme l'identité d'un agent opérationnel — intégrées lors de l'entraînement pourraient être involontairement révélées à des unités militaires non autorisées à y accéder.

Palantir, acteur incontournable de la sécurité, a déjà remporté d'importants contrats pour construire l'infrastructure permettant aux officiels d'interroger des modèles d'IA en environnement classifié. Mehta tempère toutefois les inquiétudes les plus extrêmes : avec une architecture correctement conçue, le risque de fuite vers l'internet public ou vers les serveurs des entreprises privées resterait « très limité ». Le défi principal demeure donc interne — cloisonner l'information entre les différents niveaux d'accréditation au sein même de l'appareil militaire américain.

Impact France/UE

Les débats américains sur l'entraînement de l'IA sur des données militaires classifiées pourraient accélérer les réflexions européennes sur l'encadrement de l'IA de défense dans le cadre du AI Act.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage
1MIT Technology Review 

Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage

L'armée américaine envisage d'utiliser des IA génératives comme ChatGPT (OpenAI) et Grok (xAI) — qui ont récemment signé des accords avec le Pentagone — pour classer des listes de cibles et formuler des recommandations de frappe, sous supervision humaine. Ces chatbots viendraient s'ajouter en couche conversationnelle au système Maven, en place depuis 2017, qui utilise la vision par ordinateur pour analyser drones et images satellitaires. Des rapports indiquent que Claude d'Anthropic est déjà intégré dans des opérations militaires en Iran et au Venezuela, mais les LLM restent moins éprouvés au combat que les IA traditionnelles.

ÉthiqueActu
1 source
Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA
2The Verge 

Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA

Plus de 600 employés de Google ont signé une lettre adressée au PDG Sundar Pichai pour exiger que l'entreprise refuse d'autoriser le Pentagone à utiliser ses modèles d'intelligence artificielle à des fins militaires classifiées, selon le Washington Post. Les organisateurs de cette pétition affirment que les signataires incluent de nombreux membres du laboratoire DeepMind, ainsi que plus de vingt directeurs de haut rang, vice-présidents et responsables techniques. La lettre a été transmise en interne avant d'être relayée par la presse. Le texte de la pétition est sans ambiguïté : "La seule façon de garantir que Google ne soit pas associé à de tels préjudices est de rejeter tout contrat classifié." Les employés craignent que des usages militaires problématiques puissent se produire sans leur connaissance ni la possibilité d'intervenir. Pour eux, le secret entourant les contrats classifiés rend impossible tout contrôle éthique interne, ce qui représente un risque fondamental pour la réputation et les valeurs affichées de l'entreprise. Ce mouvement s'inscrit dans une longue tradition de résistance interne chez Google : en 2018, des milliers d'employés avaient forcé l'entreprise à abandonner le projet Maven, un contrat d'analyse d'images par IA pour l'armée américaine. Depuis, Google a néanmoins signé d'autres contrats de défense. Le sujet est d'autant plus brûlant qu'Anthropic est actuellement engagé dans un litige juridique avec le Pentagone autour d'un contrat similaire, illustrant les tensions croissantes entre la Silicon Valley et le complexe militaro-industriel américain.

UECe mouvement de protestation interne illustre les tensions éthiques sur l'usage militaire de l'IA, un débat que l'Europe devra trancher dans le cadre de l'AI Act et de sa politique de défense commune émergente.

ÉthiqueActu
1 source
La controverse Pentagone-Anthropic va-t-elle dissuader les startups de s'engager dans la défense ?
3TechCrunch AI 

La controverse Pentagone-Anthropic va-t-elle dissuader les startups de s'engager dans la défense ?

Le podcast Equity de TechCrunch a analysé la controverse entre le Pentagone et Anthropic, se demandant si elle pourrait décourager d'autres startups de travailler avec le gouvernement fédéral américain. L'épisode examine les implications de ce différend pour l'ensemble des entreprises technologiques cherchant à nouer des partenariats avec la défense.

ÉthiqueOpinion
1 source
Google donne un builder d’agents IA au Pentagone, et on ne sait même pas pourquoi
4Le Big Data 

Google donne un builder d’agents IA au Pentagone, et on ne sait même pas pourquoi

Google déploie ses agents IA Gemini auprès des 3 millions d'employés du Pentagone, confirmé par Emil Michael, sous-secrétaire à la Défense. Dans un premier temps limités aux réseaux non classifiés et aux tâches administratives et logistiques, ces agents pourraient être étendus aux systèmes classifiés selon une négociation en cours avec Google. L'annonce suscite des réactions mitigées, rappelant le controversé Project Maven de 2017, et soulève des questions sur les limites éthiques imposées aux fournisseurs technologiques travaillant avec la défense américaine.

ÉthiqueActu
1 source