
Le Pentagone envisage de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense
Le Pentagone envisage de créer des environnements sécurisés permettant aux grandes entreprises d'intelligence artificielle d'entraîner leurs modèles sur des données classifiées militaires, selon des informations obtenues par le MIT Technology Review. Ce développement marquerait une rupture significative avec la pratique actuelle, où des modèles comme Claude d'Anthropic sont déjà utilisés pour répondre à des questions en contexte classifié — notamment pour l'analyse de cibles en Iran — sans pour autant avoir accès aux données lors de leur phase d'entraînement.
L'enjeu est de taille : entraîner des modèles directement sur des renseignements classifiés permettrait de les rendre sensiblement plus précis et efficaces pour des tâches militaires spécifiques. Cette initiative s'inscrit dans un contexte de forte demande, alors que le Pentagone a déjà conclu des accords avec OpenAI et xAI d'Elon Musk pour opérer leurs modèles dans des environnements sécurisés, et qu'il cherche à se transformer en une force de combat « IA-first » face à l'escalade des tensions avec l'Iran.
Concrètement, l'entraînement se déroulerait dans des centres de données accrédités pour héberger des projets gouvernementaux classifiés. Le Département de la Défense conserverait la propriété des données, mais du personnel des entreprises d'IA disposant des habilitations appropriées pourrait, dans de rares cas, y avoir accès. Avant d'aller plus loin, le Pentagone prévoit néanmoins d'évaluer d'abord les performances des modèles sur des données non classifiées, comme des images satellites commerciales. Aalok Mehta, directeur du Wadhwani AI Center au Center for Strategic and International Studies, pointe le risque principal : des informations sensibles — comme l'identité d'un agent opérationnel — intégrées lors de l'entraînement pourraient être involontairement révélées à des unités militaires non autorisées à y accéder.
Palantir, acteur incontournable de la sécurité, a déjà remporté d'importants contrats pour construire l'infrastructure permettant aux officiels d'interroger des modèles d'IA en environnement classifié. Mehta tempère toutefois les inquiétudes les plus extrêmes : avec une architecture correctement conçue, le risque de fuite vers l'internet public ou vers les serveurs des entreprises privées resterait « très limité ». Le défi principal demeure donc interne — cloisonner l'information entre les différents niveaux d'accréditation au sein même de l'appareil militaire américain.
Les débats américains sur l'entraînement de l'IA sur des données militaires classifiées pourraient accélérer les réflexions européennes sur l'encadrement de l'IA de défense dans le cadre du AI Act.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




