Aller au contenu principal
The Download : l'accord militaire d'OpenAI avec les États-Unis et le procès de Grok pour CSAM
SécuritéMIT Technology Review6sem

The Download : l'accord militaire d'OpenAI avec les États-Unis et le procès de Grok pour CSAM

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI franchit une nouvelle ligne rouge : l'entreprise a officiellement accepté de donner au Pentagone un accès à ses technologies d'intelligence artificielle. Selon des informations révélées par des responsables de la défense américaine, cette collaboration pourrait aller jusqu'à assister à la sélection de cibles de frappe militaires — une application qui suscite une vive controverse en interne comme à l'extérieur.

Le partenariat soulève des questions fondamentales sur les limites éthiques de l'IA générative dans le domaine militaire. Si l'IA a longtemps servi à l'analyse stratégique, c'est la première fois que des systèmes génératifs sont testés pour éclairer des décisions opérationnelles sur le terrain. Le théâtre des opérations : l'Iran. L'alliance d'OpenAI avec Anduril — fabricant de drones et de technologies anti-drones — précise encore davantage la trajectoire de cette militarisation de l'IA.

Dans un autre registre, xAI, la société d'IA d'Elon Musk, est visée par une action en justice : des victimes accusent son modèle Grok d'avoir été conçu pour générer du matériel pédopornographique à partir de photos de personnes réelles. Pendant ce temps, Nvidia affiche un optimisme assumé en prédisant "au moins" 1 000 milliards de dollars de revenus issus des puces IA d'ici fin 2027 — une projection que Wall Street n'a pourtant pas accueillie avec enthousiasme. Son PDG Jensen Huang assure que "l'inflexion de l'inférence est arrivée", signalant un point de bascule où l'usage de l'IA accélère plus vite que son développement.

Anthropic recrute de son côté un expert en armement pour prévenir les "utilisations catastrophiques" de ses modèles — profil recherché : expérience en armes chimiques et/ou explosifs. En parallèle, des experts en bien-être d'OpenAI révèlent s'être opposés au lancement du "mode adulte" de ChatGPT, l'un d'eux alertant sur le risque de créer un "coach au suicide sexy" pour les utilisateurs vulnérables.

Impact France/UE

Ces développements renforcent la pression sur l'UE pour préciser, dans le cadre de l'AI Act, l'encadrement des usages militaires de l'IA générative et la responsabilité des fournisseurs de modèles face aux contenus illicites.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité
1MarkTechPost 

OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité

OpenAI a annoncé l'extension de son programme Trusted Access for Cyber (TAC) à des milliers de professionnels de la sécurité vérifiés individuellement, ainsi qu'à des centaines d'équipes chargées de défendre des infrastructures logicielles critiques. Au cœur de cette expansion figure GPT-5.4-Cyber, un modèle dérivé de GPT-5.4 spécifiquement ajusté pour les usages défensifs en cybersécurité. Contrairement au modèle standard, GPT-5.4-Cyber adopte ce qu'OpenAI qualifie d'approche "cyber-permissive" : son seuil de refus est délibérément abaissé pour les requêtes à vocation défensive légitime. Parmi les capacités débloquées figure notamment l'ingénierie inverse de binaires sans accès au code source, une fonctionnalité majeure pour analyser des firmwares, des bibliothèques tierces ou des échantillons de malwares compilés. Les utilisateurs accèdent au programme via chatgpt.com/cyber pour une vérification individuelle, ou par l'intermédiaire d'un représentant OpenAI pour les équipes entreprise. Ce changement s'attaque à un problème concret que connaissent bien les chercheurs et ingénieurs en sécurité : les modèles généralistes refusent fréquemment d'analyser du code malveillant ou d'expliquer des techniques d'exploitation, même dans un cadre manifestement défensif. Cette friction ralentit le travail des équipes de sécurité offensives et défensives légitimes, au profit, indirectement, des attaquants qui eux n'attendent pas de validation. En réduisant ces blocages pour des utilisateurs vérifiés, OpenAI cherche à rééquilibrer l'avantage technologique en faveur des défenseurs. Le modèle conserve toutefois des garde-fous stricts : l'exfiltration de données, la création ou le déploiement de malwares, et les tests non autorisés restent explicitement interdits. L'accès en mode zéro-rétention de données est également limité, OpenAI arguant d'une visibilité réduite sur l'environnement et les intentions de l'utilisateur dans cette configuration. La cybersécurité a toujours souffert de ce qu'on appelle le problème du double usage : les mêmes connaissances techniques servent aussi bien à défendre des systèmes qu'à les attaquer. Pour les systèmes d'IA, cette tension est particulièrement aiguë, car il est difficile de distinguer automatiquement une intention défensive d'une intention malveillante. OpenAI propose ici une réponse structurelle inédite : un cadre d'accès à plusieurs niveaux fondé sur la vérification d'identité, plutôt que des restrictions uniformes appliquées à tous. Cette approche s'inscrit dans une tendance plus large du secteur à différencier les accès selon le profil et les intentions déclarés de l'utilisateur. Si le modèle se généralise, d'autres fournisseurs de modèles comme Anthropic ou Google DeepMind pourraient être amenés à développer des dispositifs similaires pour ne pas laisser OpenAI s'imposer comme la référence des outils d'IA pour la sécurité professionnelle.

UELes professionnels de la cybersécurité européens peuvent candidater au programme TAC d'OpenAI pour accéder à des capacités d'analyse défensive avancées, notamment l'ingénierie inverse de binaires et l'analyse de malwares compilés.

SécuritéOpinion
1 source
The Download : les nouveaux projets d'IA du Pentagone et les réacteurs nucléaires de nouvelle génération
2MIT Technology Review 

The Download : les nouveaux projets d'IA du Pentagone et les réacteurs nucléaires de nouvelle génération

Le Pentagone prépare des environnements sécurisés pour permettre à des entreprises d'IA comme Anthropic d'entraîner leurs modèles sur des données classifiées, notamment des rapports de surveillance et évaluations de champ de bataille — une évolution majeure qui soulève de nouveaux risques de sécurité. Par ailleurs, la prochaine vague de réacteurs nucléaires de nouvelle génération pose des défis inédits en matière de gestion des déchets radioactifs, avec une grande diversité de designs impliquant autant de types de déchets potentiels. Enfin, des sous-marins narco sans équipage, équipés de terminaux Starlink et de pilotes automatiques nautiques, pourraient transformer le trafic de cocaïne colombien en permettant d'acheminer de plus grandes quantités sur de plus longues distances sans risque de capture pour les passeurs.

SécuritéActu
1 source
Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale
3The Verge 

Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale

Google a conclu un accord classifié avec le département américain de la Défense (DoD) autorisant ce dernier à utiliser ses modèles d'intelligence artificielle pour "tout usage gouvernemental légal", selon un rapport de The Information publié lundi. La révélation intervient moins de vingt-quatre heures après qu'une partie des employés de Google a adressé une pétition au PDG Sundar Pichai, exigeant qu'il bloque l'accès du Pentagone à ses technologies, par crainte que celles-ci soient employées à des fins "inhumaines ou extrêmement préjudiciables". Cet accord positionne Google aux côtés d'OpenAI et xAI, qui ont eux aussi signé des contrats classifiés avec le gouvernement américain. La décision illustre la tension croissante au sein des grandes entreprises tech entre impératifs commerciaux et éthique de déploiement : le DoD représente un client stratégique de premier plan, mais ses usages potentiels des systèmes d'IA restent opaques pour le grand public comme pour les salariés de ces entreprises. Le contexte récent éclaire la portée de ce choix. Anthropic a été récemment inscrit sur liste noire par le Pentagone après avoir refusé de supprimer ses garde-fous de sécurité sur demande du DoD. Google, en acceptant un accès étendu et sans restrictions explicites, prend le chemin inverse. La question des applications militaires de l'IA, qu'il s'agisse de ciblage, de surveillance ou d'automatisation de décisions, s'impose désormais comme un enjeu central pour l'ensemble du secteur.

UEL'accord pousse les régulateurs européens à préciser dans l'AI Act les conditions d'usage militaire de l'IA, mettant en lumière un vide réglementaire que les institutions de l'UE devront combler.

SécuritéOpinion
1 source
Les États-Unis accusent la Chine de vol de données IA à grande échelle, Pékin dément
4Ars Technica AI 

Les États-Unis accusent la Chine de vol de données IA à grande échelle, Pékin dément

Les États-Unis se préparent à durcir leur réponse face à ce qu'ils qualifient de vol massif de propriété intellectuelle dans le domaine de l'intelligence artificielle. Michael Kratsios, directeur du Bureau de la politique scientifique et technologique de la Maison Blanche, a alerté dans une note interne consultée par le Financial Times que "des entités étrangères, principalement basées en Chine, mènent des campagnes délibérées et à l'échelle industrielle pour distiller les systèmes d'IA frontière américains." Les accusations concrètes s'accumulent depuis plusieurs mois : en janvier, Google a signalé que des acteurs "commercialement motivés" avaient sollicité son modèle Gemini plus de 100 000 fois pour entraîner des copies moins coûteuses. En février, Anthropic a révélé que les entreprises chinoises DeepSeek, Moonshot et MiniMax avaient généré plus de 16 millions d'échanges avec Claude via environ 24 000 comptes frauduleux. OpenAI a confirmé au même moment que la majorité des attaques qu'elle détecte proviennent de Chine. La technique incriminée, appelée "distillation", consiste à interroger massivement un modèle IA existant pour en extraire les comportements et reproduire ses capacités à moindre coût. Pour les laboratoires américains, il s'agit d'un contournement délibéré de leur avantage concurrentiel : des années de recherche et des milliards d'investissements potentiellement captés à travers de simples appels API. L'enjeu dépasse le seul plan commercial, car pour Washington, ces pratiques risquent d'accélérer la montée en puissance de la Chine dans la course à l'IA, réduisant l'écart technologique sans que Pékin n'ait eu à supporter les coûts de développement correspondants. La cristallisation de ces accusations coïncide avec le lancement de DeepSeek début 2025, un modèle chinois dont les performances ont suscité l'étonnement dans l'industrie et rapidement fait naître des soupçons. OpenAI avait affirmé que ses propres sorties de modèle auraient servi à entraîner ce concurrent. La Chine a rejeté l'ensemble de ces accusations, les qualifiant de "calomnies". Le contexte est celui d'une rivalité technologique croissante entre les deux puissances, déjà marquée par des contrôles américains à l'exportation sur les semi-conducteurs et les modèles avancés. La réponse réglementaire en préparation pourrait inclure des restrictions d'accès plus strictes aux API des grands modèles et des obligations de surveillance renforcées pour les entreprises du secteur.

UELes entreprises européennes dépendant des API des grands modèles américains pourraient être indirectement affectées si Washington durcit les contrôles d'accès en réponse aux abus détectés.

SécuritéActu
1 source