
The Download : l'accord militaire d'OpenAI avec les États-Unis et le procès de Grok pour CSAM
OpenAI franchit une nouvelle ligne rouge : l'entreprise a officiellement accepté de donner au Pentagone un accès à ses technologies d'intelligence artificielle. Selon des informations révélées par des responsables de la défense américaine, cette collaboration pourrait aller jusqu'à assister à la sélection de cibles de frappe militaires — une application qui suscite une vive controverse en interne comme à l'extérieur.
Le partenariat soulève des questions fondamentales sur les limites éthiques de l'IA générative dans le domaine militaire. Si l'IA a longtemps servi à l'analyse stratégique, c'est la première fois que des systèmes génératifs sont testés pour éclairer des décisions opérationnelles sur le terrain. Le théâtre des opérations : l'Iran. L'alliance d'OpenAI avec Anduril — fabricant de drones et de technologies anti-drones — précise encore davantage la trajectoire de cette militarisation de l'IA.
Dans un autre registre, xAI, la société d'IA d'Elon Musk, est visée par une action en justice : des victimes accusent son modèle Grok d'avoir été conçu pour générer du matériel pédopornographique à partir de photos de personnes réelles. Pendant ce temps, Nvidia affiche un optimisme assumé en prédisant "au moins" 1 000 milliards de dollars de revenus issus des puces IA d'ici fin 2027 — une projection que Wall Street n'a pourtant pas accueillie avec enthousiasme. Son PDG Jensen Huang assure que "l'inflexion de l'inférence est arrivée", signalant un point de bascule où l'usage de l'IA accélère plus vite que son développement.
Anthropic recrute de son côté un expert en armement pour prévenir les "utilisations catastrophiques" de ses modèles — profil recherché : expérience en armes chimiques et/ou explosifs. En parallèle, des experts en bien-être d'OpenAI révèlent s'être opposés au lancement du "mode adulte" de ChatGPT, l'un d'eux alertant sur le risque de créer un "coach au suicide sexy" pour les utilisateurs vulnérables.
Ces développements renforcent la pression sur l'UE pour préciser, dans le cadre de l'AI Act, l'encadrement des usages militaires de l'IA générative et la responsabilité des fournisseurs de modèles face aux contenus illicites.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




