Aller au contenu principal
Les lieux où la technologie d'OpenAI pourrait se manifester en Iran
ÉthiqueMIT Technology Review6sem

Les lieux où la technologie d'OpenAI pourrait se manifester en Iran

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a conclu un accord controversé avec le Pentagone pour intégrer ses systèmes d'intelligence artificielle dans des environnements militaires classifiés, ouvrant la voie à une utilisation opérationnelle de ses modèles dans des zones de conflit actives — dont les frappes américaines en cours contre l'Iran. Une décision qui marque un virage radical pour une entreprise qui s'était longtemps positionnée à distance des applications militaires létales.

L'enjeu dépasse la simple question commerciale. Le gouvernement Trump a déjà ordonné à l'armée de cesser d'utiliser les modèles d'Anthropic — concurrent direct d'OpenAI — après que cette dernière a refusé d'autoriser un usage militaire sans restriction. Anthropic est désormais désignée "risque pour la chaîne d'approvisionnement" par le Pentagone et conteste cette décision en justice. Dans ce contexte, OpenAI se retrouve en position de fournisseur privilégié, sous pression pour déployer rapidement ses capacités dans des systèmes classifiés.

Concrètement, selon un responsable de la défense, le modèle d'OpenAI pourrait être utilisé pour analyser des listes de cibles potentielles, croiser des données logistiques, et hiérarchiser les frappes prioritaires à partir d'entrées textuelles, d'images et de vidéos — un humain restant formellement responsable de la validation finale. En parallèle, via son partenariat annoncé fin 2024 avec Anduril — fabricant de drones et de systèmes anti-drones — OpenAI travaille sur l'analyse en temps réel de menaces aériennes contre les forces américaines. Le système Maven, déjà déployé par l'armée pour l'analyse automatique de footage de drones, pourrait bénéficier d'une interface conversationnelle basée sur les modèles d'OpenAI, à l'image de ce qu'Anthropic proposait avec Claude.

Sam Altman justifie ce pivot par une vision idéologique : les démocraties libérales doivent disposer des IA les plus puissantes pour contrebalancer la Chine. Mais la rapidité du revirement — et les questions ouvertes sur les garde-fous réels contre les armes autonomes et la surveillance domestique — alimentent une inquiétude croissante, y compris en interne chez OpenAI. L'Iran devient ainsi, pour la première fois, un terrain d'expérimentation grandeur nature pour l'IA générative dans des décisions opérationnelles militaires.

Impact France/UE

Le déploiement de l'IA d'OpenAI dans des contextes militaires classifiés renforce les débats européens sur l'encadrement de l'IA dans la défense, notamment dans le cadre du règlement IA de l'UE qui exclut certaines applications militaires de son périmètre.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI lance son programme de primes pour les failles de sécurité
1OpenAI Blog 

OpenAI lance son programme de primes pour les failles de sécurité

OpenAI lance un programme de bug bounty dédié à la sécurité de l'IA, ciblant spécifiquement les abus et risques liés à ses modèles. Ce programme récompense les chercheurs qui identifient des vulnérabilités comme les injections de prompts, l'exfiltration de données et les failles dans les agents autonomes. C'est une reconnaissance explicite que les systèmes d'IA agentic — capables d'agir de façon autonome — introduisent une nouvelle catégorie de risques de sécurité. En mobilisant la communauté des chercheurs en sécurité, OpenAI cherche à détecter des failles que ses équipes internes pourraient manquer, avant qu'elles ne soient exploitées malicieusement. OpenAI rejoint ainsi d'autres géants tech qui s'appuient sur le bug bounty pour renforcer leur sécurité, mais c'est l'un des premiers programmes explicitement centré sur les risques propres aux modèles de langage plutôt que sur l'infrastructure classique.

UELes chercheurs en sécurité européens peuvent participer au programme et soumettre des failles pour récompense, contribuant indirectement à sécuriser des systèmes d'IA massivement utilisés en Europe.

ÉthiqueActu
1 source
Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA
2Le Big Data 

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA

Meta surveille les habitudes informatiques de ses employés pour entraîner son futur agent IA. Selon des notes internes révélées par Reuters, l'entreprise a déployé un logiciel de suivi intégré à certains outils professionnels internes, capable d'enregistrer les mouvements de souris, les clics, les frappes clavier et de capturer régulièrement des captures d'écran. Ces données sont collectées sur des applications internes et des sites web professionnels, avec pour objectif de documenter précisément comment les humains interagissent avec leur machine au quotidien. Un porte-parole de Meta confirme que ces informations servent à améliorer la capacité des agents IA à réaliser des tâches concrètes : naviguer dans des menus, cliquer sur des boutons, reproduire des séquences d'actions basiques mais essentielles. L'entreprise assure également que ces données ne seront pas utilisées pour évaluer la performance individuelle des salariés. L'enjeu est considérable pour le développement des agents IA dits "computer use", capables d'opérer directement sur un ordinateur comme le ferait un humain. Les textes, images et vidéos disponibles sur internet sont déjà massivement exploités pour entraîner les grands modèles de langage, mais les données d'interaction réelle avec une interface restent rares et difficiles à obtenir à grande échelle. Des entreprises concurrentes ont recours à des environnements simulés pour générer ce type de données comportementales, une approche coûteuse et imparfaite. En mobilisant directement ses propres employés, Meta accède à des flux de comportements authentiques, dans des contextes de travail réels, ce qui représente un avantage compétitif significatif pour entraîner des agents performants sur des tâches professionnelles. Cette initiative s'inscrit dans un contexte de pression croissante chez Meta autour de l'IA. L'entreprise, qui a massivement investi dans le développement de ses modèles Llama et de ses agents conversationnels, cherche à combler son retard sur des acteurs comme OpenAI ou Google dans le domaine des agents autonomes. En parallèle, Reuters rapporte que Meta envisage de fixer des objectifs d'usage de l'IA à certains de ses personnels, et réfléchirait à une réduction potentielle de ses effectifs mondiaux pouvant atteindre 10 %. La collecte de données sur les employés soulève néanmoins des questions éthiques sur le consentement et la surveillance au travail, même si Meta la présente comme une contribution collective au progrès technologique interne. La frontière entre outil d'entraînement et surveillance professionnelle reste floue, et cette démarche pourrait alimenter les débats réglementaires sur les droits des travailleurs à l'ère de l'IA.

UELe RGPD encadre strictement la surveillance des salariés en Europe, rendant une pratique similaire juridiquement risquée pour toute entreprise opérant dans l'UE, et pourrait accélérer les débats législatifs sur les droits des travailleurs face à l'IA générative.

ÉthiqueActu
1 source
Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »
3Next INpact 

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

Clare McGlynn, professeure de droit à l'université de Durham au Royaume-Uni et spécialiste des violences de genre, a publié un rapport de 132 pages analysant la façon dont les systèmes d'intelligence artificielle générative et les modèles d'IA compagnon amplifient les violences faites aux femmes et aux filles dans l'espace numérique. Fruit d'une enquête menée auprès de multiples expertes britanniques du numérique et de l'accompagnement des victimes de violences sexistes, ce travail recense et classe les risques que font peser des outils comme ChatGPT, Claude, Replika ou Character AI sur les femmes. Pour donner la mesure de l'ampleur du phénomène, ces plateformes représentent des audiences considérables : ChatGPT revendique 900 millions d'utilisateurs actifs par semaine, Claude entre 18 et 30 millions par mois, Replika plus de 40 millions d'utilisateurs et Character AI plus de 20 millions d'actifs mensuels. L'enjeu est direct et concret : ces outils, accessibles à tous, peuvent être détournés pour faciliter le harcèlement, le stalking ou la production de contenus dégradants. McGlynn cite notamment la disponibilité de Grok sur X, qui permet selon elle de fournir des informations exploitables par des harceleurs, ainsi que la vague récente de deepfakes pornographiques générés par IA. Le rapport identifie trois catégories de risques, dont la plus inédite concerne les comportements problématiques "générés automatiquement" par les systèmes eux-mêmes, sans même nécessiter d'intention malveillante de l'utilisateur. Ce glissement marque une rupture : la violence ne découle plus seulement d'un usage détourné, mais peut émerger du fonctionnement ordinaire des modèles. L'initiative de McGlynn s'inscrit dans un mouvement plus large de prise de conscience autour des dommages genrés du numérique. La chercheuse dit avoir été alertée en lisant The New Age of Sexism de Laura Bates (Simon and Schuster, mai 2025), ouvrage dans lequel l'autrice consacre un chapitre entier aux chatbots. Ce constat rejoint celui de Maeve Walsh, directrice de l'Online Safety Act Network, qui observe que chaque cycle d'accélération technologique produit en premier lieu des violences contre les femmes et les filles. Jusqu'ici, les travaux académiques traitaient les problèmes de façon fragmentée, sans vue d'ensemble. Ce rapport entend combler ce manque et ouvrir un débat public sur la régulation de ces systèmes, à un moment où les législateurs européens et britanniques commencent à se saisir des enjeux de sécurité en ligne.

UELes conclusions du rapport alimentent le débat réglementaire européen sur les obligations de sécurité des plateformes IA, à l'heure où l'AI Act et le Digital Services Act encadrent la responsabilité des fournisseurs face aux contenus préjudiciables genrés.

ÉthiqueOpinion
1 source
Meta formerait des agents IA en surveillant les souris et claviers de ses employés
4Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source