Aller au contenu principal
ÉthiqueMIT Technology Review1sem

Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage

1 source couvre ce sujet·Source originale ↗·
Résumé IA

L'armée américaine envisage d'utiliser des IA génératives comme ChatGPT (OpenAI) et Grok (xAI) — qui ont récemment signé des accords avec le Pentagone — pour classer des listes de cibles et formuler des recommandations de frappe, sous supervision humaine. Ces chatbots viendraient s'ajouter en couche conversationnelle au système Maven, en place depuis 2017, qui utilise la vision par ordinateur pour analyser drones et images satellitaires. Des rapports indiquent que Claude d'Anthropic est déjà intégré dans des opérations militaires en Iran et au Venezuela, mais les LLM restent moins éprouvés au combat que les IA traditionnelles.

The US military might use generative AI systems to rank lists of targets and make recommendations about which to strike first, which would then be vetted by humans, according to a Defense official with knowledge of the matter. The disclosure about how the military may use AI chatbots comes as the Pentagon faces scrutiny over a strike on an Iranian school, which it is still investigating. A list of possible targets might be fed into a generative AI system that the Pentagon is fielding for classified settings. Then, said the official, who requested to speak on background with MIT Technology Review to discuss sensitive topics, humans might ask the system to analyze the information and rank which targets are a priority, while accounting for factors like where aircraft are currently located. Humans would then be responsible for checking and evaluating the results and recommendations. OpenAI’s ChatGPT and xAI’s Grok could, in theory, be the models used for this type of scenario in the future, as both companies recently reached agreements for their models to be used by the Pentagon in classified settings. The official described this as an example use case of how things might work, but would not confirm or deny whether it represents how AI systems are currently being used. Other outlets have reported that Anthropic’s Claude has been integrated into existing military AI systems and used in operations in Iran and Venezuela , but the official’s comments add insight into the specific role chatbots may play, particularly in accelerating the search for targets. They also shed light on the way it’s deploying two different AI technologies, each with distinct limitations. Since at least 2017, the US military has been working on a “big data” initiative called Maven. It uses older types of AI, particularly computer vision, to analyze the oceans of data and imagery collected by the Pentagon. Maven might take thousands of hours of aerial drone footage, for example, and algorithmically identify targets. A 2024 report from Georgetown showed soldiers using the system to select targets and vet them, which sped up the process to get approval for these targets. Soldiers interacted with Maven through an interface with a battlefield map and dashboard, which might highlight potential targets in one color and friendly forces in another. Now, the official’s comments suggest that generative AI is being added as a conversational, chatbot layer—one which the military would use to more quickly find and analyze the data as it makes decisions like which targets to prioritize. Generative AI systems, like those that underpin ChatGPT, Claude, and Grok, are a fundamentally different technology than the AI that has primarily powered Maven. Built on large language models, their use in war is much more recent and less battle-tested. And while the old interface of Maven forced users to directly inspect and interpret data on the map, the outputs given by generative AI models are easier to access but harder to verify. The use of generative AI for such decisions is reducing the time required in the targeting process, the official added, but did not provide detail when asked how much additional speed is possible if humans are required to spend time double checking a model’s outputs. The use of military AI systems is under increased public scrutiny following the recent strike on a girls school in Iran in which more than one hundred children died. Multiple news outlets have reported the strike was from a US missile, though the Pentagon has said it is still under investigation. And while the Washington Post has reported that Claude and Maven have been involved in targeting decisions in Iran, there is no evidence yet to explain what role generative AI systems played, if any. The New York Times reported on Wednesday that a preliminary investigation found outdated targeting data to be partly responsible for the strike. The Pentagon has been ramping up its use of AI across operations in recent months. It started offering non-classified use of generative AI models, like for analyzing contracts or writing presentations, to millions of service members back in December through an effort called GenAI.mil. But only those few generative AI models have been approved by the Pentagon for classified use. The first was Anthropic’s Claude, which in addition to its use in Iran was reportedly used in the operations to capture Venezuelan leader Nicolas Maduro in January. But following recent disagreements between the Pentagon and Anthropic over whether Anthropic could restrict the military’s use of its AI, the Defense Department designated it a supply chain risk and President Trump on social media demanded the government to stop using its AI products within six months. Anthropic is fighting the designation in court. OpenAI announced an agreement on February 28 for the military to use its technologies in classified settings. Elon Musk’s company xAI has also reached a deal for

À lire aussi

1Next INpact2h

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

L'Internet Watch Foundation (IWF), organisation britannique indépendante spécialisée dans la lutte contre les contenus pédocriminels en ligne, tire la sonnette d'alarme dans un rapport publié en 2025 : les images et vidéos d'agressions sexuelles sur mineurs générées par intelligence artificielle sont devenues « routinières ». En juillet 2024, ses analystes repéraient encore les premières vidéos entièrement produites par IA — facilement identifiables à leurs défauts techniques. Un an plus tard, l'organisation a recensé plus de 8 000 images et près de 3 500 vidéos crédibles de ce type, contre seulement 13 vidéos l'année précédente. Plus alarmant encore, 65 % de ces vidéos appartiennent à la « catégorie A », réservée aux contenus les plus extrêmes — une proportion supérieure aux 43 % observés pour les contenus criminels non générés par IA traités sur la même période. Ces contenus ne sont pas moins dangereux parce qu'ils sont artificiels. Selon l'IWF, ils renforcent l'attrait sexuel pour les enfants, contribuent à normaliser des actes d'une violence extrême et peuvent accroître le risque de passages à l'acte. S'y ajoute une double victimisation : les modèles génératifs sont entraînés sur des images d'agressions réelles, ce qui signifie que l'image de survivants est réutilisée, modifiée et parfois « augmentée » pour produire de nouveaux contenus. Cette réexploitation démultiplie le traumatisme des victimes initiales. Le phénomène présente également une dimension de genre très marquée : 97 % des enfants représentés dans ces contenus générés par IA sont des filles, une surreprésentation encore plus forte que dans les affaires de pédocriminalité réelle. Des cas concrets ont illustré cette dérive, notamment en Espagne à Almendralejo, où des images de lycéennes réelles ont été manipulées par IA pour produire des contenus à caractère sexuel. L'IWF, fondée en 1996 et membre du réseau international INHOPE — auquel appartient également l'association française Point de Contact —, travaille en lien avec les forces de police et les fournisseurs d'accès à internet, auxquels elle transmet notamment une liste noire d'environ 150 000 URL de sites diffusant des contenus illégaux. Ce rapport s'inscrit dans un contexte où la démocratisation des outils de génération d'images et de vidéos par IA pose des défis croissants aux dispositifs légaux et techniques de protection de l'enfance à l'échelle mondiale.

UELe réseau INHOPE, dont fait partie l'association française Point de Contact, est directement impliqué dans la lutte contre ces contenus, et la multiplication de ces matériaux générés par IA accroît la pression sur le cadre réglementaire européen pour encadrer les outils génératifs.

ÉthiqueActu
1 source
2Le Monde Pixels1j

IA : « Le contraste entre des patrimoines incommensurables et la menace de plans sociaux massifs est vertigineux »

L'article fourni ne contient que le titre et une légende photo — il manque le corps du texte pour produire un résumé complet. Avec les éléments disponibles : l'article aborde le contraste saisissant entre les fortunes colossales accumulées par les grandes figures de la tech/finance (dont Larry Fink, PDG de BlackRock) et la menace de suppressions massives d'emplois liées à l'IA. Pour un vrai résumé, merci de coller le contenu complet de l'article.

UELe débat sur les destructions d'emplois liées à l'IA est particulièrement vif en France et en Europe, où les partenaires sociaux et le législateur (AI Act, directives sur l'information-consultation des salariés) sont directement confrontés à la question des reconversions massives.

ÉthiqueOpinion
1 source
3MIT Technology Review2j

Le mouvement de bien-être animal de la Bay Area cherche à recruter l'IA

En février à San Francisco, des défenseurs du bien-être animal et des chercheurs en IA se sont réunis lors d'un sommet organisé par Sentient Futures, fondé par Constance Li, pour explorer comment l'IA pourrait transformer la protection animale. Les participants, convaincus que l'AGI est imminente, estiment qu'il est crucial de former les systèmes d'IA à valoriser la vie animale, car ces systèmes pourraient bientôt prendre la majorité des décisions importantes. Ce mouvement, étroitement lié à l'altruisme efficace, mise sur des solutions à grande échelle comme la viande cultivée en laboratoire plutôt que sur des actions locales.

ÉthiqueActu
1 source
4Numerama5j

Moxie Marlinspike (Signal) s’allie à Meta pour « bunkeriser » vos conversations avec l’IA

Moxie Marlinspike, créateur du protocole Signal, lance un nouveau projet appelé Confer qui s'intégrera à Meta AI pour garantir la confidentialité totale des conversations avec l'IA. Dix ans après avoir sécurisé WhatsApp, il applique la même approche de chiffrement de bout en bout aux échanges avec les assistants IA, rendant les données inaccessibles même à Meta et Mark Zuckerberg.

UELes utilisateurs européens de Meta AI pourraient bénéficier d'une protection renforcée de leurs conversations IA, potentiellement alignée avec les exigences du RGPD, si Confer est déployé en Europe.

ÉthiqueActu
1 source