Aller au contenu principal
L'armée américaine frappe 3 000 cibles en Iran avec l'aide de l'IA, mais la surveillance reste « sous-financée »
ÉthiqueThe Decoder8sem

L'armée américaine frappe 3 000 cibles en Iran avec l'aide de l'IA, mais la surveillance reste « sous-financée »

Résumé IASource uniqueImpact UE
Source originale ↗·

L'armée américaine a frappé 3 000 cibles en Iran avec le soutien de l'IA générative, selon le Wall Street Journal. De nouvelles révélations montrent à quel point l'IA est déjà intégrée dans le renseignement, le ciblage et la logistique militaire. Cependant, la supervision de ces systèmes reste selon le journal "sous-financée", soulevant des questions sur le contrôle humain des décisions létales.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta formerait des agents IA en surveillant les souris et claviers de ses employés
1Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source
Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage
2MIT Technology Review 

Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage

L'armée américaine envisage d'utiliser des IA génératives comme ChatGPT (OpenAI) et Grok (xAI) — qui ont récemment signé des accords avec le Pentagone — pour classer des listes de cibles et formuler des recommandations de frappe, sous supervision humaine. Ces chatbots viendraient s'ajouter en couche conversationnelle au système Maven, en place depuis 2017, qui utilise la vision par ordinateur pour analyser drones et images satellitaires. Des rapports indiquent que Claude d'Anthropic est déjà intégré dans des opérations militaires en Iran et au Venezuela, mais les LLM restent moins éprouvés au combat que les IA traditionnelles.

ÉthiqueActu
1 source
Les arnaques au colis dopées à l’IA se multiplient en France
301net 

Les arnaques au colis dopées à l’IA se multiplient en France

Les arnaques au faux colis atteignent un nouveau niveau de sophistication en France : les escrocs utilisent désormais l'IA pour générer de fausses photos de livreurs tenant un colis personnalisé au nom de la victime. Cette technique rend les tentatives de phishing beaucoup plus convaincantes et ciblées. De nombreux Français ont déjà été visés par ces arnaques ces dernières semaines.

UEDes consommateurs français sont directement ciblés par ces arnaques au colis générées par IA, nécessitant une vigilance accrue face aux tentatives de phishing personnalisées.

ÉthiqueActu
1 source
L'IA peut réécrire le code source open source - mais peut-elle aussi réécrire la licence ?
4Ars Technica AI 

L'IA peut réécrire le code source open source - mais peut-elle aussi réécrire la licence ?

Les outils d'IA pour le code soulèvent de nouvelles questions juridiques autour du "clean room rewrite" — réécriture fonctionnelle sans copier le code protégé. La controverse a éclaté avec la version 7.0 de chardet, une bibliothèque Python populaire de détection d'encodage : son mainteneur Dan Blanchard a utilisé Claude Code pour réécrire intégralement la bibliothèque originalement publiée sous licence LGPL (restrictive) par Mark Pilgrim en 2006, en la republiant cette fois sous licence MIT (permissive). La question centrale : une IA entraînée sur du code LGPL peut-elle légitimement produire une réécriture sous une licence différente ?

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour