Aller au contenu principal
YouTube étend la détection des deepfakes par IA aux politiciens, responsables gouvernementaux et journalistes
ÉthiqueTechCrunch AI8sem

YouTube étend la détection des deepfakes par IA aux politiciens, responsables gouvernementaux et journalistes

Résumé IASources croisées · 3Impact UETake éditorial
Source originale ↗·
Egalement couvert par :The Verge AITechCrunch AI

YouTube étend son outil de détection des deepfakes par IA aux politiciens, journalistes et responsables gouvernementaux. Ces personnes peuvent désormais signaler l'utilisation non autorisée de leur image pour en demander la suppression.

Impact France/UE

Les élus, journalistes et responsables gouvernementaux français et européens disposent désormais d'un recours concret pour signaler et faire supprimer les deepfakes non autorisés de leur image, renforçant leur protection face à la désinformation.

💬 Le point de vue du dev

C'est bien, mais ça reste du droit de signalement, pas de la prévention. YouTube étend une fonctionnalité qui existait déjà pour les célébrités, ce qui prouve que le modèle tient, bon, sur le papier. La vraie question c'est le délai de traitement : un deepfake d'un élu pendant une campagne électorale, ça fait des dégâts en 48h.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage
2MIT Technology Review 

Un responsable de la défense révèle comment les chatbots IA pourraient servir aux décisions de ciblage

L'armée américaine envisage d'utiliser des IA génératives comme ChatGPT (OpenAI) et Grok (xAI) — qui ont récemment signé des accords avec le Pentagone — pour classer des listes de cibles et formuler des recommandations de frappe, sous supervision humaine. Ces chatbots viendraient s'ajouter en couche conversationnelle au système Maven, en place depuis 2017, qui utilise la vision par ordinateur pour analyser drones et images satellitaires. Des rapports indiquent que Claude d'Anthropic est déjà intégré dans des opérations militaires en Iran et au Venezuela, mais les LLM restent moins éprouvés au combat que les IA traditionnelles.

ÉthiqueActu
1 source
Google cède aux plaintes des utilisateurs sur la fonctionnalité de recherche "Ask Photos" propulsée par l'IA
3TechCrunch AI 

Google cède aux plaintes des utilisateurs sur la fonctionnalité de recherche "Ask Photos" propulsée par l'IA

Google a cédé aux critiques des utilisateurs concernant sa fonctionnalité de recherche "Ask Photos" propulsée par l'IA dans Google Photos. L'entreprise propose désormais un choix explicite sur l'écran de recherche, permettant aux utilisateurs de sélectionner l'expérience qu'ils préfèrent.

ÉthiqueActu
1 source
Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA
4Siècle Digital 

Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA

Meta est critiqué pour ses insuffisances dans la détection et la modération des deepfakes et contenus générés par IA sur ses plateformes. Malgré les efforts des géants du web pour adapter leurs systèmes de modération face à la prolifération de fausses images et vidéos hyperréalistes, Meta peine encore à contenir efficacement ces contenus trompeurs. La précision croissante des IA génératives rend la lutte contre la désinformation visuelle particulièrement difficile sur les réseaux sociaux.

UELes défaillances de modération de Meta exposent les citoyens européens à une désinformation visuelle croissante, renforçant la pression sur les régulateurs de l'UE pour faire appliquer le DSA (Digital Services Act) et ses obligations de transparence sur les contenus générés par IA.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour