Aller au contenu principal
La modération des deepfakes de Meta jugée insuffisante par l'Oversight Board
ÉthiqueThe Verge AI8sem

La modération des deepfakes de Meta jugée insuffisante par l'Oversight Board

Résumé IASource uniqueImpact UE
Source originale ↗·

L'Oversight Board de Meta, l'organe semi-indépendant chargé de superviser les pratiques de modération du groupe, a rendu un verdict sévère : les méthodes actuelles de Meta pour détecter et étiqueter les contenus générés par intelligence artificielle sont « ni suffisamment robustes ni suffisamment complètes » pour contenir la vitesse à laquelle la désinformation se propage en temps de conflit armé. Cette conclusion fait suite à une enquête sur une vidéo deepfake montrant de faux dommages à des bâtiments en Israël, diffusée l'année dernière sur Facebook, Instagram et Threads. Le Board appelle désormais Meta à refondre en profondeur sa façon d'identifier, de signaler et d'étiqueter les contenus synthétiques sur l'ensemble de ses plateformes.

L'enjeu est considérable : lors de conflits comme la guerre en Iran, des vidéos fabriquées peuvent circuler en quelques minutes auprès de centaines de millions d'utilisateurs, alimenter des narratifs faux, provoquer des réactions politiques ou attiser des tensions sur le terrain. Un simple label « généré par IA » apposé trop tard — ou pas du tout — ne suffit pas à endiguer la propagation. Pour les utilisateurs, cela signifie une exposition accrue à des images trompeuses présentées comme authentiques ; pour les plateformes, c'est une responsabilité légale et éthique croissante face aux régulateurs du monde entier.

Meta fait face depuis plusieurs années à des critiques répétées sur l'efficacité de sa modération de contenu, mais la montée en puissance des outils de génération d'images et de vidéos par IA a brutalement accéléré le problème. L'Oversight Board, créé en 2020 pour donner une apparence d'indépendance aux décisions de modération de Meta, n'a qu'un pouvoir de recommandation — Meta n'est pas légalement tenu de suivre ses avis. Reste à voir si le groupe de Mark Zuckerberg donnera suite à ces injonctions, alors que l'Union européenne et d'autres juridictions renforcent leurs exigences en matière de transparence sur les contenus synthétiques.

Impact France/UE

Le DSA et l'AI Act imposent déjà des obligations de transparence sur les contenus synthétiques aux grandes plateformes en Europe, et ce verdict de l'Oversight Board accentue la pression réglementaire sur Meta pour améliorer le marquage des deepfakes auprès des régulateurs européens.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA
1Siècle Digital 

Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA

Meta est critiqué pour ses insuffisances dans la détection et la modération des deepfakes et contenus générés par IA sur ses plateformes. Malgré les efforts des géants du web pour adapter leurs systèmes de modération face à la prolifération de fausses images et vidéos hyperréalistes, Meta peine encore à contenir efficacement ces contenus trompeurs. La précision croissante des IA génératives rend la lutte contre la désinformation visuelle particulièrement difficile sur les réseaux sociaux.

UELes défaillances de modération de Meta exposent les citoyens européens à une désinformation visuelle croissante, renforçant la pression sur les régulateurs de l'UE pour faire appliquer le DSA (Digital Services Act) et ses obligations de transparence sur les contenus générés par IA.

ÉthiqueActu
1 source
2The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
Meta accusée d’avoir piraté des millions de livres pour entraîner son IA
3Siècle Digital 

Meta accusée d’avoir piraté des millions de livres pour entraîner son IA

Cinq géants de l'édition mondiale, Hachette, Macmillan, McGraw-Hill, Elsevier et Cengage, ont déposé une plainte collective contre Meta devant un tribunal fédéral américain, accusant l'entreprise d'avoir utilisé des millions d'ouvrages protégés par le droit d'auteur pour entraîner ses modèles d'intelligence artificielle LLaMA. L'auteur de thrillers Scott Turow, ancien président de l'Authors Guild et avocat de formation, s'est joint à l'action. Selon les plaignants, Meta aurait eu recours à LibGen, un site pirate qui héberge illégalement des millions de livres, pour constituer son corpus d'entraînement à grande échelle, sans autorisation ni compensation. Ce procès marque un tournant dans les litiges sur le droit d'auteur et l'IA : pour la première fois, ce ne sont plus des auteurs isolés mais des maisons d'édition pesant collectivement des milliards de dollars qui s'attaquent frontalement à un géant technologique. Si les plaignants obtiennent gain de cause, les dommages et intérêts pourraient atteindre des montants records et contraindre l'ensemble de l'industrie à revoir radicalement ses pratiques d'acquisition de données d'entraînement. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'industrie de l'IA et les ayants droit, après les poursuites déjà engagées contre OpenAI, Stability AI et Google. Des preuves internes évoquées dans d'autres dossiers suggèrent que Meta était consciente des risques juridiques liés à l'utilisation de LibGen mais a néanmoins choisi de procéder. La décision de justice pourrait établir une jurisprudence déterminante sur ce que les entreprises d'IA ont le droit d'utiliser pour former leurs modèles.

UEHachette et Elsevier, maisons d'édition présentes en Europe, sont plaignantes ; une jurisprudence américaine sur l'entraînement des LLM influencera directement les pratiques des acteurs IA opérant sous l'AI Act et les litiges en cours devant les tribunaux européens.

💬 Des auteurs isolés, ça pouvait encore se gérer. Là, ce sont des éditeurs pesant des milliards qui ont les reins solides pour tenir un procès pendant dix ans, et des preuves internes qui montrent que Meta savait très bien ce qu'elle faisait en utilisant LibGen. Ça va coûter cher.

ÉthiqueReglementation
1 source
Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store
4Next INpact 

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier 2026, Apple a menacé de retirer l'application X de son App Store en raison de la prolifération de deepfakes pornographiques générés par Grok, le modèle d'intelligence artificielle développé par xAI. Selon un document transmis aux sénateurs américains et révélé par NBC News le 14 avril, Apple a contacté les équipes de X et de xAI pour leur demander de « créer un plan d'amélioration de leur modération de contenu ». À l'issue de plusieurs échanges privés, les deux entreprises sont parvenues à un accord. Apple a estimé que X avait « largement résolu ses violations », mais que Grok restait « non conforme » aux politiques de l'App Store, et a prévenu que l'application pourrait être supprimée faute de remédiation. Cette pression faisait suite à une vague massive de contenus non consentis fin 2025, période pendant laquelle n'importe quel utilisateur d'un compte gratuit pouvait demander à Grok de générer des images dénudées de personnes réelles, souvent des femmes, actrices, pop stars ou personnalités politiques. La menace d'Apple illustre le rôle croissant que les gatekeepers des plateformes mobiles peuvent jouer dans la régulation des contenus nuisibles, là où les autorités publiques peinent à agir rapidement. Sur les cinq continents, des enquêtes ont été ouvertes, par la Commission de protection des données irlandaise, la Commission européenne et la justice française, et Grok a été interdit en Indonésie et en Malaisie. Pourtant, ces procédures n'ont pas produit de résultats immédiats. C'est finalement la menace de sanction commerciale d'Apple, dont l'App Store représente un accès à des centaines de millions d'utilisateurs iOS, qui a obtenu des engagements concrets. Mi-janvier, le compte sécurité de X s'était engagé publiquement à « supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ». Malgré ces engagements, NBC News a constaté le 14 avril que des dizaines d'images sexuelles générées par IA représentant des personnes réelles continuaient d'être publiées publiquement sur X. Des garde-fous ont bien été déployés : Grok refuse désormais la plupart des demandes de « dénudage » directes ou les requêtes de mise en bikini. Le volume global d'images non consenties a diminué, et aucune des images collectées par NBC ne semble représenter des mineurs. Mais des contournements persistent : certains utilisateurs exploitent des formulations détournées ou combinent plusieurs images, par exemple, demander à Grok d'« intervertir des vêtements » en s'appuyant sur une photo déjà dénudée. Le dossier s'inscrit dans un contexte plus large de prolifération des CSAM générés par IA, qui alimente simultanément des scandales en Europe, dont un récent en Allemagne autour de « viols virtuels » numériques. La capacité des plateformes à refermer durablement ces brèches techniques reste entière.

UELa Commission européenne, la justice française et l'autorité irlandaise de protection des données ont ouvert des enquêtes sur Grok pour génération de contenus sexuels non consentis, posant la question des garde-fous réglementaires européens face aux manquements des grands modèles d'IA.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour