La modération des deepfakes de Meta jugée insuffisante par l'Oversight Board
L'Oversight Board de Meta, l'organe semi-indépendant chargé de superviser les pratiques de modération du groupe, a rendu un verdict sévère : les méthodes actuelles de Meta pour détecter et étiqueter les contenus générés par intelligence artificielle sont « ni suffisamment robustes ni suffisamment complètes » pour contenir la vitesse à laquelle la désinformation se propage en temps de conflit armé. Cette conclusion fait suite à une enquête sur une vidéo deepfake montrant de faux dommages à des bâtiments en Israël, diffusée l'année dernière sur Facebook, Instagram et Threads. Le Board appelle désormais Meta à refondre en profondeur sa façon d'identifier, de signaler et d'étiqueter les contenus synthétiques sur l'ensemble de ses plateformes.
L'enjeu est considérable : lors de conflits comme la guerre en Iran, des vidéos fabriquées peuvent circuler en quelques minutes auprès de centaines de millions d'utilisateurs, alimenter des narratifs faux, provoquer des réactions politiques ou attiser des tensions sur le terrain. Un simple label « généré par IA » apposé trop tard — ou pas du tout — ne suffit pas à endiguer la propagation. Pour les utilisateurs, cela signifie une exposition accrue à des images trompeuses présentées comme authentiques ; pour les plateformes, c'est une responsabilité légale et éthique croissante face aux régulateurs du monde entier.
Meta fait face depuis plusieurs années à des critiques répétées sur l'efficacité de sa modération de contenu, mais la montée en puissance des outils de génération d'images et de vidéos par IA a brutalement accéléré le problème. L'Oversight Board, créé en 2020 pour donner une apparence d'indépendance aux décisions de modération de Meta, n'a qu'un pouvoir de recommandation — Meta n'est pas légalement tenu de suivre ses avis. Reste à voir si le groupe de Mark Zuckerberg donnera suite à ces injonctions, alors que l'Union européenne et d'autres juridictions renforcent leurs exigences en matière de transparence sur les contenus synthétiques.
Le DSA et l'AI Act imposent déjà des obligations de transparence sur les contenus synthétiques aux grandes plateformes en Europe, et ce verdict de l'Oversight Board accentue la pression réglementaire sur Meta pour améliorer le marquage des deepfakes auprès des régulateurs européens.



