Aller au contenu principal
ÉthiqueThe Verge AI2sem

La modération des deepfakes de Meta jugée insuffisante par l'Oversight Board

1 source couvre ce sujet·Source originale ↗·

L'Oversight Board de Meta, l'organe semi-indépendant chargé de superviser les pratiques de modération du groupe, a rendu un verdict sévère : les méthodes actuelles de Meta pour détecter et étiqueter les contenus générés par intelligence artificielle sont « ni suffisamment robustes ni suffisamment complètes » pour contenir la vitesse à laquelle la désinformation se propage en temps de conflit armé. Cette conclusion fait suite à une enquête sur une vidéo deepfake montrant de faux dommages à des bâtiments en Israël, diffusée l'année dernière sur Facebook, Instagram et Threads. Le Board appelle désormais Meta à refondre en profondeur sa façon d'identifier, de signaler et d'étiqueter les contenus synthétiques sur l'ensemble de ses plateformes.

L'enjeu est considérable : lors de conflits comme la guerre en Iran, des vidéos fabriquées peuvent circuler en quelques minutes auprès de centaines de millions d'utilisateurs, alimenter des narratifs faux, provoquer des réactions politiques ou attiser des tensions sur le terrain. Un simple label « généré par IA » apposé trop tard — ou pas du tout — ne suffit pas à endiguer la propagation. Pour les utilisateurs, cela signifie une exposition accrue à des images trompeuses présentées comme authentiques ; pour les plateformes, c'est une responsabilité légale et éthique croissante face aux régulateurs du monde entier.

Meta fait face depuis plusieurs années à des critiques répétées sur l'efficacité de sa modération de contenu, mais la montée en puissance des outils de génération d'images et de vidéos par IA a brutalement accéléré le problème. L'Oversight Board, créé en 2020 pour donner une apparence d'indépendance aux décisions de modération de Meta, n'a qu'un pouvoir de recommandation — Meta n'est pas légalement tenu de suivre ses avis. Reste à voir si le groupe de Mark Zuckerberg donnera suite à ces injonctions, alors que l'Union européenne et d'autres juridictions renforcent leurs exigences en matière de transparence sur les contenus synthétiques.

Impact France/UE

Le DSA et l'AI Act imposent déjà des obligations de transparence sur les contenus synthétiques aux grandes plateformes en Europe, et ce verdict de l'Oversight Board accentue la pression réglementaire sur Meta pour améliorer le marquage des deepfakes auprès des régulateurs européens.

À lire aussi

1TechCrunch AI 

Wikipedia restreint l'usage de l'IA dans la rédaction de ses articles

Wikipédia a officiellement durci sa politique concernant l'utilisation de l'intelligence artificielle dans la rédaction de ses articles, une décision prise par la communauté de bénévoles qui administre l'encyclopédie en ligne. La plateforme, qui compte plusieurs dizaines de millions d'articles en plus de 300 langues, interdit désormais explicitement l'usage de textes générés par des outils comme ChatGPT ou Claude pour créer ou modifier du contenu encyclopédique sans supervision humaine rigoureuse. Cette décision touche directement la crédibilité du projet encyclopédique : les modèles de langage produisent fréquemment des informations inexactes présentées avec assurance, un phénomène connu sous le nom d'hallucination. Pour les millions de lecteurs qui utilisent Wikipédia comme première source d'information — étudiants, journalistes, chercheurs — la contamination par du contenu non vérifié représente un risque réel de désinformation à grande échelle. Wikipédia fait face depuis plusieurs années à une tension croissante entre le besoin d'accélérer la production de contenu et l'exigence de fiabilité qui fonde sa réputation. Des cas de faux articles générés par IA ont déjà été détectés et supprimés sur plusieurs éditions linguistiques. La Wikimedia Foundation n'a pas exclu d'utiliser l'IA à des fins auxiliaires — traduction, mise en forme, détection de vandalisme — mais la rédaction encyclopédique reste réservée aux contributeurs humains. La question de la détection automatique des textes générés par IA demeure un défi technique non résolu.

UELa Wikipédia francophone est directement concernée par cette politique, affectant les contributeurs bénévoles français et les millions de lecteurs européens qui s'appuient sur l'encyclopédie comme source de référence.

ÉthiqueActu
1 source
201net 

OpenAI : le « mode adulte » de ChatGPT définitivement à l’arrêt

OpenAI a annoncé la suspension indéfinie du développement du « mode adulte » de ChatGPT, une fonctionnalité qui aurait permis à l'assistant de générer des contenus érotiques. Initialement promise pour début 2026, cette capacité avait déjà été repoussée une première fois avant d'être finalement abandonnée sans date de reprise annoncée. Cette décision prive OpenAI d'un segment potentiellement lucratif du marché des IA génératives, où des concurrents comme Character.AI ou des plateformes spécialisées ont déjà pris position. Pour les utilisateurs adultes qui attendaient cette ouverture, le signal est clair : ChatGPT restera un outil grand public aux garde-fous stricts, malgré la promesse initiale d'une plus grande flexibilité. Ce recul s'inscrit dans un mouvement plus large de prudence chez OpenAI, qui avait également mis en pause certaines fonctionnalités de Sora, son générateur vidéo, face aux critiques. La start-up, valorisée à 300 milliards de dollars et sous pression réglementaire croissante en Europe et aux États-Unis, semble privilégier une image responsable plutôt que l'expansion tous azimuts de ses capacités — un arbitrage qui reflète les tensions entre ambition commerciale et acceptabilité sociale de l'IA générative.

UELa pression réglementaire croissante en Europe influence les arbitrages de modération de contenu d'OpenAI, illustrant comment l'AI Act pousse les grands acteurs vers des approches plus conservatrices sur les contenus sensibles.

ÉthiqueOpinion
1 source
3Les Numériques IA 

Actualité : GitHub Copilot : Microsoft va utiliser vos données pour alimenter son IA, sauf si vous refusez

Microsoft a annoncé en mars 2026 une modification de sa politique de données pour GitHub Copilot : les données des utilisateurs — incluant le code, les interactions et les comportements sur la plateforme — seront désormais utilisées pour entraîner ses modèles d'intelligence artificielle, sauf si les utilisateurs se désinscrivent explicitement via les paramètres de leur compte. Ce changement concerne l'ensemble des utilisateurs de GitHub Copilot, qu'ils soient en version gratuite ou payante, et prend effet dans les prochaines semaines. Pour des millions de développeurs, cela signifie que leur code — parfois propriétaire ou sensible — pourrait contribuer à améliorer les outils IA de Microsoft sans action de leur part. Le mécanisme d'opt-out existe, mais il repose sur la démarche active de l'utilisateur, ce qui, statistiquement, laisse la grande majorité des données accessibles. Pour les entreprises qui utilisent GitHub en environnement professionnel, la question de la confidentialité du code source devient immédiatement critique. Microsoft a racheté GitHub en 2018 pour 7,5 milliards de dollars, un investissement dont la rentabilisation passe largement par Copilot, lancé en 2021 et aujourd'hui intégré dans l'écosystème Visual Studio et Azure. La firme de Redmond s'inscrit ainsi dans une tendance plus large : OpenAI, Google et Meta ont tous adopté des politiques similaires d'utilisation des données utilisateurs pour affiner leurs modèles. La pression réglementaire européenne, notamment via le RGPD, pourrait cependant contraindre Microsoft à adapter ces pratiques pour les utilisateurs de l'Union européenne.

UELes développeurs européens utilisant GitHub Copilot doivent se désinscrire activement pour protéger leur code propriétaire ; le RGPD pourrait contraindre Microsoft à imposer un mécanisme d'opt-in explicite pour les utilisateurs de l'UE.

ÉthiqueReglementation
1 source
4InfoQ AI 

Green IT : comment réduire l'impact environnemental de l'IA

L'intelligence artificielle représente un défi croissant pour l'informatique durable : chaque requête adressée à un modèle d'IA consomme une quantité considérable d'énergie, les puces GPU ont une durée de vie limitée à seulement deux ou trois ans, et les coûts environnementaux réels restent invisibles pour les utilisateurs finaux. C'est le constat dressé par Ludi Akue lors de sa conférence intitulée What I Wish I Knew When I Started with Green IT, où elle a mis en lumière l'ampleur d'un problème souvent sous-estimé par les équipes techniques. Pour Akue, les cadres réglementaires actuels — dont l'AI Act de l'Union européenne — restent insuffisants sur le plan de l'application concrète : les obligations existent sur le papier, mais les mécanismes d'enforcement font défaut. Face à cette lacune, elle plaide pour intégrer la durabilité dès la conception des systèmes d'IA, en traitant l'impact environnemental comme une contrainte de design à part entière, au même titre que la performance ou la sécurité. Parmi les leviers techniques disponibles, Akue cite la compression de modèles, la quantification — qui réduit la précision des calculs pour diminuer la consommation — et le développement de nouvelles architectures plus sobres. Ces approches existent déjà dans l'écosystème de la recherche, mais peinent à s'imposer dans les pratiques industrielles courantes. Le débat sur le Green IT en IA s'inscrit dans un contexte plus large de prise de conscience environnementale du secteur numérique, alors que la demande en infrastructure de calcul explose avec la généralisation des grands modèles de langage.

UEL'AI Act européen est explicitement cité comme insuffisant sur le plan de l'enforcement environnemental, laissant les entreprises et institutions européennes sans contrainte réelle pour réduire l'empreinte énergétique de leurs systèmes d'IA.

ÉthiqueOpinion
1 source