Aller au contenu principal
Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA
ÉthiqueSiècle Digital8sem

Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta est critiqué pour ses insuffisances dans la détection et la modération des deepfakes et contenus générés par IA sur ses plateformes. Malgré les efforts des géants du web pour adapter leurs systèmes de modération face à la prolifération de fausses images et vidéos hyperréalistes, Meta peine encore à contenir efficacement ces contenus trompeurs. La précision croissante des IA génératives rend la lutte contre la désinformation visuelle particulièrement difficile sur les réseaux sociaux.

Impact France/UE

Les défaillances de modération de Meta exposent les citoyens européens à une désinformation visuelle croissante, renforçant la pression sur les régulateurs de l'UE pour faire appliquer le DSA (Digital Services Act) et ses obligations de transparence sur les contenus générés par IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta prépare un outil pour détecter les contenus IA
1Siècle Digital 

Meta prépare un outil pour détecter les contenus IA

Meta développe un outil de détection des contenus générés par IA, alors que ces derniers représentent désormais plus de 50% des contenus sur le web. L'entreprise, qui a largement contribué à démocratiser ces usages, cherche désormais à mieux les encadrer.

UECet outil pourrait aider les plateformes européennes à se conformer au DSA, qui impose des obligations de transparence sur les contenus synthétiques.

ÉthiqueActu
1 source
Pourquoi les plateformes laissent-elles proliférer les contenus générés par IA liés à la guerre ?
2Le Monde Pixels 

Pourquoi les plateformes laissent-elles proliférer les contenus générés par IA liés à la guerre ?

Les plateformes de médias sociaux permettent la propagation non signalée de contenus générés par IA liés à la guerre, notamment depuis le début des opérations israélo-américaines contre l'Iran.

UELa prolifération de contenus de guerre générés par IA sur les réseaux sociaux concerne directement la réglementation européenne DSA, qui impose aux plateformes des obligations de modération et de transparence algorithmique.

ÉthiqueOpinion
1 source
3The Decoder 

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude. Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine. L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

UELa prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

ÉthiqueOpinion
1 source
4The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour