Aller au contenu principal
ÉthiqueLe Big Data25min

Giorgia Meloni : ses photos choc en lingerie générées par IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Le 5 mai 2026, des images générées par intelligence artificielle représentant la Première ministre italienne Giorgia Meloni en lingerie ont envahi les réseaux sociaux, provoquant une vague de commentaires indignés avant d'être rapidement identifiées comme des deepfakes. Face à la viralité immédiate du contenu, Meloni a choisi de répondre publiquement en partageant elle-même l'image falsifiée, barrée d'un bandeau rouge portant la mention "FOTO FALSA GENERATA CON L'IA". Dans un message mêlant autodérision et fermeté, elle a ironisé sur le fait que son auteur "avait même plutôt bien amélioré son apparence", avant de dénoncer des adversaires "prêts à utiliser absolument n'importe quoi pour attaquer et répandre des mensonges".

L'affaire dépasse largement le simple bad buzz politique. Elle illustre une tendance documentée et croissante : l'utilisation de l'IA générative comme arme de décrédibilisation ciblée contre les femmes en position de pouvoir, via l'hyper-sexualisation synthétique. Meloni elle-même a souligné l'asymétrie du problème : "Moi, je peux me défendre. Beaucoup d'autres ne le peuvent pas." Pour les millions d'utilisateurs ordinaires, sans service de communication ni tribune publique, un deepfake similaire peut détruire une réputation, une carrière ou une vie privée sans recours immédiat. La facilité de production de ces contenus, désormais accessible sans compétence technique particulière, transforme l'IA en vecteur de harcèlement de masse à coût quasi nul.

Ce scandale intervient dans un contexte législatif où l'Italie a précisément anticipé ce risque. En septembre 2025, le gouvernement Meloni avait fait de l'Italie le premier pays de l'Union européenne à adopter une loi globale sur l'IA incluant des peines d'emprisonnement pour l'utilisation malveillante de deepfakes et le cyberharcèlement. L'épisode valide rétrospectivement l'urgence de ce cadre légal, tout en révélant ses limites pratiques : la détection reste difficile en temps réel, et la viralité précède toujours le démenti. À l'échelle européenne, le débat sur la régulation des contenus synthétiques s'intensifie, avec la pression croissante sur les plateformes pour détecter et étiqueter automatiquement les médias générés par IA. L'affaire Meloni pourrait accélérer ces discussions, en donnant un visage politique concret à un phénomène que les textes législatifs décrivent encore de façon abstraite.

Impact France/UE

L'affaire valide l'urgence de réguler les deepfakes au niveau européen et pourrait accélérer les débats sur l'obligation faite aux plateformes d'étiqueter automatiquement les contenus générés par IA, dans le sillage de la loi italienne pionnière de 2025.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF
1Next INpact 

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

L'Internet Watch Foundation (IWF), organisation britannique indépendante spécialisée dans la lutte contre les contenus pédocriminels en ligne, tire la sonnette d'alarme dans un rapport publié en 2025 : les images et vidéos d'agressions sexuelles sur mineurs générées par intelligence artificielle sont devenues « routinières ». En juillet 2024, ses analystes repéraient encore les premières vidéos entièrement produites par IA — facilement identifiables à leurs défauts techniques. Un an plus tard, l'organisation a recensé plus de 8 000 images et près de 3 500 vidéos crédibles de ce type, contre seulement 13 vidéos l'année précédente. Plus alarmant encore, 65 % de ces vidéos appartiennent à la « catégorie A », réservée aux contenus les plus extrêmes — une proportion supérieure aux 43 % observés pour les contenus criminels non générés par IA traités sur la même période. Ces contenus ne sont pas moins dangereux parce qu'ils sont artificiels. Selon l'IWF, ils renforcent l'attrait sexuel pour les enfants, contribuent à normaliser des actes d'une violence extrême et peuvent accroître le risque de passages à l'acte. S'y ajoute une double victimisation : les modèles génératifs sont entraînés sur des images d'agressions réelles, ce qui signifie que l'image de survivants est réutilisée, modifiée et parfois « augmentée » pour produire de nouveaux contenus. Cette réexploitation démultiplie le traumatisme des victimes initiales. Le phénomène présente également une dimension de genre très marquée : 97 % des enfants représentés dans ces contenus générés par IA sont des filles, une surreprésentation encore plus forte que dans les affaires de pédocriminalité réelle. Des cas concrets ont illustré cette dérive, notamment en Espagne à Almendralejo, où des images de lycéennes réelles ont été manipulées par IA pour produire des contenus à caractère sexuel. L'IWF, fondée en 1996 et membre du réseau international INHOPE — auquel appartient également l'association française Point de Contact —, travaille en lien avec les forces de police et les fournisseurs d'accès à internet, auxquels elle transmet notamment une liste noire d'environ 150 000 URL de sites diffusant des contenus illégaux. Ce rapport s'inscrit dans un contexte où la démocratisation des outils de génération d'images et de vidéos par IA pose des défis croissants aux dispositifs légaux et techniques de protection de l'enfance à l'échelle mondiale.

UELe réseau INHOPE, dont fait partie l'association française Point de Contact, est directement impliqué dans la lutte contre ces contenus, et la multiplication de ces matériaux générés par IA accroît la pression sur le cadre réglementaire européen pour encadrer les outils génératifs.

ÉthiqueActu
1 source
2The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source
3The Decoder 

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude. Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine. L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

UELa prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

ÉthiqueOpinion
1 source
Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA
4Siècle Digital 

Deepfakes : Meta épinglé pour ses failles dans la lutte contre les contenus générés par IA

Meta est critiqué pour ses insuffisances dans la détection et la modération des deepfakes et contenus générés par IA sur ses plateformes. Malgré les efforts des géants du web pour adapter leurs systèmes de modération face à la prolifération de fausses images et vidéos hyperréalistes, Meta peine encore à contenir efficacement ces contenus trompeurs. La précision croissante des IA génératives rend la lutte contre la désinformation visuelle particulièrement difficile sur les réseaux sociaux.

UELes défaillances de modération de Meta exposent les citoyens européens à une désinformation visuelle croissante, renforçant la pression sur les régulateurs de l'UE pour faire appliquer le DSA (Digital Services Act) et ses obligations de transparence sur les contenus générés par IA.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour