Aller au contenu principal
Giorgia Meloni : ses photos choc en lingerie générées par l’IA
RégulationLe Big Data17h

Giorgia Meloni : ses photos choc en lingerie générées par l’IA

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Des images générées par intelligence artificielle représentant Giorgia Meloni en lingerie ont circulé sur les réseaux sociaux, présentées comme authentiques par certains de ses opposants politiques. La Première ministre italienne a elle-même réagi publiquement sur Facebook en partageant l'une de ces images truquées, tout en dénonçant la manipulation. Avec une pointe d'humour, elle a reconnu que son "auteur l'avait considérablement améliorée", avant d'alerter sur le phénomène plus grave que représentent ces contenus fabriqués. De nombreux internautes, convaincus de l'authenticité des photos, s'en étaient pris à elle, l'accusant d'indignité institutionnelle, illustrant concrètement la capacité des deepfakes à tromper et à déclencher des réactions en chaîne contre une cible innocente.

Le cas Meloni met en lumière une vulnérabilité qui dépasse largement le cadre politique : n'importe quelle personne publique, ou même anonyme, peut se retrouver victime de contenus sexualisés fabriqués sans son consentement. La Première ministre l'a dit explicitement : "Je peux me défendre. Beaucoup d'autres ne le peuvent pas." C'est précisément cette asymétrie qui rend le phénomène des deepfakes particulièrement dangereux, les figures publiques disposent d'une tribune pour rectifier, là où une victime ordinaire n'a souvent aucun recours immédiat. L'incident illustre aussi la vitesse à laquelle des images fausses peuvent contaminer le débat public et générer des condamnations injustes avant tout démenti.

Cet épisode s'inscrit dans un contexte italien et européen déjà marqué par un scandale antérieur : un site pornographique avait diffusé des images manipulées de femmes politiques italiennes influentes, dont Meloni et la cheffe de l'opposition Elly Schlein, rassemblant plus de 700 000 abonnés avant d'être fermé sur ordre de la police. Le parquet de Rome avait ouvert une enquête pour diffusion illégale d'images sexuelles, diffamation et extorsion. En réponse directe à ce scandale, l'Italie est devenue en septembre dernier le premier pays de l'Union européenne à adopter une loi globale sur l'IA, prévoyant des peines de prison pour les usages malveillants, notamment les deepfakes, et des restrictions spécifiques pour les mineurs. Cette législation, alignée sur le cadre européen, place l'Italie à l'avant-garde d'une régulation que l'ensemble du continent cherche encore à construire face à une technologie dont la démocratisation rend la fabrication de fausses preuves accessible à quiconque.

Impact France/UE

L'Italie est devenue le premier pays de l'UE à adopter une loi globale sur l'IA prévoyant des peines de prison pour les deepfakes malveillants, établissant un précédent législatif directement aligné sur l'AI Act européen que le reste du continent cherche encore à mettre en œuvre.

💬 Le point de vue du dev

Le truc qui me reste, c'est pas l'image, c'est la phrase qu'elle glisse en passant : "je peux me défendre, beaucoup d'autres ne le peuvent pas." L'Italie devient le premier pays EU à passer une vraie loi avec de la prison pour les deepfakes malveillants, et ça, c'est du concret. Reste à voir ce que ça donne quand les outils se démocratisent à ce rythme.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Giorgia Meloni : ses photos choc en lingerie générées par IA
1Le Big Data 

Giorgia Meloni : ses photos choc en lingerie générées par IA

Le 5 mai 2026, des images générées par intelligence artificielle représentant la Première ministre italienne Giorgia Meloni en lingerie ont envahi les réseaux sociaux, provoquant une vague de commentaires indignés avant d'être rapidement identifiées comme des deepfakes. Face à la viralité immédiate du contenu, Meloni a choisi de répondre publiquement en partageant elle-même l'image falsifiée, barrée d'un bandeau rouge portant la mention "FOTO FALSA GENERATA CON L'IA". Dans un message mêlant autodérision et fermeté, elle a ironisé sur le fait que son auteur "avait même plutôt bien amélioré son apparence", avant de dénoncer des adversaires "prêts à utiliser absolument n'importe quoi pour attaquer et répandre des mensonges". L'affaire dépasse largement le simple bad buzz politique. Elle illustre une tendance documentée et croissante : l'utilisation de l'IA générative comme arme de décrédibilisation ciblée contre les femmes en position de pouvoir, via l'hyper-sexualisation synthétique. Meloni elle-même a souligné l'asymétrie du problème : "Moi, je peux me défendre. Beaucoup d'autres ne le peuvent pas." Pour les millions d'utilisateurs ordinaires, sans service de communication ni tribune publique, un deepfake similaire peut détruire une réputation, une carrière ou une vie privée sans recours immédiat. La facilité de production de ces contenus, désormais accessible sans compétence technique particulière, transforme l'IA en vecteur de harcèlement de masse à coût quasi nul. Ce scandale intervient dans un contexte législatif où l'Italie a précisément anticipé ce risque. En septembre 2025, le gouvernement Meloni avait fait de l'Italie le premier pays de l'Union européenne à adopter une loi globale sur l'IA incluant des peines d'emprisonnement pour l'utilisation malveillante de deepfakes et le cyberharcèlement. L'épisode valide rétrospectivement l'urgence de ce cadre légal, tout en révélant ses limites pratiques : la détection reste difficile en temps réel, et la viralité précède toujours le démenti. À l'échelle européenne, le débat sur la régulation des contenus synthétiques s'intensifie, avec la pression croissante sur les plateformes pour détecter et étiqueter automatiquement les médias générés par IA. L'affaire Meloni pourrait accélérer ces discussions, en donnant un visage politique concret à un phénomène que les textes législatifs décrivent encore de façon abstraite.

UEL'affaire valide l'urgence de réguler les deepfakes au niveau européen et pourrait accélérer les débats sur l'obligation faite aux plateformes d'étiqueter automatiquement les contenus générés par IA, dans le sillage de la loi italienne pionnière de 2025.

💬 Sa réponse est maligne : republier l'image barrée "FOTO FALSA", c'est retourner l'arme contre l'attaquant. Mais Meloni a elle-même dit l'essentiel, la phrase qu'on devrait graver quelque part : "Moi, je peux me défendre. Beaucoup d'autres ne le peuvent pas." C'est là que tout coince.

ÉthiqueOpinion
1 source
L’UE bannit les images générées par IA de ses communications officielles
2Siècle Digital 

L’UE bannit les images générées par IA de ses communications officielles

La Commission européenne a décidé d'interdire l'utilisation d'images et de vidéos générées par intelligence artificielle dans ses communications officielles. Thomas Regnier, porte-parole de l'institution, a confirmé à Politico que les visuels mis à disposition des journalistes et utilisés à des fins d'information officielle sont désormais exclusivement d'origine humaine. Cette directive s'applique aux contenus publiés au nom des institutions européennes, qu'il s'agisse de photos, d'illustrations ou de séquences vidéo. La mesure vise à restaurer la confiance du public envers les institutions à une époque où les contenus synthétiques prolifèrent sur le web et où la distinction entre réel et fabriqué devient de plus en plus difficile à établir. Pour une institution dont la crédibilité repose sur la transparence et l'authenticité de ses communications, permettre à des visuels générés par IA de circuler dans des contextes officiels représentait un risque réputationnel significatif. Cette décision envoie aussi un signal politique fort alors que l'UE est précisément en train de mettre en oeuvre l'AI Act, le premier cadre réglementaire mondial sur l'intelligence artificielle. Cette interdiction s'inscrit dans un contexte de méfiance croissante envers les deepfakes et les médias synthétiques, qui ont déjà semé la confusion dans plusieurs campagnes électorales en Europe. La Commission, qui a porté l'AI Act, se devait de montrer l'exemple en matière d'usage responsable. La question de l'extension de cette politique aux agences et organes satellites de l'UE reste ouverte, tout comme celle des outils d'aide à la rédaction, dont le statut demeure pour l'instant moins tranché.

UELa Commission européenne interdit désormais tout visuel généré par IA dans ses communications officielles, une décision contraignante pour toutes les institutions européennes et cohérente avec la mise en œuvre de l'AI Act.

RégulationReglementation
1 source
La Chine sanctionne des plateformes IA pour absence de marquage des contenus générés par IA
3TechNode 

La Chine sanctionne des plateformes IA pour absence de marquage des contenus générés par IA

La Cyberspace Administration of China (CAC), le régulateur national de l'internet, a annoncé mardi avoir sanctionné trois plateformes numériques pour manquement à l'obligation d'identifier clairement les contenus générés par intelligence artificielle. Les applications visées sont CapCut, l'éditeur de vidéo populaire détenu par ByteDance, Maoxiang (aussi connue sous le nom Cat Box) et Dreamina AI. Selon le CAC, ces plateformes ont enfreint plusieurs textes législatifs, dont la loi sur la cybersécurité, les mesures provisoires sur l'administration des services d'IA générative, et les dispositions spécifiques sur l'identification des contenus synthétiques générés par IA. Les mesures imposées comprennent des entretiens de mise en conformité avec les régulateurs locaux, des ordres de rectification, des avertissements formels et un renforcement de la responsabilité des personnels concernés. Ces sanctions envoient un signal clair sur la volonté de Pékin d'imposer la transparence algorithmique à grande échelle. L'obligation d'étiquetage des contenus IA vise directement les utilisateurs finaux : elle leur permet de distinguer ce qui est authentique de ce qui est généré ou manipulé numériquement, une distinction devenue critique à l'heure où les deepfakes et les images synthétiques prolifèrent sur les réseaux sociaux. Pour des plateformes comme CapCut, dont l'audience mondiale dépasse des centaines de millions d'utilisateurs, la mise en conformité représente un défi technique et opérationnel considérable. Un responsable du CAC a déclaré qu'il n'existe "aucune marge de compromis ni de contournement" aux règles en vigueur. Cette action s'inscrit dans un cadre réglementaire que la Chine a construit méthodiquement depuis 2022, anticipant de plusieurs années les efforts législatifs occidentaux comparables. Les mesures provisoires sur l'IA générative, entrées en vigueur en août 2023, font partie d'un dispositif progressif qui couvre désormais aussi bien la recommandation algorithmique que la génération de texte et d'images. Avec des acteurs comme ByteDance, Baidu ou Alibaba qui déploient des fonctionnalités IA à un rythme soutenu, le régulateur cherche à prévenir les dérives avant qu'elles ne s'installent, tout en consolidant son rôle de référence mondiale dans la gouvernance de l'IA.

UEL'AI Act européen impose des obligations similaires d'étiquetage des contenus IA dès 2025-2026 ; les sanctions chinoises illustrent concrètement ce qu'une mise en conformité forcée implique pour des plateformes comme CapCut, massivement utilisées en France.

RégulationReglementation
1 source
Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok
4Le Monde Pixels 

Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok

Le Parlement européen a adopté une résolution interdisant la création et la diffusion d'images pornographiques générées par intelligence artificielle sans le consentement des personnes représentées. Ce vote intervient dans un contexte de multiplication des scandales liés aux outils de «nudification» automatisée, dont Grok, le chatbot d'xAI appartenant à Elon Musk, accusé début 2025 de produire facilement des contenus sexuels explicites, y compris à partir de photos anodines de personnes réelles. La mesure vise à combler un vide juridique flagrant : des millions de femmes ont déjà été victimes de deepfakes pornographiques non consentis, avec des conséquences graves sur leur vie professionnelle et personnelle. En ciblant explicitement les contenus générés par IA, le Parlement européen entend responsabiliser les plateformes qui hébergent ces outils et durcir les sanctions contre leurs auteurs, dans le prolongement de la directive sur les violences faites aux femmes adoptée en 2024. Cette décision s'inscrit dans une volonté plus large de l'Union européenne d'encadrer les dérives de l'IA générative, après l'AI Act entré en vigueur en 2024. La mobilisation des associations féministes — dont la manifestation de Séoul en août 2024 contre la nudification — a pesé dans le débat. La prochaine étape sera la transposition effective dans les législations nationales des Vingt-Sept.

UELa transposition de cette résolution dans les législations nationales des Vingt-Sept obligera les plateformes opérant en Europe à retirer les deepfakes pornographiques non consentis et à renforcer leur modération sous peine de sanctions renforcées.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour