Aller au contenu principal
Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF
ÉthiqueNext INpact6sem

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

Résumé IASource uniqueImpact UE
Source originale ↗·

L'Internet Watch Foundation (IWF), organisation britannique indépendante spécialisée dans la lutte contre les contenus pédocriminels en ligne, tire la sonnette d'alarme : les images et vidéos d'agressions sexuelles sur mineurs générées par intelligence artificielle atteignent désormais un niveau de réalisme tel qu'elles deviennent difficiles à distinguer de contenus réels. Ce qui relevait encore de la curiosité technologique en 2024 est aujourd'hui qualifié de phénomène « routinier » par les analystes de l'ONG.

L'enjeu dépasse la seule question technique. Ces contenus, même synthétiques, ne sont pas considérés comme moins dangereux que les images réelles : ils renforcent l'intérêt sexuel pour les enfants, contribuent à la normalisation des violences et peuvent favoriser le passage à l'acte. De plus, l'entraînement des modèles génératifs repose sur des images d'agressions réelles, ce qui signifie que chaque nouveau contenu produit prolonge et démultiplie la victimisation des survivants dont l'image a été utilisée.

Les chiffres publiés par l'IWF dans son rapport « Violence sans limites » sont saisissants. En 2025, l'organisation a recensé plus de 8 000 images et près de 3 500 vidéos crédibles générées par IA — contre seulement 13 vidéos l'année précédente. Plus préoccupant encore, 65 % de ces vidéos relèvent de la « catégorie A », soit les contenus les plus extrêmes, contre 43 % pour les vidéos criminelles non générées par IA traitées sur la même période. Par ailleurs, 97 % des enfants représentés dans ces contenus sont des filles, une surreprésentation encore plus marquée que dans les affaires de pédocriminalité traditionnelles.

Des cas concrets illustrent déjà les dérives dans l'espace réel, notamment en Espagne, à Almendralejo, où des images de mineures ont été manipulées par IA. Face à cette escalade, l'IWF appelle à un renforcement urgent de la régulation des outils génératifs et à une coopération accrue entre plateformes, forces de l'ordre et organisations comme le réseau INHOPE, dont fait partie l'association française Point de Contact.

Impact France/UE

Le réseau INHOPE, dont fait partie l'association française Point de Contact, est directement impliqué dans la lutte contre ces contenus, et la multiplication de ces matériaux générés par IA accroît la pression sur le cadre réglementaire européen pour encadrer les outils génératifs.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Giorgia Meloni : ses photos choc en lingerie générées par IA
1Le Big Data 

Giorgia Meloni : ses photos choc en lingerie générées par IA

Le 5 mai 2026, des images générées par intelligence artificielle représentant la Première ministre italienne Giorgia Meloni en lingerie ont envahi les réseaux sociaux, provoquant une vague de commentaires indignés avant d'être rapidement identifiées comme des deepfakes. Face à la viralité immédiate du contenu, Meloni a choisi de répondre publiquement en partageant elle-même l'image falsifiée, barrée d'un bandeau rouge portant la mention "FOTO FALSA GENERATA CON L'IA". Dans un message mêlant autodérision et fermeté, elle a ironisé sur le fait que son auteur "avait même plutôt bien amélioré son apparence", avant de dénoncer des adversaires "prêts à utiliser absolument n'importe quoi pour attaquer et répandre des mensonges". L'affaire dépasse largement le simple bad buzz politique. Elle illustre une tendance documentée et croissante : l'utilisation de l'IA générative comme arme de décrédibilisation ciblée contre les femmes en position de pouvoir, via l'hyper-sexualisation synthétique. Meloni elle-même a souligné l'asymétrie du problème : "Moi, je peux me défendre. Beaucoup d'autres ne le peuvent pas." Pour les millions d'utilisateurs ordinaires, sans service de communication ni tribune publique, un deepfake similaire peut détruire une réputation, une carrière ou une vie privée sans recours immédiat. La facilité de production de ces contenus, désormais accessible sans compétence technique particulière, transforme l'IA en vecteur de harcèlement de masse à coût quasi nul. Ce scandale intervient dans un contexte législatif où l'Italie a précisément anticipé ce risque. En septembre 2025, le gouvernement Meloni avait fait de l'Italie le premier pays de l'Union européenne à adopter une loi globale sur l'IA incluant des peines d'emprisonnement pour l'utilisation malveillante de deepfakes et le cyberharcèlement. L'épisode valide rétrospectivement l'urgence de ce cadre légal, tout en révélant ses limites pratiques : la détection reste difficile en temps réel, et la viralité précède toujours le démenti. À l'échelle européenne, le débat sur la régulation des contenus synthétiques s'intensifie, avec la pression croissante sur les plateformes pour détecter et étiqueter automatiquement les médias générés par IA. L'affaire Meloni pourrait accélérer ces discussions, en donnant un visage politique concret à un phénomène que les textes législatifs décrivent encore de façon abstraite.

UEL'affaire valide l'urgence de réguler les deepfakes au niveau européen et pourrait accélérer les débats sur l'obligation faite aux plateformes d'étiqueter automatiquement les contenus générés par IA, dans le sillage de la loi italienne pionnière de 2025.

💬 Sa réponse est maligne : republier l'image barrée "FOTO FALSA", c'est retourner l'arme contre l'attaquant. Mais Meloni a elle-même dit l'essentiel, la phrase qu'on devrait graver quelque part : "Moi, je peux me défendre. Beaucoup d'autres ne le peuvent pas." C'est là que tout coince.

ÉthiqueOpinion
1 source
Mort de Netanyahu : les vidéos sont-elles vraiment créées par IA ?
2Le Big Data 

Mort de Netanyahu : les vidéos sont-elles vraiment créées par IA ?

Des rumeurs virales ont affirmé que Benjamin Netanyahu avait été remplacé par un deepfake, déclenchées par un livestream où certains internautes croyaient voir six doigts à sa main droite. Les organismes de fact-checking n'ont trouvé aucune preuve de manipulation, et Netanyahu a publié une vidéo de réfutation, mais chaque détail a été scruté avec méfiance. L'affaire illustre une crise de confiance généralisée : à l'ère de l'IA générative, le doute sur l'authenticité des vidéos devient une arme informationnelle en soi, selon le New York Times.

UEL'affaire illustre les risques de désinformation par deepfake qui menacent le débat public, un phénomène que l'AI Act européen cherche précisément à encadrer via les obligations de transparence sur les contenus synthétiques.

ÉthiqueOpinion
1 source
Des images de propagande iranienne générées par IA se retrouvent dans un grand média allemand
3The Decoder 

Des images de propagande iranienne générées par IA se retrouvent dans un grand média allemand

Der Spiegel a retiré plusieurs images de sa couverture sur l'Iran après avoir constaté qu'elles avaient très probablement été générées ou manipulées par intelligence artificielle. Ces visuels s'inscrivaient dans une campagne de propagande iranienne diffusée via des outils d'IA. L'incident soulève des questions sur la vérification des images dans les grands médias européens.

UECet incident expose la vulnérabilité des grands médias européens face aux campagnes de désinformation alimentées par l'IA, renforçant l'urgence de mécanismes de vérification robustes dans la presse européenne.

ÉthiqueActu
1 source
Pourquoi Wikipédia bannit presque totalement les articles générés par l’IA
4Numerama 

Pourquoi Wikipédia bannit presque totalement les articles générés par l’IA

La communauté de Wikipédia a adopté une politique stricte interdisant quasi-totalement l'utilisation de textes générés par des intelligences artificielles génératives pour rédiger ou modifier des articles de l'encyclopédie. Cette décision, fruit de longs débats entre éditeurs bénévoles, s'applique aux principales éditions linguistiques du site. Quelques exceptions limitées subsistent, notamment pour des tâches techniques précises comme la correction grammaticale ou la traduction assistée, mais la rédaction de contenu encyclopédique par IA reste prohibée. Cette interdiction répond à des préoccupations concrètes sur la fiabilité et la neutralité de l'information. Les modèles de langage sont connus pour produire des « hallucinations » — des affirmations fausses présentées avec confiance — ce qui est incompatible avec les standards de vérifiabilité de Wikipédia. Pour une encyclopédie consultée par des centaines de millions de personnes chaque mois, laisser entrer massivement du contenu non vérifiable représenterait un risque systémique pour la qualité de l'information publique mondiale. Cette prise de position s'inscrit dans un contexte plus large de tension entre la démocratisation des outils génératifs et les institutions de connaissance structurée. Alors que des plateformes comme Medium ou des sites d'actualité ont été inondés de contenu IA de faible qualité depuis 2022, Wikipédia choisit une voie opposée, en défendant le travail humain et la traçabilité des sources. La décision pourrait influencer d'autres plateformes collaboratives confrontées aux mêmes enjeux.

UEL'édition francophone de Wikipédia est directement concernée : les contributeurs français et européens ne peuvent plus utiliser de textes génératifs pour rédiger ou modifier des articles encyclopédiques.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour