Aller au contenu principal
Des images de propagande iranienne générées par IA se retrouvent dans un grand média allemand
ÉthiqueThe Decoder8sem

Des images de propagande iranienne générées par IA se retrouvent dans un grand média allemand

Résumé IASource uniqueImpact UE
Source originale ↗·

Der Spiegel a retiré plusieurs images de sa couverture sur l'Iran après avoir constaté qu'elles avaient très probablement été générées ou manipulées par intelligence artificielle. Ces visuels s'inscrivaient dans une campagne de propagande iranienne diffusée via des outils d'IA. L'incident soulève des questions sur la vérification des images dans les grands médias européens.

Impact France/UE

Cet incident expose la vulnérabilité des grands médias européens face aux campagnes de désinformation alimentées par l'IA, renforçant l'urgence de mécanismes de vérification robustes dans la presse européenne.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF
1Next INpact 

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

L'Internet Watch Foundation (IWF), organisation britannique indépendante spécialisée dans la lutte contre les contenus pédocriminels en ligne, tire la sonnette d'alarme dans un rapport publié en 2025 : les images et vidéos d'agressions sexuelles sur mineurs générées par intelligence artificielle sont devenues « routinières ». En juillet 2024, ses analystes repéraient encore les premières vidéos entièrement produites par IA — facilement identifiables à leurs défauts techniques. Un an plus tard, l'organisation a recensé plus de 8 000 images et près de 3 500 vidéos crédibles de ce type, contre seulement 13 vidéos l'année précédente. Plus alarmant encore, 65 % de ces vidéos appartiennent à la « catégorie A », réservée aux contenus les plus extrêmes — une proportion supérieure aux 43 % observés pour les contenus criminels non générés par IA traités sur la même période. Ces contenus ne sont pas moins dangereux parce qu'ils sont artificiels. Selon l'IWF, ils renforcent l'attrait sexuel pour les enfants, contribuent à normaliser des actes d'une violence extrême et peuvent accroître le risque de passages à l'acte. S'y ajoute une double victimisation : les modèles génératifs sont entraînés sur des images d'agressions réelles, ce qui signifie que l'image de survivants est réutilisée, modifiée et parfois « augmentée » pour produire de nouveaux contenus. Cette réexploitation démultiplie le traumatisme des victimes initiales. Le phénomène présente également une dimension de genre très marquée : 97 % des enfants représentés dans ces contenus générés par IA sont des filles, une surreprésentation encore plus forte que dans les affaires de pédocriminalité réelle. Des cas concrets ont illustré cette dérive, notamment en Espagne à Almendralejo, où des images de lycéennes réelles ont été manipulées par IA pour produire des contenus à caractère sexuel. L'IWF, fondée en 1996 et membre du réseau international INHOPE — auquel appartient également l'association française Point de Contact —, travaille en lien avec les forces de police et les fournisseurs d'accès à internet, auxquels elle transmet notamment une liste noire d'environ 150 000 URL de sites diffusant des contenus illégaux. Ce rapport s'inscrit dans un contexte où la démocratisation des outils de génération d'images et de vidéos par IA pose des défis croissants aux dispositifs légaux et techniques de protection de l'enfance à l'échelle mondiale.

UELe réseau INHOPE, dont fait partie l'association française Point de Contact, est directement impliqué dans la lutte contre ces contenus, et la multiplication de ces matériaux générés par IA accroît la pression sur le cadre réglementaire européen pour encadrer les outils génératifs.

ÉthiqueActu
1 source
Vinted : une nouvelle arnaque générée par l’IA fait des ravages
201net 

Vinted : une nouvelle arnaque générée par l’IA fait des ravages

Sur Vinted, une nouvelle forme d'arnaque émerge : des acheteurs malveillants utilisent des générateurs d'images IA pour fabriquer de fausses preuves de colis endommagés. Grâce à ces images truquées, ils obtiennent des remboursements abusifs au détriment des vendeurs honnêtes.

UELes vendeurs français sur Vinted, plateforme lituanienne leader en Europe, sont directement victimes de cette nouvelle forme de fraude aux remboursements facilitée par l'IA générative.

ÉthiqueActu
1 source
3The Decoder 

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude. Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine. L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

UELa prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

ÉthiqueOpinion
1 source
Après des pannes, Amazon exigera que des ingénieurs senior approuvent les modifications assistées par l'IA
4Ars Technica AI 

Après des pannes, Amazon exigera que des ingénieurs senior approuvent les modifications assistées par l'IA

Suite à une série de pannes majeures liées à l'utilisation d'outils de codage assistés par l'IA, Amazon a convoqué une réunion d'ingénieurs pour analyser ces incidents à "fort rayon de blast". Le géant du e-commerce a identifié comme facteur contributif l'"utilisation nouvelle de l'IA générative pour laquelle les bonnes pratiques et garde-fous ne sont pas encore établis". En réponse, Amazon exigera désormais que des ingénieurs seniors approuvent toutes les modifications générées avec l'aide de l'IA.

ÉthiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour