
Mort de Netanyahu : les vidéos sont-elles vraiment créées par IA ?
Une rumeur sur la mort de Benjamin Netanyahu a envahi les réseaux sociaux en quelques heures, alimentée par des vidéos supposément générées par IA. Tout est parti d'un livestream politique où des internautes ont cru apercevoir six doigts à la main droite du Premier ministre israélien — un artefact considéré comme un signe classique de génération par intelligence artificielle. La machine complotiste s'est emballée : Netanyahu aurait été éliminé et remplacé par un deepfake.
Ce phénomène illustre une crise de confiance profonde dans l'image numérique. Les organismes de fact-checking ont rapidement démenti les allégations, rappelant que compression vidéo, éclairage et angle de prise de vue peuvent créer des illusions visuelles sans aucune manipulation. Mais le démenti lui-même n'a fait qu'alimenter les soupçons. Netanyahu a publié une nouvelle vidéo pour prouver qu'il n'avait que cinq doigts — les internautes y ont aussitôt traqué d'autres anomalies : un café qui ne se vide pas, une bague qui disparaît, un décor jugé suspect.
Le cœur du problème est technique et structurel : aucune des vidéos ne contient de métadonnées fiables permettant d'attester leur authenticité ou de prouver une manipulation. Comme le souligne une analyse du New York Times, dans les tensions géopolitiques, ces incertitudes deviennent des armes informationnelles — semer le doute est souvent plus efficace que diffuser une fausse information vérifiable. Les experts parlent désormais d'une zone grise de crédibilité : les IA modernes génèrent des vidéos avec de moins en moins d'erreurs visibles, rendant obsolète le fameux « test des mains déformées ».
L'affaire Netanyahu est moins une histoire de deepfake avéré qu'un signal d'alarme sur l'effondrement de la confiance dans l'image. La solution passe par une accélération sur la certification des contenus (notamment le standard C2PA), un renforcement des méthodes de vérification journalistique, et une éducation des utilisateurs à la lecture critique des médias visuels. Car désormais, voir ne suffit plus pour croire.
L'affaire illustre les risques de désinformation par deepfake qui menacent le débat public, un phénomène que l'AI Act européen cherche précisément à encadrer via les obligations de transparence sur les contenus synthétiques.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



