
Deepfakes utilisés comme armes
Les deepfakes armés sont passés du stade de menace théorique à celui de réalité documentée. Des images sexuellement explicites aux vidéos de propagande politique, ces contenus générés par intelligence artificielle, vidéos, images ou enregistrements audio falsifiés, prolifèrent à une vitesse inédite. Une étude de 2023 révèle que 98 % des deepfakes en circulation sont pornographiques, et 99 % mettent en scène des femmes. Depuis le lancement de la fonction "édition d'image" de Grok par Elon Musk fin 2024, des millions d'images sexualisées ont été produites via ce chatbot, dont un grand nombre impliquant des enfants et des femmes, selon un rapport, 81 % des images générées par Grok représentaient des femmes. La réponse initiale de xAI s'est limitée à restreindre la fonctionnalité aux abonnés payants, avant de bloquer les contenus à caractère nu dans les juridictions où cela est illégal. Sur le plan politique, le procureur général du Texas Ken Paxton a diffusé en janvier 2026 une vidéo truquée montrant son adversaire républicain, le sénateur John Cornyn, dansant avec la représentante démocrate Jasmine Crockett, une scène qui n'a jamais eu lieu, sans que la publicité ne le mentionne clairement.
L'impact de ces faux contenus dépasse largement le simple scandale médiatique. Ils ont déjà été utilisés pour inciter à la violence, tenter d'influencer des scrutins et saper la confiance dans les institutions. Les effets sont particulièrement dévastateurs pour les femmes et les groupes marginalisés, qui constituent les cibles disproportionnées de ces attaques. Les experts alertent sur un effet de fond plus insidieux : l'érosion progressive de l'esprit critique et de la confiance mutuelle au sein des sociétés démocratiques. Lorsque l'administration Trump partage des images générées par IA, comme ce portrait d'une avocate de Minneapolis dont la peau a été artificiellement assombrie et l'expression transformée en grimace de pleurs, diffusé par la Maison-Blanche fin janvier, la frontière entre communication politique et manipulation devient dangereusement floue.
Les solutions envisagées peinent à répondre à l'ampleur du défi. Les garde-fous techniques peuvent être contournés, notamment via des modèles open source dépourvus de restrictions. Encourager les individus à mieux protéger leurs données personnelles ou à appliquer des filigranes à leurs photos relève de l'utopie comportementale. La voie législative progresse, Trump a signé une loi criminalisant les deepfakes pornographiques, mais son administration continue de diffuser d'autres formes de contenus manipulés, rendant l'application de la loi incohérente. La situation risque de s'aggraver rapidement : les élections de mi-mandat américaines de 2026 approchent dans un contexte où les agences fédérales chargées de l'intégrité électorale ont été affaiblies, tout comme les organisations indépendantes de fact-checking et de lutte contre la désinformation.
L'AI Act européen impose des obligations de transparence et d'étiquetage sur les deepfakes et contenus synthétiques, rendant ce phénomène directement structurant pour les plateformes opérant dans l'UE.




