
Le culte de l'IA générative a un goût d'eugénisme
Valerie Veatch, réalisatrice américaine, a rejoint la communauté des utilisateurs de l'IA générative après le lancement public de Sora, le modèle texte-to-vidéo d'OpenAI, en 2024. Attirée par la promesse de connexions créatives avec d'autres artistes, elle a rapidement déchanté face à ce qu'elle a découvert : une technologie produisant régulièrement des contenus chargés de racisme et de sexisme.
Ce qui l'a le plus troublée n'est pas tant les biais du modèle lui-même, mais l'indifférence de sa communauté d'adoption. Ses pairs enthousiastes semblaient tolérer — voire ignorer — les dérives discriminatoires générées par les outils qu'ils célébraient. Cette dynamique soulève une question de fond sur la culture qui entoure l'IA générative : dans quelle mesure normalise-t-elle des représentations dégradantes sous couvert d'innovation technologique ?
L'article pointe une tension structurelle : les modèles génératifs sont entraînés sur des corpus massifs de données humaines, qui reflètent et amplifient les biais historiques présents dans la culture visuelle et textuelle. Lorsque ces biais ressurgissent dans des images générées à grande échelle, l'absence de réaction critique de la part des utilisateurs — et parfois des éditeurs eux-mêmes — renvoie à une forme d'acceptation implicite de hiérarchies discriminatoires. Le titre de l'article convoque explicitement le terme eugénisme, non dans son sens médical, mais comme métaphore d'une technologie qui "sélectionne" et perpétue certaines représentations de l'humanité au détriment d'autres.
Le témoignage de Veatch s'inscrit dans un débat plus large sur la responsabilité des plateformes d'IA et la nécessité d'une gouvernance éthique des modèles génératifs. À mesure que ces outils s'intègrent dans les pratiques créatives grand public, la question de leur impact culturel — et des valeurs qu'ils véhiculent implicitement — devient centrale pour l'ensemble du secteur.
Le règlement européen sur l'IA (AI Act) impose des exigences strictes contre les biais discriminatoires dans les systèmes d'IA, rendant ce type de dérive directement pertinent pour les acteurs déployant des outils génératifs en Europe.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



