
Wikipédia vient de prendre une mesure radicale contre l’IA
La version anglaise de Wikipédia, la plus grande encyclopédie en ligne au monde avec plus de 6,7 millions d'articles, vient d'adopter une politique quasi-totale d'interdiction du contenu généré par intelligence artificielle. Les éditeurs bénévoles qui constituent la communauté de l'encyclopédie ont voté cette mesure radicale après avoir constaté que les textes produits par les grands modèles de langage (LLMs) violent systématiquement les règles fondamentales du projet.
L'enjeu est considérable : Wikipédia est l'une des sources d'information les plus consultées au monde, avec plusieurs milliards de visites mensuelles. Une contamination par des hallucinations ou des formulations biaisées issues de l'IA pourrait propager des erreurs à une échelle massive, touchant étudiants, journalistes et professionnels qui s'appuient quotidiennement sur ses contenus. La politique de Wikipédia exige vérifiabilité, neutralité et sourçage rigoureux — trois critères que les LLMs peinent structurellement à respecter.
Cette décision s'inscrit dans une tension croissante entre les plateformes collaboratives et la prolifération du contenu synthétique. Depuis l'émergence de ChatGPT en 2022, de nombreuses communautés en ligne — forums, journaux, bases de données scientifiques — cherchent à protéger l'intégrité de leur corpus face à des contributions automatisées difficiles à distinguer du travail humain. Wikipédia, dont le modèle repose sur la confiance et la traçabilité des contributeurs, choisit ici la ligne dure.
La décision pourrait influencer la politique éditoriale de Wikipédia en français, affectant directement les millions d'utilisateurs, étudiants et chercheurs européens qui s'appuient quotidiennement sur cette ressource.



