
La Wikipedia anglophone interdit l’édition assistée par modèles de langage
La version anglophone de Wikipédia a officiellement interdit l'utilisation des grands modèles de langage (LLM) — comme ChatGPT, Gemini ou DeepSeek — pour générer ou réécrire le contenu de ses articles. Cette décision a été adoptée à une écrasante majorité : 44 voix pour, 2 contre, lors d'un vote communautaire auquel 46 éditeurs ont participé. La règle est désormais inscrite dans les directives officielles de la plateforme, qui précise que les textes produits par ces outils « enfreignent souvent plusieurs des principes fondamentaux de Wikipédia ». Deux exceptions subsistent : les éditeurs peuvent utiliser un LLM pour obtenir des suggestions de correction sur leurs propres textes, à condition de les vérifier manuellement et que l'outil n'ajoute aucun contenu de lui-même ; et pour traduire des pages depuis d'autres versions linguistiques de l'encyclopédie, en respectant un cadre strict établi récemment. La Wikipedia germanophone avait, elle aussi, imposé des restrictions similaires peu avant ce vote.
Cette interdiction vise à protéger l'intégrité d'une encyclopédie dont la valeur repose sur la vérifiabilité et la fiabilité des sources. Les LLM sont sujets aux « hallucinations » — des affirmations inventées mais formulées avec assurance — ce qui est fondamentalement incompatible avec les standards éditoriaux de Wikipédia. Le problème s'était déjà manifesté concrètement dans les traductions automatisées, où des erreurs factuelles introduites par IA avaient conduit à des corrections en cascade. Pour des millions de lecteurs qui consultent Wikipédia comme première source d'information, la contamination silencieuse du contenu par des textes non vérifiés représente un risque réel de désinformation à grande échelle.
Le débat autour de cette règle révèle néanmoins des tensions profondes au sein de la communauté. Certains opposants estiment que la formulation est trop radicale, car elle amalgame l'usage irresponsable — produire du contenu de mauvaise qualité en masse — et un usage encadré où un éditeur expérimenté identifie les sources, définit la tâche et assume la pleine responsabilité du résultat publié. D'autres craignent que l'interdiction soit difficile à appliquer en pratique : un texte généré par IA mais relu et corrigé peut ressembler à de l'écriture humaine, et la politique elle-même admet que si le contenu est de bonne qualité, les sanctions resteront limitées — ce que certains interprètent comme une invitation implicite à contourner la règle. Wikipédia rejoint ainsi une série d'institutions académiques et journalistiques qui cherchent à tracer une ligne claire face à la prolifération de contenus automatisés, dans un contexte où la distinction entre production humaine et machine devient de plus en plus difficile à établir.
La Wikipedia germanophone a adopté des restrictions similaires, et cette décision alimente le débat européen sur la transparence des contenus générés par IA, un enjeu central de l'AI Act.


