
Wikipedia restreint l'usage de l'IA dans la rédaction de ses articles
Wikipédia vient d'adopter une politique restrictive concernant l'utilisation de l'intelligence artificielle dans la rédaction de ses articles. L'encyclopédie collaborative, qui compte parmi les sites les plus consultés au monde, prend position face à la prolifération des contenus générés automatiquement, en encadrant strictement leur usage au sein de sa communauté de contributeurs.
Cette décision s'inscrit dans un débat plus large que traverse l'ensemble de l'écosystème de l'information : comment garantir la fiabilité et la qualité des contenus à l'ère des grands modèles de langage ? Pour Wikipédia, dont le modèle repose sur la vérifiabilité et la contribution humaine vérifiée, l'enjeu est particulièrement sensible — la crédibilité de ses millions d'articles en dépend directement.
La politique adoptée reflète les tensions internes que la communauté Wikipédia a traversées ces derniers mois, des contributeurs signalant des articles rédigés en tout ou partie par des outils comme ChatGPT ou d'autres LLM, parfois truffés d'inexactitudes ou d'hallucinations. Les règles, susceptibles d'évoluer selon les besoins de la communauté, visent à préserver l'intégrité éditoriale du projet sans interdire totalement tout recours aux outils d'assistance.
La décision de Wikipédia pourrait faire jurisprudence pour d'autres plateformes collaboratives confrontées au même défi : trouver l'équilibre entre les gains de productivité offerts par l'IA et la nécessité de maintenir des standards éditoriaux rigoureux dans un contexte de méfiance croissante envers les contenus synthétiques.
La Wikipédia francophone est directement concernée par cette politique, affectant les contributeurs bénévoles français et les millions de lecteurs européens qui s'appuient sur l'encyclopédie comme source de référence.

