Aller au contenu principal
La Wikipedia anglophone interdit l’édition assistée par modèles de langage
AutreNext INpact2h

La Wikipedia anglophone interdit l’édition assistée par modèles de langage

5 sources couvrent ce sujet·Source originale ↗·

La version anglophone de Wikipédia a officiellement interdit l'utilisation des grands modèles de langage (LLM) — comme ChatGPT, Gemini ou DeepSeek — pour générer ou réécrire le contenu de ses articles. Cette décision a été adoptée à une écrasante majorité : 44 voix pour, 2 contre, lors d'un vote communautaire auquel 46 éditeurs ont participé. La règle est désormais inscrite dans les directives officielles de la plateforme, qui précise que les textes produits par ces outils « enfreignent souvent plusieurs des principes fondamentaux de Wikipédia ». Deux exceptions subsistent : les éditeurs peuvent utiliser un LLM pour obtenir des suggestions de correction sur leurs propres textes, à condition de les vérifier manuellement et que l'outil n'ajoute aucun contenu de lui-même ; et pour traduire des pages depuis d'autres versions linguistiques de l'encyclopédie, en respectant un cadre strict établi récemment. La Wikipedia germanophone avait, elle aussi, imposé des restrictions similaires peu avant ce vote.

Cette interdiction vise à protéger l'intégrité d'une encyclopédie dont la valeur repose sur la vérifiabilité et la fiabilité des sources. Les LLM sont sujets aux « hallucinations » — des affirmations inventées mais formulées avec assurance — ce qui est fondamentalement incompatible avec les standards éditoriaux de Wikipédia. Le problème s'était déjà manifesté concrètement dans les traductions automatisées, où des erreurs factuelles introduites par IA avaient conduit à des corrections en cascade. Pour des millions de lecteurs qui consultent Wikipédia comme première source d'information, la contamination silencieuse du contenu par des textes non vérifiés représente un risque réel de désinformation à grande échelle.

Le débat autour de cette règle révèle néanmoins des tensions profondes au sein de la communauté. Certains opposants estiment que la formulation est trop radicale, car elle amalgame l'usage irresponsable — produire du contenu de mauvaise qualité en masse — et un usage encadré où un éditeur expérimenté identifie les sources, définit la tâche et assume la pleine responsabilité du résultat publié. D'autres craignent que l'interdiction soit difficile à appliquer en pratique : un texte généré par IA mais relu et corrigé peut ressembler à de l'écriture humaine, et la politique elle-même admet que si le contenu est de bonne qualité, les sanctions resteront limitées — ce que certains interprètent comme une invitation implicite à contourner la règle. Wikipédia rejoint ainsi une série d'institutions académiques et journalistiques qui cherchent à tracer une ligne claire face à la prolifération de contenus automatisés, dans un contexte où la distinction entre production humaine et machine devient de plus en plus difficile à établir.

Impact France/UE

La Wikipedia germanophone a adopté des restrictions similaires, et cette décision alimente le débat européen sur la transparence des contenus générés par IA, un enjeu central de l'AI Act.

À lire aussi

1ZDNET AI 

How NiCE Cognigy envisions the human-agent balancing act for delivering top customer service

Autre
1 source
2Frandroid 

Wikipédia interdit officiellement la rédaction d’articles par l’IA

La Fondation Wikimedia a officiellement interdit la rédaction d'articles par intelligence artificielle sur l'encyclopédie en ligne Wikipédia. Cette décision marque un tournant dans la politique éditoriale de l'une des plateformes d'information les plus consultées au monde, avec plus de 60 millions d'articles dans 300 langues. La règle s'applique à la création de contenu directement généré par des outils comme ChatGPT ou Claude, même si les détails précis de la politique — notamment les usages auxiliaires autorisés — restent en cours de clarification au sein des différentes communautés de contributeurs. La décision répond à une inquiétude croissante sur la fiabilité du contenu encyclopédique à l'ère des LLMs. Les modèles de langage sont connus pour produire des « hallucinations » — des affirmations fausses présentées avec assurance —, ce qui est particulièrement dangereux sur une plateforme dont des millions de lecteurs, d'étudiants et de journalistes dépendent quotidiennement. Pour Wikimedia, laisser l'IA rédiger librement risquait de polluer silencieusement une base de connaissance construite sur des décennies de travail humain vérifié. La Fondation reconnaît cependant que l'application de cette règle sera techniquement ardue : détecter automatiquement les textes générés par IA reste un problème non résolu, les outils de détection existants produisant de nombreux faux positifs. Ce choix s'inscrit dans un débat plus large qui agite l'ensemble des médias et institutions de savoir — de la presse aux universités — sur la place de l'IA générative dans la production de contenus à vocation informative. Wikipédia choisit clairement le camp de la prudence.

UELa décision s'applique directement aux versions françaises et européennes de Wikipédia, protégeant l'intégrité d'une ressource encyclopédique massivement utilisée par les étudiants, journalistes et institutions de l'UE.

AutreReglementation
1 source
3The Information AI 

Midjourney est rentable et vise le matériel, mais peut-il survivre face à Google ?

David Holz, fondateur de Midjourney à 37 ans, enchaîne les reports pour la version 8 de son générateur d'images IA. Annoncée initialement pour fin 2025, la mise à jour a glissé vers janvier, puis février, puis le début mars — sans jamais arriver. Le 11 mars, lors de sa session hebdomadaire de questions-réponses sur Discord, Holz a dû faire face à l'impatience croissante des 19,4 millions de membres de la communauté. Apparu sous forme d'avatar dragon bleu, caméra éteinte, il a admis que son équipe était "probablement plus stressée" que les utilisateurs qui attendent, leur conseillant d'aller "toucher l'herbe" — expression anglaise pour décrocher et se ressourcer. Ces retards répétés interviennent dans un contexte paradoxal : Midjourney est l'une des rares startups IA à afficher une rentabilité réelle, sans avoir levé de capital-risque externe. Mais cette indépendance financière n'immunise pas l'entreprise contre la pression concurrentielle. La question de sa survie face à Google — dont les capacités de génération d'images s'intègrent directement dans ses produits grand public comme Search et Workspace — devient de plus en plus pressante. Là où Midjourney dépend d'abonnements et de la fidélité d'une communauté de créatifs, Google peut proposer ses outils à des milliards d'utilisateurs sans coût marginal. Holz a par ailleurs révélé ambitionner de se lancer dans le matériel informatique, une stratégie risquée qui rappelle les paris d'OpenAI ou d'Humane dans l'ère post-smartphone. Cette diversification trahit une volonté de contrôler la chaîne complète, de la puce au rendu final — mais aussi une conscience que le logiciel seul ne suffira peut-être pas à long terme. Midjourney a bâti une communauté exceptionnellement engagée autour d'un produit pionnier, mais la version 8 doit démontrer que l'entreprise peut encore tenir le rythme face à des géants technologiques dont les ressources sont sans commune mesure avec les siennes.

AutreOpinion
1 source
4Le Monde Pixels 

« L’Europe doit montrer la voie en matière de gouvernance des armes autonomes et de l’IA militaire »

Vincent Boulanin, chercheur spécialisé dans les technologies militaires, a publié une tribune dans Le Monde appelant les gouvernements européens à prendre le leadership mondial sur la gouvernance de l'intelligence artificielle militaire et des armes autonomes. Sa thèse centrale : les États-Unis, sous l'administration actuelle, se désengagent progressivement des cadres multilatéraux de régulation qu'ils avaient eux-mêmes contribué à établir ces dernières années, laissant un vide stratégique que l'Europe doit combler. Ce retrait américain n'est pas anodin. La gouvernance de l'IA militaire — qui encadre notamment le développement des systèmes d'armes létaux autonomes, capables de sélectionner et d'engager des cibles sans intervention humaine — est un enjeu à la fois éthique, stratégique et économique. Boulanin argue que les pays européens ont tout à gagner à s'imposer comme référents dans ce domaine : cela renforcerait leur crédibilité diplomatique, orienterait les normes internationales dans un sens compatible avec leurs valeurs, et positionnerait leur industrie de défense sur un marché en pleine expansion. Le contexte est celui d'une course mondiale à l'armement autonome, où la Chine, la Russie et les États-Unis investissent massivement, tandis que les négociations onusiennes sur un traité contraignant piétinent depuis des années. L'Europe, notamment via des initiatives portées à l'ONU et au sein de l'UE, a déjà esquissé des positions ambitieuses. Boulanin les invite à ne pas renoncer à cette ambition sous prétexte de pragmatisme ou de pression des alliés — car l'absence de règles du jeu claires dans ce domaine pourrait avoir des conséquences durables sur la stabilité internationale.

UEL'article interpelle directement les gouvernements européens pour qu'ils prennent le leadership sur la gouvernance de l'IA militaire et des armes autonomes, ce qui aurait des conséquences concrètes sur la politique de défense de l'UE et le positionnement de l'industrie de défense européenne dans un marché en pleine expansion.

AutreReglementation
1 source