Aller au contenu principal
Les 6 raisons pour lesquelles Wikipédia rejette l’écriture d’articles avec IA, sauf dans deux cas particuliers
AutreNumerama4h

Les 6 raisons pour lesquelles Wikipédia rejette l’écriture d’articles avec IA, sauf dans deux cas particuliers

1 source couvre ce sujet·Source originale ↗·

Wikipédia a formalisé une position claire face à la montée en puissance des outils d'IA générative : la rédaction d'articles encyclopédiques par intelligence artificielle y est en grande partie interdite. L'encyclopédie collaborative, qui compte plusieurs millions d'articles dans des dizaines de langues, avance six raisons principales pour justifier cette prohibition, parmi lesquelles la fiabilité insuffisante des textes générés, leur tendance aux hallucinations factuelles, et leur inadéquation avec les exigences de neutralité et de vérifiabilité propres au projet.

Cette ligne dure protège l'intégrité d'une ressource consultée chaque mois par des centaines de millions de personnes. Si des contenus erronés ou invérifiables venaient à s'y répandre via des outils automatisés, la confiance accordée à Wikipédia — déjà questionnée sur certains sujets — pourrait être durablement érodée. La communauté des contributeurs bénévoles, qui assure depuis vingt ans la qualité éditoriale du site, serait également submergée par un flot de révisions impossibles à absorber.

Deux exceptions sont néanmoins tolérées, dans des usages très encadrés : l'aide à la traduction de contenus déjà validés, et certaines tâches de mise en forme ou d'assistance à la rédaction — non à la génération autonome d'articles. Ce positionnement tranche avec celui d'autres plateformes qui expérimentent l'IA de façon plus ouverte, et illustre les tensions croissantes entre productivité automatisée et exigence de qualité éditoriale humaine.

Impact France/UE

Wikipédia étant une ressource encyclopédique massivement consultée par des millions d'utilisateurs francophones et européens, cette politique protège directement la fiabilité des informations accessibles au grand public en France et en Europe.

À lire aussi

1The Decoder 

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington. La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation. L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

UELa décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

AutreReglementation
1 source
2Numerama 

GitHub fait machine arrière et va bien entraîner ses IA sur vos données

GitHub a officiellement annoncé qu'il utilisera les données de ses utilisateurs pour entraîner ses modèles d'intelligence artificielle, dont Copilot. Ce revirement marque un changement de position notable pour la plateforme de Microsoft, qui avait jusqu'ici laissé planer une certaine ambiguïté sur l'usage réel de ces données. Désormais, la participation à l'entraînement des IA est confirmée, sous réserve de conditions précises que GitHub n'a pas encore détaillées publiquement dans leur intégralité. Ce changement concerne potentiellement des dizaines de millions de développeurs qui hébergent leur code sur GitHub — la plus grande plateforme de dépôts au monde avec plus de 100 millions d'utilisateurs. Le fait que du code source, des commentaires et des contributions soient réinjectés dans l'entraînement de Copilot soulève des questions directes sur la propriété intellectuelle, la confidentialité du code propriétaire, et la transparence des consentements. Pour les entreprises qui utilisent GitHub en supposant que leur code interne reste privé, les implications pratiques peuvent être significatives. Cette décision s'inscrit dans une tendance plus large de l'industrie tech à monétiser les données des utilisateurs pour alimenter leurs produits d'IA générative. Microsoft, qui a racheté GitHub en 2018 pour 7,5 milliards de dollars, investit massivement dans l'IA via son partenariat stratégique avec OpenAI. La question des droits sur les données d'entraînement fait l'objet de litiges actifs dans plusieurs pays, et ce positionnement de GitHub pourrait alimenter de nouvelles contestations légales ou réglementaires, notamment en Europe où le RGPD encadre strictement ce type d'usage.

UELe RGPD impose à GitHub/Microsoft d'obtenir un consentement valide des développeurs européens avant d'utiliser leur code pour entraîner Copilot, exposant la plateforme à des contrôles de la CNIL et à d'éventuels recours juridiques en Europe.

AutreReglementation
1 source
3ZDNET AI 

How NiCE Cognigy envisions the human-agent balancing act for delivering top customer service

Autre
1 source
4Frandroid 

Wikipédia interdit officiellement la rédaction d’articles par l’IA

La Fondation Wikimedia a officiellement interdit la rédaction d'articles par intelligence artificielle sur l'encyclopédie en ligne Wikipédia. Cette décision marque un tournant dans la politique éditoriale de l'une des plateformes d'information les plus consultées au monde, avec plus de 60 millions d'articles dans 300 langues. La règle s'applique à la création de contenu directement généré par des outils comme ChatGPT ou Claude, même si les détails précis de la politique — notamment les usages auxiliaires autorisés — restent en cours de clarification au sein des différentes communautés de contributeurs. La décision répond à une inquiétude croissante sur la fiabilité du contenu encyclopédique à l'ère des LLMs. Les modèles de langage sont connus pour produire des « hallucinations » — des affirmations fausses présentées avec assurance —, ce qui est particulièrement dangereux sur une plateforme dont des millions de lecteurs, d'étudiants et de journalistes dépendent quotidiennement. Pour Wikimedia, laisser l'IA rédiger librement risquait de polluer silencieusement une base de connaissance construite sur des décennies de travail humain vérifié. La Fondation reconnaît cependant que l'application de cette règle sera techniquement ardue : détecter automatiquement les textes générés par IA reste un problème non résolu, les outils de détection existants produisant de nombreux faux positifs. Ce choix s'inscrit dans un débat plus large qui agite l'ensemble des médias et institutions de savoir — de la presse aux universités — sur la place de l'IA générative dans la production de contenus à vocation informative. Wikipédia choisit clairement le camp de la prudence.

UELa décision s'applique directement aux versions françaises et européennes de Wikipédia, protégeant l'intégrité d'une ressource encyclopédique massivement utilisée par les étudiants, journalistes et institutions de l'UE.

AutreReglementation
1 source