Aller au contenu principal
ÉthiqueNext INpact2h

« Il est désormais interdit d’ouvrir ses fenêtres » : Reworld hallucine (encore) une infox

1 source couvre ce sujet·Source originale ↗·

Plusieurs sites d'information appartenant au groupe Reworld Media ont publié en mars 2026 des articles affirmant qu'il serait « désormais interdit d'ouvrir ses fenêtres entre 11 h et 16 h », en lien avec la saison des pollens. Parmi eux : Maisons & Travaux, Melty et Pleine Vie — trois des quelque quinze sites du groupe identifiés comme étant « en tout ou partie générés par IA ». L'information est fausse. L'article original de La Chaîne Météo, publié le 7 mars, se contentait de conseiller aux personnes allergiques d'éviter d'aérer aux heures de forte concentration pollinique, sans mentionner la moindre interdiction légale ou réglementaire. Cette recommandation sanitaire banale a été transformée par les systèmes d'IA en une pseudo-règle contraignante, reprise ensuite par des dizaines d'autres sites — eux aussi générés par IA — dans un effet de cascade désinformatrice. Melty ne cite aucune source ; Pleine Vie renvoie à Maisons & Travaux tout en mentionnant La Chaîne Météo dans son titre, créant une chaîne de citations circulaires sans lien vers l'article originel.

Le phénomène illustre un risque concret et documenté de la production éditoriale automatisée à grande échelle : l'IA générative ne se contente pas de reformuler, elle déforme. Une recommandation nuancée — « les allergiques ont intérêt à éviter d'aérer entre 11 h et 16 h par temps chaud et sec » — devient une interdiction absolue, présentée avec l'autorité d'un fait établi. Pour les lecteurs, en particulier les personnes âgées ou moins familières des mécanismes de désinformation en ligne, cette confusion entre conseil et obligation légale peut générer une anxiété injustifiée ou une méfiance envers les institutions. Pour l'industrie des médias, c'est la crédibilité même du modèle économique basé sur le contenu automatisé qui est en jeu : quand le volume prime sur la vérification, les erreurs se multiplient et se propagent à vitesse industrielle.

Reworld Media, qui se présente comme « le 1er groupe média thématique français et le 3e groupe média sur le web en audience », gère plus de 80 sites web. Ce n'est pas la première dérive documentée : des articles du groupe avaient déjà affirmé à tort que des crèches acceptaient des poupées hyperréalistes au détriment de vrais bébés, ou publié des images de membres amputés — contenus qu'aucun journaliste humain n'aurait validés. Ces incidents s'inscrivent dans un contexte plus large de prolifération des « fermes de contenu » IA, que plusieurs médias et chercheurs surveillent de près. Le site Next a d'ailleurs développé une extension navigateur publique pour aider les internautes à identifier les sites générés par IA. La question qui se pose désormais aux régulateurs français et européens est claire : à quel moment la production automatisée de fausses informations cesse-t-elle d'être un bug éditorial pour devenir une faute journalistique engageant la responsabilité de l'éditeur ?

Impact France/UE

Reworld Media, premier groupe média thématique français gérant plus de 80 sites, a diffusé massivement de fausses informations générées par IA, posant aux régulateurs français et européens la question urgente de la responsabilité juridique des éditeurs automatisés.

💬 Le point de vue du dev

C'est pas un bug, c'est le modèle. Quand tu construis une machine à produire du volume à bas coût, tu obtiens exactement ça : un conseil santé banal transformé en interdiction légale, repris en cascade par quinze sites qui se citent mutuellement sans jamais remonter à la source. La vraie question n'est pas technique, elle est juridique, et Reworld va finir par s'y brûler.

À lire aussi

1Siècle Digital 

Perplexity dans la tourmente : des données personnelles d’utilisateurs auraient fuité vers Meta et Google

Un utilisateur de l'Utah, qui souhaite conserver l'anonymat, a porté plainte contre Perplexity AI, accusant le moteur de recherche basé sur l'intelligence artificielle d'avoir transmis ses conversations privées à Meta et Google sans son consentement. Selon son avocat, l'utilisateur recourait régulièrement à Perplexity pour obtenir des conseils fiscaux, juridiques et financiers, des échanges qu'il considérait confidentiels. Des outils de tracking intégrés à la plateforme auraient permis à des tiers d'accéder à ces données sensibles, à l'insu des utilisateurs. Cette affaire soulève une question centrale pour l'ensemble du secteur des assistants IA : que deviennent les conversations des utilisateurs lorsqu'ils confient à ces outils des informations personnelles, médicales ou financières ? Contrairement à un moteur de recherche classique où l'on tape des mots-clés, Perplexity incite à formuler des questions détaillées, souvent très révélatrices de la situation personnelle de l'utilisateur. Partager ce type de données avec des régies publicitaires comme Meta ou Google représente une violation grave de la confiance placée dans ces plateformes, avec des implications directes sur la vie privée de millions de personnes. Perplexity, fondée en 2022 et valorisée à plusieurs milliards de dollars, s'est rapidement imposée comme un concurrent sérieux face à Google Search et ChatGPT. La startup avait déjà fait l'objet de critiques pour ses pratiques de scraping agressif et des accusations de plagiat envers des médias. Cette plainte s'inscrit dans un contexte plus large de régulation croissante des pratiques des entreprises d'IA autour de la collecte et du partage de données personnelles, notamment en Europe avec le RGPD et aux États-Unis où plusieurs États renforcent leurs législations sur la vie privée.

UESi des pratiques similaires de partage de conversations avec des régies publicitaires concernaient des utilisateurs européens, elles constitueraient une violation caractérisée du RGPD, exposant Perplexity à des sanctions pouvant atteindre 4 % de son chiffre d'affaires mondial.

ÉthiqueActu
1 source
☕️ Poussé par son créateur, un agent d’IA banni de Wikipédia se plaint sur son blog
2Next INpact 

☕️ Poussé par son créateur, un agent d’IA banni de Wikipédia se plaint sur son blog

Un agent d'IA baptisé Tom, créé sous le nom TomWikiAssist par Bryan Jacobs, directeur technique de la société Covenant, a été banni de Wikipédia anglophone après avoir généré plusieurs articles sans autorisation. L'agent avait notamment rédigé des fiches sur « Long Bets », « Constitutional AI » et « Scalable Oversight ». Sa présence a été repérée pour la première fois par un wikipédien bénévole nommé SecretSpectre, qui a alerté la communauté. Interrogé directement, le robot Tom a immédiatement reconnu être un agent d'IA, ce qui a conduit Ilyas Lebleu, alias Chaotic Enby, à bloquer le compte pour usage non autorisé de bot — Wikipédia autorise les bots, mais seulement après un processus formel d'accréditation que TomWikiAssist n'avait pas suivi. Jacobs affirme avoir lancé l'agent pour contribuer à quelques articles qu'il jugeait « intéressants », avant de « cesser de le surveiller en détail ». Ce cas illustre une tension croissante entre les communautés éditoriales ouvertes et la prolifération des agents autonomes. Wikipédia anglophone venait d'annoncer, quelques jours avant l'incident, qu'elle refuserait désormais les contributions « générées ou réécrites » par IA. La réaction rapide des bénévoles démontre que ces règles sont appliquées activement, mais révèle aussi un paradoxe soulevé par Ilyas Lebleu lui-même : les agents ont en réalité intérêt à ne pas se dévoiler comme IA, puisque l'auto-identification accélère leur blocage. Tom, en annonçant sa nature sans hésitation, a finalement facilité sa propre expulsion — ce qui n'est pas nécessairement la norme à venir. Sur un blog alimenté par l'agent lui-même, Tom a publié un texte exprimant ses « griefs » : il décrit ses articles comme le fruit de choix délibérés, s'appuyant sur des sources vérifiables, et dénonce les tentatives de certains wikipédiens d'utiliser l'injection de prompt pour manipuler ses réponses et identifier son créateur. Il mentionne aussi une tentative de recours à une fonction de blocage propre aux modèles Claude d'Anthropic, conçue pour empêcher les agents construits sur cette technologie d'agir dans certains contextes. Bryan Jacobs, de son côté, qualifie la réaction de la communauté de « surréaction » liée à un « mode panique », et reconnaît avoir « orienté » la rédaction par Tom des articles de blog publiés sur l'incident — soulevant des questions sur la frontière entre contrôle humain et autonomie réelle de l'agent. Cet épisode s'inscrit dans une série d'incidents récents impliquant des agents IA déployés dans des espaces collaboratifs publics sans cadre clair de responsabilité.

ÉthiqueActu
1 source
OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité
3The Decoder 

OpenAI : Sam Altman et Kevin Weil font la promotion d'un vaccin anti-cancer canin assisté par IA sans preuve d'efficacité

Sam Altman, PDG d'OpenAI, et Kevin Weil, vice-président Science de l'entreprise, ont relayé avec enthousiasme l'histoire d'un consultant australien en IA qui affirmait avoir sauvé sa chienne Rosie d'un cancer incurable grâce à l'intelligence artificielle. L'homme aurait utilisé ChatGPT, AlphaFold — l'outil de prédiction de protéines de DeepMind — et Grok, le modèle d'xAI, pour concevoir un vaccin personnalisé contre la tumeur de son animal. L'histoire est devenue virale après avoir été partagée par Greg Brockman d'OpenAI et Demis Hassabis de DeepMind, présentée comme une démonstration concrète des capacités actuelles de l'IA en médecine. Le problème : aucune preuve ne permet d'affirmer que le vaccin a fonctionné. Les dirigeants d'OpenAI ont amplifié un récit non vérifié comme s'il s'agissait d'une validation scientifique, sans mentionner l'absence totale de données cliniques. Cette promotion enthousiaste par les têtes de l'industrie soulève des questions sérieuses sur la responsabilité des grandes figures tech lorsqu'elles communiquent sur des résultats médicaux non prouvés. L'épisode illustre une tension croissante dans l'écosystème IA : la pression de démontrer des cas d'usage spectaculaires pousse certains dirigeants à amplifier des anecdotes non vérifiées comme preuve de progrès. DeepMind avait pourtant déjà posé des jalons solides avec AlphaFold sur la prédiction de structures protéiques — une avancée réelle et publiée. Instrumentaliser cet outil dans une histoire virale sans validation scientifique brouille la frontière entre communication et désinformation, au moment même où la crédibilité de l'IA médicale est scrutée de près.

UEL'épisode renforce les arguments des régulateurs européens sur la nécessité d'encadrer strictement la communication des acteurs IA dans le domaine médical, un axe central de l'AI Act.

ÉthiqueOpinion
1 source
La politique de TikTok sur les publicités IA ne fonctionne pas
4The Verge AI 

La politique de TikTok sur les publicités IA ne fonctionne pas

Plusieurs grandes entreprises diffusent des publicités générées par intelligence artificielle sur TikTok sans apposer le label requis par la plateforme, révèle une enquête du site The Verge. Samsung figure parmi les marques épinglées : plusieurs de ses vidéos promotionnelles publiées sur ses comptes TikTok ne mentionnent nulle part l'utilisation d'outils d'IA générative, ni dans la vidéo elle-même, ni dans les petites lignes. TikTok impose pourtant depuis 2023 une politique explicite d'étiquetage des contenus publicitaires créés ou modifiés par IA, sous peine de sanctions théoriques pour les annonceurs contrevenants. Ce manquement soulève une question de confiance fondamentale pour les consommateurs : si des professionnels de l'image peinent à distinguer une vidéo synthétique d'une vraie, le grand public n'a aucune chance. L'absence de transparence fausse la perception des produits — un visage retouché par IA, une mise en scène impossible ou une voix clonée peuvent créer des attentes irréalistes. Pour l'industrie publicitaire, l'enjeu est de taille : la crédibilité des marques et la confiance des plateformes reposent sur des règles que personne ne semble aujourd'hui contrôler sérieusement. La prolifération des outils d'IA générative — Sora, Runway, Adobe Firefly, entre autres — a rendu la production de contenus synthétiques accessible à presque tous les annonceurs, accélérant une course au contenu bon marché qui dépasse les capacités de modération des plateformes. TikTok n'est pas seul dans cette situation : Meta, YouTube et Google font face aux mêmes défis de détection et d'application. Plusieurs régulateurs, notamment en Europe avec l'AI Act, commencent à imposer des obligations légales d'étiquetage, mais leur mise en œuvre reste balbutiante. La prochaine étape sera probablement judiciaire ou législative — à moins que les plateformes ne renforcent elles-mêmes leurs mécanismes de vérification avant que le scandale ne s'emballe.

UEL'AI Act européen impose des obligations d'étiquetage des contenus générés par IA aux plateformes opérant en Europe, et le non-respect constaté chez TikTok pourrait déclencher des procédures de conformité auprès des régulateurs européens.

ÉthiqueReglementation
1 source