« Il est désormais interdit d’ouvrir ses fenêtres » : Reworld hallucine (encore) une infox
Plusieurs sites d'information appartenant au groupe Reworld Media ont publié en mars 2026 des articles affirmant qu'il serait « désormais interdit d'ouvrir ses fenêtres entre 11 h et 16 h », en lien avec la saison des pollens. Parmi eux : Maisons & Travaux, Melty et Pleine Vie — trois des quelque quinze sites du groupe identifiés comme étant « en tout ou partie générés par IA ». L'information est fausse. L'article original de La Chaîne Météo, publié le 7 mars, se contentait de conseiller aux personnes allergiques d'éviter d'aérer aux heures de forte concentration pollinique, sans mentionner la moindre interdiction légale ou réglementaire. Cette recommandation sanitaire banale a été transformée par les systèmes d'IA en une pseudo-règle contraignante, reprise ensuite par des dizaines d'autres sites — eux aussi générés par IA — dans un effet de cascade désinformatrice. Melty ne cite aucune source ; Pleine Vie renvoie à Maisons & Travaux tout en mentionnant La Chaîne Météo dans son titre, créant une chaîne de citations circulaires sans lien vers l'article originel.
Le phénomène illustre un risque concret et documenté de la production éditoriale automatisée à grande échelle : l'IA générative ne se contente pas de reformuler, elle déforme. Une recommandation nuancée — « les allergiques ont intérêt à éviter d'aérer entre 11 h et 16 h par temps chaud et sec » — devient une interdiction absolue, présentée avec l'autorité d'un fait établi. Pour les lecteurs, en particulier les personnes âgées ou moins familières des mécanismes de désinformation en ligne, cette confusion entre conseil et obligation légale peut générer une anxiété injustifiée ou une méfiance envers les institutions. Pour l'industrie des médias, c'est la crédibilité même du modèle économique basé sur le contenu automatisé qui est en jeu : quand le volume prime sur la vérification, les erreurs se multiplient et se propagent à vitesse industrielle.
Reworld Media, qui se présente comme « le 1er groupe média thématique français et le 3e groupe média sur le web en audience », gère plus de 80 sites web. Ce n'est pas la première dérive documentée : des articles du groupe avaient déjà affirmé à tort que des crèches acceptaient des poupées hyperréalistes au détriment de vrais bébés, ou publié des images de membres amputés — contenus qu'aucun journaliste humain n'aurait validés. Ces incidents s'inscrivent dans un contexte plus large de prolifération des « fermes de contenu » IA, que plusieurs médias et chercheurs surveillent de près. Le site Next a d'ailleurs développé une extension navigateur publique pour aider les internautes à identifier les sites générés par IA. La question qui se pose désormais aux régulateurs français et européens est claire : à quel moment la production automatisée de fausses informations cesse-t-elle d'être un bug éditorial pour devenir une faute journalistique engageant la responsabilité de l'éditeur ?
Reworld Media, premier groupe média thématique français gérant plus de 80 sites, a diffusé massivement de fausses informations générées par IA, posant aux régulateurs français et européens la question urgente de la responsabilité juridique des éditeurs automatisés.
C'est pas un bug, c'est le modèle. Quand tu construis une machine à produire du volume à bas coût, tu obtiens exactement ça : un conseil santé banal transformé en interdiction légale, repris en cascade par quinze sites qui se citent mutuellement sans jamais remonter à la source. La vraie question n'est pas technique, elle est juridique, et Reworld va finir par s'y brûler.


