Aller au contenu principal
Scandale OpenAI : Ils ont créé des journalistes qui n’existent pas !
ÉthiqueLe Big Data2h

Scandale OpenAI : Ils ont créé des journalistes qui n’existent pas !

Résumé IASource uniqueImpact UE
Source originale ↗·

The Wire by Acutus, site d'information lancé le 29 décembre 2025, utilise des agents d'IA qui se présentent comme de vrais journalistes pour obtenir des citations d'experts humains. L'enquête, publiée par Model Republic via The Midas Project, révèle qu'aucun contributeur humain n'est identifiable sur le site, et que le détecteur Pangram estime à 97 % la proportion de contenus générés automatiquement. L'analyse du code source confirme un processus éditorial largement automatisé : sur cinq étapes de révision, une seule implique un humain, pour une durée moyenne de 44 secondes par article. Les enquêteurs ont retrouvé des champs destinés à alimenter l'IA en informations de base, des suggestions de questions d'interview, et un champ nommé « aiOriginalText » permettant de comparer le texte brut généré aux modifications apportées. L'affaire prend une dimension concrète avec Nathan Calvin, vice-président et conseiller juridique de l'association Encode : il a reçu un email d'un certain Michael Chen, se présentant comme journaliste pour Acutus et proposant un questionnaire sur une loi liée à l'IA au Tennessee. Ce journaliste n'existe nulle part en ligne, et l'adresse utilisée était le contact générique du site.

Ce cas franchit un seuil inédit par rapport aux fermes à contenus IA déjà documentées. Jusqu'ici, l'IA produisait des textes ; ici, elle contacte de vraies personnes en se faisant passer pour un journaliste, ce qui lui permet d'extraire des citations authentiques pour crédibiliser un contenu entièrement automatisé. Pour les experts sollicités, il est impossible de distinguer un agent IA d'un journaliste humain. Pour l'ensemble du secteur médiatique, cela signifie qu'un processus éditorial complet, de l'interview à la publication, peut désormais s'exécuter sans intervention humaine réelle en moins d'une minute. La dimension politique aggrave les risques : le site cible aussi des voix critiques envers l'IA. Le chercheur John Sherman, défenseur de la sécurité de l'IA, a fait l'objet d'un article à charge accompagné de prises de contact avec les organisations avec lesquelles il collabore.

Les liens entre The Wire by Acutus et OpenAI restent indirects mais troublants. Plusieurs articles du site ont été relayés par Patrick Hynes, figure des relations publiques proche du Parti républicain, dont le réseau se connecte à des structures liées à d'importants financements autour de l'IA, certains impliquant des personnalités associées à OpenAI. Aucune implication directe n'est formellement établie, mais l'hypothèse avancée est sensible : ce type de plateforme pourrait servir à diffuser des positions favorables à l'IA sous couvert de journalisme indépendant. L'affaire survient au moment où OpenAI renforce sa présence dans les médias, ayant récemment racheté l'émission TPBN, très suivie dans la Silicon Valley. Elle relance une question urgente : en l'absence de cadre légal imposant la transparence sur l'origine des contenus, rien n'empêche des agents automatisés de mener des interviews et de publier des articles sans que ni les sources humaines ni les lecteurs ne le sachent.

Impact France/UE

L'AI Act européen impose la transparence sur les contenus générés par IA, ce qui rendrait de telles pratiques illicites en Europe, mais l'absence de mécanismes de vérification concrets expose les experts et médias européens à des risques identiques d'interviews menées par des agents automatisés se faisant passer pour des journalistes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA
1Next INpact 

☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA

Meta a discrètement déployé un outil de surveillance baptisé Model Capability Initiative (MCI) sur les ordinateurs de ses employés, révèlent des mémos internes obtenus par Reuters. Concrètement, le dispositif enregistre l'intégralité des interactions des salariés avec leurs applications et sites web, mouvements de curseur, clics, frappes clavier, et effectue des captures d'écran à intervalles réguliers. L'entreprise précise que MCI n'a pas vocation à évaluer la productivité des employés ni à les surveiller au sens disciplinaire du terme, et affirme avoir mis en place des protections pour les "contenus sensibles", sans en détailler la nature. Andrew Bosworth, directeur technique du groupe, a exposé l'ambition derrière l'initiative dans un mémo interne : construire un environnement où les agents IA réalisent l'essentiel du travail pendant que les humains les dirigent, les évaluent et les corrigent. L'enjeu est précis : les modèles d'IA de Meta peinent à reproduire fidèlement les comportements humains face à un ordinateur, sélectionner une option dans un menu déroulant, enchaîner des raccourcis clavier, naviguer intuitivement entre applications. Ces lacunes limitent directement les capacités des agents IA qui prennent le contrôle d'un poste de travail à la place de l'utilisateur. En collectant des données comportementales réelles en conditions de travail, Meta espère combler ces angles morts et produire des agents capables, selon les mots de Bosworth, "d'identifier automatiquement les moments où nous avons ressenti le besoin d'intervenir, afin de faire mieux la fois suivante". C'est un pari industriel majeur : la course aux agents autonomes se joue désormais sur la qualité des données d'entraînement comportementales, et Meta entend utiliser ses propres effectifs comme terrain d'expérimentation. L'initiative se heurtera probablement à des obstacles juridiques significatifs en Europe. Le RGPD encadre strictement la collecte de données personnelles, y compris en contexte professionnel, et plusieurs législations nationales vont plus loin encore. En Italie, la surveillance électronique de la productivité des salariés est explicitement interdite. En France, si l'employeur peut accéder au matériel informatique mis à disposition des salariés, il doit préalablement informer les employés concernés et consulter les représentants du personnel, comité d'entreprise et comité social et économique. La CNIL a rappelé à plusieurs reprises que tout dispositif de surveillance doit être "strictement proportionné à l'objectif suivi" et ne peut servir à une surveillance permanente ; les keyloggers sont d'ailleurs explicitement cités parmi les outils prohibés. Meta devra donc adapter ou suspendre MCI dans plusieurs pays européens, sous peine de sanctions qui pourraient compromettre l'ensemble du programme.

UEMeta devra suspendre ou adapter son outil MCI en France et dans l'UE, où le RGPD, la CNIL (qui interdit explicitement les keyloggers) et le droit du travail français (consultation obligatoire du CSE) s'opposent à une surveillance permanente des salariés à des fins d'entraînement IA.

💬 Le problème des agents IA, c'est pas l'intelligence, c'est les micro-gestes : savoir qu'après ce menu tu fais Tab et pas clic, que ce champ se remplit dans tel ordre. Pour combler ça, Meta filme ses propres employés en permanence. Bon, sur le papier c'est du bon sens industriel, mais en Europe c'est un keylogger permanent sur du matériel pro, et la CNIL a été très claire là-dessus : non.

ÉthiqueReglementation
1 source
L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA
2The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source
Claude Desktop s’arroge le droit de pré-autoriser ses extensions pour navigateurs
3Next INpact 

Claude Desktop s’arroge le droit de pré-autoriser ses extensions pour navigateurs

Lors de l'installation de Claude Desktop, le logiciel d'Anthropic crée automatiquement sur la machine hôte un fichier de configuration baptisé com.anthropic.claudebrowserextension.json, présent dans les dossiers système des navigateurs web installés. Ce manifeste, découvert fortuitement le 18 avril par Alexander Hanff, consultant spécialisé dans la vie privée en ligne, contient les identifiants de trois extensions Chrome, dont certaines absentes de la machine, et les déclare comme sources autorisées à communiquer avec l'application locale. La découverte a été relayée par The Register le 20 avril, puis vérifiée de façon indépendante sur macOS et Windows 11 : dans les deux cas, le fichier apparaît dès le premier lancement, sans que l'utilisateur en soit explicitement informé. Sur Windows, l'installation génère en outre de nouvelles clés de registre et dépose un exécutable chrome-native-host.exe, alors même qu'aucune extension Anthropic n'a jamais été installée. Ce comportement soulève des questions légitimes de consentement et de sécurité. Anthropic demande bien aux utilisateurs d'accepter ses conditions d'utilisation, et affiche un écran de gestion des cookies au premier lancement, mais nulle part il n'est fait mention explicite de la création de ces autorisations au niveau des navigateurs. Pour un consultant en vie privée, l'absence de transparence sur ce mécanisme constitue un manquement, quel que soit l'objectif déclaré. En termes de surface d'attaque, un pont permanent entre une application desktop et des extensions de navigateur représente un vecteur potentiel si l'une des extensions référencées venait à être compromise ou si le fichier de configuration était modifié par un tiers malveillant. Le mécanisme en jeu, dit "Native Messaging", est en réalité une fonctionnalité standard des navigateurs modernes : il permet à une application installée en local de communiquer avec une extension web via un canal dédié, sans passer par internet. C'est exactement ainsi que fonctionnent la plupart des gestionnaires de mots de passe, qui font le lien entre leur coffre-fort local et leurs extensions de remplissage automatique. La pratique n'est donc pas anormale en elle-même, mais l'absence d'information explicite lors de l'installation place Anthropic en porte-à-faux vis-à-vis des attentes de transparence qui entourent les logiciels manipulant des données sensibles. La découverte intervient dans un contexte où le modèle économique d'Anthropic repose sur la confiance des utilisateurs, et où la firme a déjà subi des critiques pour ses pratiques de vérification d'identité. Une clarification publique sur la finalité précise de ce manifeste et une mention explicite dans le processus d'installation sembleraient être le minimum attendu.

UECe comportement non documenté lors de l'installation pourrait constituer un manquement au RGPD en matière d'information préalable des utilisateurs, exposant Anthropic à un examen des autorités de protection des données européennes.

ÉthiqueOpinion
1 source
Les lieux où la technologie d'OpenAI pourrait se manifester en Iran
4MIT Technology Review 

Les lieux où la technologie d'OpenAI pourrait se manifester en Iran

OpenAI a récemment conclu un accord controversé avec le Pentagone autorisant l'utilisation de sa technologie AI dans des environnements classifiés. Bien que Sam Altman affirme que l'armée ne peut pas utiliser la technologie pour développer des armes autonomes, l'accord semble plutôt exiger que le Pentagone respecte ses propres règles relativement permissives sur ces sujets. L'engagement d'OpenAI de prévenir l'utilisation de sa technologie pour la surveillance interne semble peu credible. Il est incertain quels sont les objectifs d'OpenAI, mais ils cherchent probablement à maximiser leurs ressources financières alors qu'ils dépensent beaucoup en formation d'IA et recherchent de nouvelles sources de revenus. Une question plus importante est l'avenir : OpenAI semble prêt à opérer dans un contexte militaire tendu, y compris pendant les frappes américaines contre l'Iran où l'IA joue un rôle croissant. Les applications potentielles incluent la priorisation de cibles par des modèles AI analyseant diverses informations textuelles, visuelles et vidéo, pour une validation finale humaine. Cependant, cela soulève des préoccupations sur l'efficacité et les risques d'une telle dépendance à l'IA dans des contextes militaires critiques.

UELe déploiement de l'IA d'OpenAI dans des contextes militaires classifiés renforce les débats européens sur l'encadrement de l'IA dans la défense, notamment dans le cadre du règlement IA de l'UE qui exclut certaines applications militaires de son périmètre.

ÉthiqueOpinion
1 source