Aller au contenu principal
L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée
ÉthiqueNext INpact6j

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

1 source couvre ce sujet·Source originale ↗·

Google expérimente actuellement aux États-Unis une fonctionnalité qui réécrit automatiquement, via intelligence artificielle générative, les titres des articles et pages web apparaissant dans ses résultats de recherche. C'est The Verge qui a révélé l'existence de ce test après avoir constaté que plusieurs de ses propres articles affichaient dans Google des titres que sa rédaction n'avait jamais rédigés. Un article intitulé « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » s'est ainsi retrouvé réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement entendre que The Verge en ferait la promotion. Interrogés, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à plus grande échelle. Selon leurs explications, l'objectif est d'identifier sur une page le contenu susceptible de constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné.

Le problème central est que cette réécriture algorithmique se fait sans aucune indication visible pour l'internaute, et produit parfois des titres qui trahissent le sens original, voire le contredisent. Pour les éditeurs et médias, l'enjeu est considérable : leurs titres, soigneusement formulés pour refléter leur ligne éditoriale, peuvent être remplacés par une version déformée sans leur consentement ni même leur information. The Verge dénonce une atteinte directe à sa capacité à promouvoir son propre travail de manière honnête, soulignant que sa rédaction investit précisément du temps pour éviter le clickbait, une démarche que Google semble court-circuiter en imposant ses propres formulations. Mallory De Leon a certes précisé qu'un éventuel produit final n'utiliserait pas d'IA générative, sans expliquer comment Google envisagerait alors de réécrire des titres autrement.

Cette révélation survient dans un contexte déjà tendu entre Google et les médias sur la question des contenus générés ou altérés par IA. The Verge avait documenté à deux reprises ces derniers mois des cas où l'algorithme de recommandation Discover de Google « hallucinait » des titres racoleurs et erronés pour ses articles. La pratique de réécriture des titres n'est pas entièrement nouvelle, Google ajuste les titres affichés dans ses résultats depuis des années via des règles heuristiques, mais le recours à l'IA générative représente un saut qualitatif dans la capacité de déformation du message original. Si ce test devait être généralisé, il soulèverait des questions fondamentales sur le contrôle éditorial à l'ère des moteurs de recherche pilotés par IA, et potentiellement des recours juridiques de la part d'éditeurs dont la réputation pourrait être affectée par des titres qu'ils n'ont pas écrits.

Impact France/UE

Les éditeurs et médias français pourraient invoquer la directive européenne sur les droits voisins pour contester cette réécriture non consentie de leurs titres dans les résultats de recherche Google.

À lire aussi

Claude Desktop s’arroge le droit de pré-autoriser ses extensions pour navigateurs
1Next INpact 

Claude Desktop s’arroge le droit de pré-autoriser ses extensions pour navigateurs

Lors de l'installation de Claude Desktop, le logiciel d'Anthropic crée automatiquement sur la machine hôte un fichier de configuration baptisé com.anthropic.claudebrowserextension.json, présent dans les dossiers système des navigateurs web installés. Ce manifeste, découvert fortuitement le 18 avril par Alexander Hanff, consultant spécialisé dans la vie privée en ligne, contient les identifiants de trois extensions Chrome, dont certaines absentes de la machine, et les déclare comme sources autorisées à communiquer avec l'application locale. La découverte a été relayée par The Register le 20 avril, puis vérifiée de façon indépendante sur macOS et Windows 11 : dans les deux cas, le fichier apparaît dès le premier lancement, sans que l'utilisateur en soit explicitement informé. Sur Windows, l'installation génère en outre de nouvelles clés de registre et dépose un exécutable chrome-native-host.exe, alors même qu'aucune extension Anthropic n'a jamais été installée. Ce comportement soulève des questions légitimes de consentement et de sécurité. Anthropic demande bien aux utilisateurs d'accepter ses conditions d'utilisation, et affiche un écran de gestion des cookies au premier lancement, mais nulle part il n'est fait mention explicite de la création de ces autorisations au niveau des navigateurs. Pour un consultant en vie privée, l'absence de transparence sur ce mécanisme constitue un manquement, quel que soit l'objectif déclaré. En termes de surface d'attaque, un pont permanent entre une application desktop et des extensions de navigateur représente un vecteur potentiel si l'une des extensions référencées venait à être compromise ou si le fichier de configuration était modifié par un tiers malveillant. Le mécanisme en jeu, dit "Native Messaging", est en réalité une fonctionnalité standard des navigateurs modernes : il permet à une application installée en local de communiquer avec une extension web via un canal dédié, sans passer par internet. C'est exactement ainsi que fonctionnent la plupart des gestionnaires de mots de passe, qui font le lien entre leur coffre-fort local et leurs extensions de remplissage automatique. La pratique n'est donc pas anormale en elle-même, mais l'absence d'information explicite lors de l'installation place Anthropic en porte-à-faux vis-à-vis des attentes de transparence qui entourent les logiciels manipulant des données sensibles. La découverte intervient dans un contexte où le modèle économique d'Anthropic repose sur la confiance des utilisateurs, et où la firme a déjà subi des critiques pour ses pratiques de vérification d'identité. Une clarification publique sur la finalité précise de ce manifeste et une mention explicite dans le processus d'installation sembleraient être le minimum attendu.

UECe comportement non documenté lors de l'installation pourrait constituer un manquement au RGPD en matière d'information préalable des utilisateurs, exposant Anthropic à un examen des autorités de protection des données européennes.

ÉthiqueOpinion
1 source
☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA
2Next INpact 

☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA

Meta a discrètement déployé un outil de surveillance baptisé Model Capability Initiative (MCI) sur les ordinateurs de ses employés, révèlent des mémos internes obtenus par Reuters. Concrètement, le dispositif enregistre l'intégralité des interactions des salariés avec leurs applications et sites web, mouvements de curseur, clics, frappes clavier, et effectue des captures d'écran à intervalles réguliers. L'entreprise précise que MCI n'a pas vocation à évaluer la productivité des employés ni à les surveiller au sens disciplinaire du terme, et affirme avoir mis en place des protections pour les "contenus sensibles", sans en détailler la nature. Andrew Bosworth, directeur technique du groupe, a exposé l'ambition derrière l'initiative dans un mémo interne : construire un environnement où les agents IA réalisent l'essentiel du travail pendant que les humains les dirigent, les évaluent et les corrigent. L'enjeu est précis : les modèles d'IA de Meta peinent à reproduire fidèlement les comportements humains face à un ordinateur, sélectionner une option dans un menu déroulant, enchaîner des raccourcis clavier, naviguer intuitivement entre applications. Ces lacunes limitent directement les capacités des agents IA qui prennent le contrôle d'un poste de travail à la place de l'utilisateur. En collectant des données comportementales réelles en conditions de travail, Meta espère combler ces angles morts et produire des agents capables, selon les mots de Bosworth, "d'identifier automatiquement les moments où nous avons ressenti le besoin d'intervenir, afin de faire mieux la fois suivante". C'est un pari industriel majeur : la course aux agents autonomes se joue désormais sur la qualité des données d'entraînement comportementales, et Meta entend utiliser ses propres effectifs comme terrain d'expérimentation. L'initiative se heurtera probablement à des obstacles juridiques significatifs en Europe. Le RGPD encadre strictement la collecte de données personnelles, y compris en contexte professionnel, et plusieurs législations nationales vont plus loin encore. En Italie, la surveillance électronique de la productivité des salariés est explicitement interdite. En France, si l'employeur peut accéder au matériel informatique mis à disposition des salariés, il doit préalablement informer les employés concernés et consulter les représentants du personnel, comité d'entreprise et comité social et économique. La CNIL a rappelé à plusieurs reprises que tout dispositif de surveillance doit être "strictement proportionné à l'objectif suivi" et ne peut servir à une surveillance permanente ; les keyloggers sont d'ailleurs explicitement cités parmi les outils prohibés. Meta devra donc adapter ou suspendre MCI dans plusieurs pays européens, sous peine de sanctions qui pourraient compromettre l'ensemble du programme.

UEMeta devra suspendre ou adapter son outil MCI en France et dans l'UE, où le RGPD, la CNIL (qui interdit explicitement les keyloggers) et le droit du travail français (consultation obligatoire du CSE) s'opposent à une surveillance permanente des salariés à des fins d'entraînement IA.

💬 Le problème des agents IA, c'est pas l'intelligence, c'est les micro-gestes : savoir qu'après ce menu tu fais Tab et pas clic, que ce champ se remplit dans tel ordre. Pour combler ça, Meta filme ses propres employés en permanence. Bon, sur le papier c'est du bon sens industriel, mais en Europe c'est un keylogger permanent sur du matériel pro, et la CNIL a été très claire là-dessus : non.

ÉthiqueReglementation
1 source
Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA
3Le Big Data 

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA

Meta surveille les habitudes informatiques de ses employés pour entraîner son futur agent IA. Selon des notes internes révélées par Reuters, l'entreprise a déployé un logiciel de suivi intégré à certains outils professionnels internes, capable d'enregistrer les mouvements de souris, les clics, les frappes clavier et de capturer régulièrement des captures d'écran. Ces données sont collectées sur des applications internes et des sites web professionnels, avec pour objectif de documenter précisément comment les humains interagissent avec leur machine au quotidien. Un porte-parole de Meta confirme que ces informations servent à améliorer la capacité des agents IA à réaliser des tâches concrètes : naviguer dans des menus, cliquer sur des boutons, reproduire des séquences d'actions basiques mais essentielles. L'entreprise assure également que ces données ne seront pas utilisées pour évaluer la performance individuelle des salariés. L'enjeu est considérable pour le développement des agents IA dits "computer use", capables d'opérer directement sur un ordinateur comme le ferait un humain. Les textes, images et vidéos disponibles sur internet sont déjà massivement exploités pour entraîner les grands modèles de langage, mais les données d'interaction réelle avec une interface restent rares et difficiles à obtenir à grande échelle. Des entreprises concurrentes ont recours à des environnements simulés pour générer ce type de données comportementales, une approche coûteuse et imparfaite. En mobilisant directement ses propres employés, Meta accède à des flux de comportements authentiques, dans des contextes de travail réels, ce qui représente un avantage compétitif significatif pour entraîner des agents performants sur des tâches professionnelles. Cette initiative s'inscrit dans un contexte de pression croissante chez Meta autour de l'IA. L'entreprise, qui a massivement investi dans le développement de ses modèles Llama et de ses agents conversationnels, cherche à combler son retard sur des acteurs comme OpenAI ou Google dans le domaine des agents autonomes. En parallèle, Reuters rapporte que Meta envisage de fixer des objectifs d'usage de l'IA à certains de ses personnels, et réfléchirait à une réduction potentielle de ses effectifs mondiaux pouvant atteindre 10 %. La collecte de données sur les employés soulève néanmoins des questions éthiques sur le consentement et la surveillance au travail, même si Meta la présente comme une contribution collective au progrès technologique interne. La frontière entre outil d'entraînement et surveillance professionnelle reste floue, et cette démarche pourrait alimenter les débats réglementaires sur les droits des travailleurs à l'ère de l'IA.

UELe RGPD encadre strictement la surveillance des salariés en Europe, rendant une pratique similaire juridiquement risquée pour toute entreprise opérant dans l'UE, et pourrait accélérer les débats législatifs sur les droits des travailleurs face à l'IA générative.

ÉthiqueActu
1 source
Meta formerait des agents IA en surveillant les souris et claviers de ses employés
4Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source