Aller au contenu principal
Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA
ÉthiqueLe Big Data1h

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA

1 source couvre ce sujet·Source originale ↗·

Meta surveille les habitudes informatiques de ses employés pour entraîner son futur agent IA. Selon des notes internes révélées par Reuters, l'entreprise a déployé un logiciel de suivi intégré à certains outils professionnels internes, capable d'enregistrer les mouvements de souris, les clics, les frappes clavier et de capturer régulièrement des captures d'écran. Ces données sont collectées sur des applications internes et des sites web professionnels, avec pour objectif de documenter précisément comment les humains interagissent avec leur machine au quotidien. Un porte-parole de Meta confirme que ces informations servent à améliorer la capacité des agents IA à réaliser des tâches concrètes : naviguer dans des menus, cliquer sur des boutons, reproduire des séquences d'actions basiques mais essentielles. L'entreprise assure également que ces données ne seront pas utilisées pour évaluer la performance individuelle des salariés.

L'enjeu est considérable pour le développement des agents IA dits "computer use", capables d'opérer directement sur un ordinateur comme le ferait un humain. Les textes, images et vidéos disponibles sur internet sont déjà massivement exploités pour entraîner les grands modèles de langage, mais les données d'interaction réelle avec une interface restent rares et difficiles à obtenir à grande échelle. Des entreprises concurrentes ont recours à des environnements simulés pour générer ce type de données comportementales, une approche coûteuse et imparfaite. En mobilisant directement ses propres employés, Meta accède à des flux de comportements authentiques, dans des contextes de travail réels, ce qui représente un avantage compétitif significatif pour entraîner des agents performants sur des tâches professionnelles.

Cette initiative s'inscrit dans un contexte de pression croissante chez Meta autour de l'IA. L'entreprise, qui a massivement investi dans le développement de ses modèles Llama et de ses agents conversationnels, cherche à combler son retard sur des acteurs comme OpenAI ou Google dans le domaine des agents autonomes. En parallèle, Reuters rapporte que Meta envisage de fixer des objectifs d'usage de l'IA à certains de ses personnels, et réfléchirait à une réduction potentielle de ses effectifs mondiaux pouvant atteindre 10 %. La collecte de données sur les employés soulève néanmoins des questions éthiques sur le consentement et la surveillance au travail, même si Meta la présente comme une contribution collective au progrès technologique interne. La frontière entre outil d'entraînement et surveillance professionnelle reste floue, et cette démarche pourrait alimenter les débats réglementaires sur les droits des travailleurs à l'ère de l'IA.

Impact France/UE

Le RGPD encadre strictement la surveillance des salariés en Europe, rendant une pratique similaire juridiquement risquée pour toute entreprise opérant dans l'UE, et pourrait accélérer les débats législatifs sur les droits des travailleurs face à l'IA générative.

À lire aussi

Meta formerait des agents IA en surveillant les souris et claviers de ses employés
1Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source
Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube
2The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
☕️ OkCupid épinglé pour un transfert de photos d’utilisateurs vers une société d’IA
3Next INpact 

☕️ OkCupid épinglé pour un transfert de photos d’utilisateurs vers une société d’IA

En mars 2026, OkCupid et sa maison mère Match Group ont conclu un accord avec la Federal Trade Commission (FTC) américaine après la révélation que le site de rencontres avait transmis illégalement les données de ses utilisateurs à une société d'intelligence artificielle. Au cœur de l'affaire : 3 millions de photos d'utilisateurs, accompagnées de données démographiques et de géolocalisation, livrées à Clarifai, une entreprise spécialisée dans la reconnaissance faciale. Les faits remontent à 2014, lorsque Matthew Zeiler, fondateur de Clarifai, contactait Maxwell Khron, cofondateur d'OkCupid, pour obtenir un accès massif aux données du site, dont des dirigeants d'OkCupid étaient par ailleurs actionnaires. Ce transfert s'est effectué sans aucune restriction sur l'usage ultérieur des informations, sans notification aux utilisateurs et sans possibilité pour eux de s'y opposer. L'accord avec la FTC, finalisé fin mars 2026, oblige OkCupid et Match à ne plus induire en erreur leurs membres sur l'utilisation de leurs données personnelles, mais n'implique aucune sanction financière, la FTC ne disposant pas de ce pouvoir. Le scandale illustre une pratique qui touche directement des millions de personnes ayant confié leurs photos et informations intimes à une plateforme de rencontres, sans jamais imaginer que ces données alimenteraient des modèles de reconnaissance faciale commerciaux et militaires. Clarifai compte en effet parmi ses clients l'armée américaine, ce qui soulève des questions sérieuses sur l'usage final de ces données biométriques. L'absence totale de consentement, combinée à la violation explicite de la propre politique de confidentialité d'OkCupid, place cet accord dans la catégorie des manquements les plus graves aux droits des utilisateurs : non seulement les règles internes ont été bafouées, mais une loi fédérale interdisant les pratiques commerciales trompeuses l'a également été. L'enquête de la FTC, ouverte en 2019, aura mis cinq ans à aboutir à un règlement qui, pour beaucoup d'observateurs, reste insuffisant face à l'ampleur des faits. Clarifai, qui n'était pas formellement mise en cause dans la procédure, a affirmé avoir supprimé les données reçues d'OkCupid, mais seulement douze ans après les faits, et sans préciser combien de modèles avaient été entraînés sur ces données ni pendant combien de temps ils avaient été utilisés ou commercialisés. L'affaire s'inscrit dans un contexte plus large de monétisation opaque des données issues des applications de rencontres : des enquêtes parallèles ont révélé que des données similaires ont été revendues pour identifier des membres du clergé catholique. Match Group, qui opère également Tinder, Hinge et plusieurs autres plateformes, se retrouve ainsi au centre d'un débat croissant sur la gouvernance des données personnelles sensibles dans le secteur des applications de rencontres.

UELes utilisateurs français et européens de Tinder, Hinge et OkCupid (Match Group) sont concernés par des pratiques de partage de données biométriques similaires potentiellement contraires au RGPD, soulevant des questions sur la gouvernance des données sensibles par les plateformes de rencontres opérant en Europe.

ÉthiqueReglementation
1 source
Streaming : l’IA fait exploser l’offre et dilue d’autant les revenus des artistes
4FrenchWeb 

Streaming : l’IA fait exploser l’offre et dilue d’autant les revenus des artistes

Sur Deezer, 75 000 titres générés par intelligence artificielle sont désormais téléversés chaque jour, représentant près de 44 % de l'ensemble des nouveaux contenus mis en ligne sur la plateforme. Ce chiffre a été multiplié par sept en à peine plus d'un an, témoignant d'une accélération massive de la production musicale automatisée. Paradoxalement, ces titres ne concentrent qu'entre 1 % et 3 % des écoutes effectives, révélant un fossé considérable entre volume produit et audience réelle. Ce déséquilibre a des conséquences directes sur les revenus des artistes humains. Les modèles de rémunération des plateformes de streaming sont fondés sur une répartition proportionnelle des écoutes : chaque flux génère une fraction du revenu total, redistribuée selon la part d'audience de chaque titre. En inondant le catalogue de contenus peu écoutés, la musique IA dilue mécaniquement ce pool de revenus, sans pour autant capter une audience significative. Les artistes indépendants, dont les marges sont déjà ténues, sont les premiers touchés par cet effet de dilution. Ce phénomène s'inscrit dans une tension plus large entre plateformes, ayants droit et créateurs à l'ère de la génération automatisée. Des services comme Deezer, Spotify ou YouTube Music peinent à établir des règles claires sur l'indexation des contenus synthétiques, faute de cadre réglementaire adapté. Les sociétés de gestion collective et les syndicats d'artistes réclament des mécanismes de filtrage ou de séparation des pools de revenus, une bataille qui s'annonce centrale dans les négociations à venir avec les majors et les législateurs européens.

UEDeezer étant une plateforme française et les sociétés de gestion collective européennes réclamant des mécanismes de séparation des pools de revenus, la France et l'UE sont en première ligne de la bataille réglementaire sur la rémunération des artistes face au contenu musical généré par IA.

💬 44 % des nouveaux titres sur Deezer viennent de l'IA, pour 1 à 3 % des écoutes. Le problème, c'est pas l'audience, c'est la mécanique de rémunération : le pool se dilue quand même, les artistes humains paient la note sans que personne n'écoute vraiment ces tracks. Deezer est française, les sociétés de gestion collective sont sur le coup, et la bataille des pools séparés va être le vrai sujet des 18 prochains mois côté UE.

ÉthiqueReglementation
1 source