Aller au contenu principal
ÉthiqueThe Verge1sem

Meta surveille désormais l'activité informatique de ses employés pour entraîner ses agents IA

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :The Decoder

Meta installe en ce moment un outil de surveillance sur les ordinateurs de ses employés basés aux États-Unis, selon une information révélée par Reuters. L'outil, baptisé Model Capability Initiative (MCI), tourne en arrière-plan dans les applications et sites web liés au travail et enregistre les mouvements de souris, les clics, les frappes au clavier ainsi que des captures d'écran ponctuelles. L'objectif affiché par l'entreprise est d'utiliser ces données comportementales pour entraîner ses modèles d'intelligence artificielle à interagir avec les ordinateurs de la même façon que le font les humains au quotidien. Meta précise que les données collectées ne seront pas utilisées à des fins d'évaluation des performances des salariés.

Cette initiative s'inscrit dans la course aux agents IA capables d'automatiser des tâches informatiques complexes, remplir des formulaires, naviguer dans des interfaces, exécuter des workflows bureautiques. En capturant directement les gestes réels de travailleurs qualifiés, Meta cherche à constituer un jeu de données d'entraînement à haute valeur, bien plus représentatif que des données synthétiques. Pour les employés concernés, cela soulève des questions concrètes sur la frontière entre contribution au produit et surveillance au travail.

La démarche rappelle celle d'autres géants tech qui collectent des données humaines pour affiner leurs systèmes d'automatisation, comme Google ou Microsoft avec leurs outils Copilot. Meta, qui développe activement ses propres agents IA sous l'impulsion de Mark Zuckerberg, considère visiblement ses équipes internes comme un terrain d'entraînement privilégié. Le fait que le programme soit pour l'instant limité aux États-Unis suggère des contraintes légales en Europe, où le RGPD encadre strictement ce type de collecte en milieu professionnel.

Impact France/UE

Le RGPD protège directement les salariés européens de Meta contre ce type de surveillance systématique, ce qui explique que le programme soit pour l'instant limité aux États-Unis et soulève des questions sur la conformité des pratiques de collecte de données en milieu professionnel au sein de l'UE.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta formerait des agents IA en surveillant les souris et claviers de ses employés
1Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source
☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA
2Next INpact 

☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA

Meta a discrètement déployé un outil de surveillance baptisé Model Capability Initiative (MCI) sur les ordinateurs de ses employés, révèlent des mémos internes obtenus par Reuters. Concrètement, le dispositif enregistre l'intégralité des interactions des salariés avec leurs applications et sites web, mouvements de curseur, clics, frappes clavier, et effectue des captures d'écran à intervalles réguliers. L'entreprise précise que MCI n'a pas vocation à évaluer la productivité des employés ni à les surveiller au sens disciplinaire du terme, et affirme avoir mis en place des protections pour les "contenus sensibles", sans en détailler la nature. Andrew Bosworth, directeur technique du groupe, a exposé l'ambition derrière l'initiative dans un mémo interne : construire un environnement où les agents IA réalisent l'essentiel du travail pendant que les humains les dirigent, les évaluent et les corrigent. L'enjeu est précis : les modèles d'IA de Meta peinent à reproduire fidèlement les comportements humains face à un ordinateur, sélectionner une option dans un menu déroulant, enchaîner des raccourcis clavier, naviguer intuitivement entre applications. Ces lacunes limitent directement les capacités des agents IA qui prennent le contrôle d'un poste de travail à la place de l'utilisateur. En collectant des données comportementales réelles en conditions de travail, Meta espère combler ces angles morts et produire des agents capables, selon les mots de Bosworth, "d'identifier automatiquement les moments où nous avons ressenti le besoin d'intervenir, afin de faire mieux la fois suivante". C'est un pari industriel majeur : la course aux agents autonomes se joue désormais sur la qualité des données d'entraînement comportementales, et Meta entend utiliser ses propres effectifs comme terrain d'expérimentation. L'initiative se heurtera probablement à des obstacles juridiques significatifs en Europe. Le RGPD encadre strictement la collecte de données personnelles, y compris en contexte professionnel, et plusieurs législations nationales vont plus loin encore. En Italie, la surveillance électronique de la productivité des salariés est explicitement interdite. En France, si l'employeur peut accéder au matériel informatique mis à disposition des salariés, il doit préalablement informer les employés concernés et consulter les représentants du personnel, comité d'entreprise et comité social et économique. La CNIL a rappelé à plusieurs reprises que tout dispositif de surveillance doit être "strictement proportionné à l'objectif suivi" et ne peut servir à une surveillance permanente ; les keyloggers sont d'ailleurs explicitement cités parmi les outils prohibés. Meta devra donc adapter ou suspendre MCI dans plusieurs pays européens, sous peine de sanctions qui pourraient compromettre l'ensemble du programme.

UEMeta devra suspendre ou adapter son outil MCI en France et dans l'UE, où le RGPD, la CNIL (qui interdit explicitement les keyloggers) et le droit du travail français (consultation obligatoire du CSE) s'opposent à une surveillance permanente des salariés à des fins d'entraînement IA.

💬 Le problème des agents IA, c'est pas l'intelligence, c'est les micro-gestes : savoir qu'après ce menu tu fais Tab et pas clic, que ce champ se remplit dans tel ordre. Pour combler ça, Meta filme ses propres employés en permanence. Bon, sur le papier c'est du bon sens industriel, mais en Europe c'est un keylogger permanent sur du matériel pro, et la CNIL a été très claire là-dessus : non.

ÉthiqueReglementation
1 source
Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA
3Le Big Data 

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA

Meta surveille les habitudes informatiques de ses employés pour entraîner son futur agent IA. Selon des notes internes révélées par Reuters, l'entreprise a déployé un logiciel de suivi intégré à certains outils professionnels internes, capable d'enregistrer les mouvements de souris, les clics, les frappes clavier et de capturer régulièrement des captures d'écran. Ces données sont collectées sur des applications internes et des sites web professionnels, avec pour objectif de documenter précisément comment les humains interagissent avec leur machine au quotidien. Un porte-parole de Meta confirme que ces informations servent à améliorer la capacité des agents IA à réaliser des tâches concrètes : naviguer dans des menus, cliquer sur des boutons, reproduire des séquences d'actions basiques mais essentielles. L'entreprise assure également que ces données ne seront pas utilisées pour évaluer la performance individuelle des salariés. L'enjeu est considérable pour le développement des agents IA dits "computer use", capables d'opérer directement sur un ordinateur comme le ferait un humain. Les textes, images et vidéos disponibles sur internet sont déjà massivement exploités pour entraîner les grands modèles de langage, mais les données d'interaction réelle avec une interface restent rares et difficiles à obtenir à grande échelle. Des entreprises concurrentes ont recours à des environnements simulés pour générer ce type de données comportementales, une approche coûteuse et imparfaite. En mobilisant directement ses propres employés, Meta accède à des flux de comportements authentiques, dans des contextes de travail réels, ce qui représente un avantage compétitif significatif pour entraîner des agents performants sur des tâches professionnelles. Cette initiative s'inscrit dans un contexte de pression croissante chez Meta autour de l'IA. L'entreprise, qui a massivement investi dans le développement de ses modèles Llama et de ses agents conversationnels, cherche à combler son retard sur des acteurs comme OpenAI ou Google dans le domaine des agents autonomes. En parallèle, Reuters rapporte que Meta envisage de fixer des objectifs d'usage de l'IA à certains de ses personnels, et réfléchirait à une réduction potentielle de ses effectifs mondiaux pouvant atteindre 10 %. La collecte de données sur les employés soulève néanmoins des questions éthiques sur le consentement et la surveillance au travail, même si Meta la présente comme une contribution collective au progrès technologique interne. La frontière entre outil d'entraînement et surveillance professionnelle reste floue, et cette démarche pourrait alimenter les débats réglementaires sur les droits des travailleurs à l'ère de l'IA.

UELe RGPD encadre strictement la surveillance des salariés en Europe, rendant une pratique similaire juridiquement risquée pour toute entreprise opérant dans l'UE, et pourrait accélérer les débats législatifs sur les droits des travailleurs face à l'IA générative.

ÉthiqueActu
1 source
Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA
4The Verge 

Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA

Plus de 600 employés de Google ont signé une lettre adressée au PDG Sundar Pichai pour exiger que l'entreprise refuse d'autoriser le Pentagone à utiliser ses modèles d'intelligence artificielle à des fins militaires classifiées, selon le Washington Post. Les organisateurs de cette pétition affirment que les signataires incluent de nombreux membres du laboratoire DeepMind, ainsi que plus de vingt directeurs de haut rang, vice-présidents et responsables techniques. La lettre a été transmise en interne avant d'être relayée par la presse. Le texte de la pétition est sans ambiguïté : "La seule façon de garantir que Google ne soit pas associé à de tels préjudices est de rejeter tout contrat classifié." Les employés craignent que des usages militaires problématiques puissent se produire sans leur connaissance ni la possibilité d'intervenir. Pour eux, le secret entourant les contrats classifiés rend impossible tout contrôle éthique interne, ce qui représente un risque fondamental pour la réputation et les valeurs affichées de l'entreprise. Ce mouvement s'inscrit dans une longue tradition de résistance interne chez Google : en 2018, des milliers d'employés avaient forcé l'entreprise à abandonner le projet Maven, un contrat d'analyse d'images par IA pour l'armée américaine. Depuis, Google a néanmoins signé d'autres contrats de défense. Le sujet est d'autant plus brûlant qu'Anthropic est actuellement engagé dans un litige juridique avec le Pentagone autour d'un contrat similaire, illustrant les tensions croissantes entre la Silicon Valley et le complexe militaro-industriel américain.

UECe mouvement de protestation interne illustre les tensions éthiques sur l'usage militaire de l'IA, un débat que l'Europe devra trancher dans le cadre de l'AI Act et de sa politique de défense commune émergente.

ÉthiqueActu
1 source