Les travailleurs à la tâche qui entraînent des robots humanoïdes à domicile
Zeus est étudiant en médecine au Nigeria. Chaque soir, après ses gardes à l'hôpital, il rentre dans son studio, fixe son iPhone sur son front à l'aide d'un bandeau, allume son ring light et enregistre ses mouvements — plier des draps, repasser des vêtements, faire la vaisselle. Il est l'un des milliers de travailleurs recrutés par Micro1, une entreprise américaine basée à Palo Alto, en Californie, qui collecte des données du monde réel pour les revendre à des fabricants de robots humanoïdes. Des géants comme Tesla, Figure AI et Agility Robotics sont en course pour construire des robots capables de se déplacer et d'agir comme des humains dans des usines ou des foyers, et les vidéos tournées par ces travailleurs à la tâche sont devenues l'une des ressources les plus convoitées pour les entraîner. Micro1 emploie des milliers de contractuels dans plus de 50 pays — Inde, Nigeria, Argentine — payés 15 dollars de l'heure, un salaire attractif dans des économies où le chômage des jeunes diplômés reste élevé. Des acteurs comme Scale AI, Encord ou encore DoorDash ont lancé leurs propres programmes similaires, tandis qu'en Chine, des centres d'entraînement étatiques équipent des opérateurs de casques VR et d'exosquelettes pour apprendre aux robots à ouvrir un micro-ondes ou essuyer une table.
L'enjeu est colossal : les investisseurs ont injecté plus de 6 milliards de dollars dans les robots humanoïdes en 2025, et les entreprises du secteur dépensent aujourd'hui plus de 100 millions de dollars par an pour acheter ces données de mouvement, selon Ali Ansari, PDG de Micro1. La raison est technique : manipuler des objets physiques reste un problème extraordinairement difficile pour un robot. Les simulations virtuelles permettent d'entraîner des mouvements acrobatiques, mais échouent à reproduire fidèlement la physique des interactions avec les objets. Seules des données réelles, captées dans de vrais environnements, semblent capables de combler ce manque. L'essor des grands modèles de langage — qui ont appris à produire du texte en ingérant des milliards de pages du web — a inspiré un changement de paradigme : si les LLM ont appris le langage par l'échelle, les robots pourraient apprendre le mouvement de la même façon, à condition d'accumuler suffisamment de vidéos humaines.
Ce modèle économique soulève pourtant des questions sérieuses. Les travailleurs, qui ont accepté de parler à MIT Technology Review sous pseudonyme faute d'autorisation explicite de leur employeur, s'interrogent sur ce qu'ils signent réellement : leurs données biométriques, leurs gestes captés chez eux, la topographie de leur intérieur — tout cela alimente des systèmes dont ils ignorent les usages précis. La question du consentement éclairé et de la vie privée reste en suspens, d'autant que la chaîne entre le gig worker nigérian et le robot d'usine déployé en Europe ou aux États-Unis est opaque. Zeus, lui, s'ennuie à repasser des chemises en boucle. Il espère devenir médecin. En attendant, il entraîne les robots qui, peut-être un jour, travailleront à sa place.
Les pratiques opaques de collecte de données biométriques et gestuelles décrites soulèvent des questions de conformité RGPD, notamment si ces systèmes entraînés alimentent des robots humanoïdes déployés sur le territoire européen.