Aller au contenu principal
Vidéo : deux robots de Figure AI coopèrent seuls pour nettoyer une chambre
RobotiqueLe Big Data7h

Vidéo : deux robots de Figure AI coopèrent seuls pour nettoyer une chambre

Résumé IASource uniqueImpact UE
Source originale ↗·

Figure AI a publié le 8 mai 2026 une vidéo montrant deux de ses robots humanoïdes F.03 nettoyer une chambre et refaire un lit en moins de deux minutes, de manière entièrement autonome. Les deux machines ouvrent une porte, déplacent une chaise de bureau, rangent un casque audio, ferment un livre, puis s'attaquent ensemble à la confection du lit: elles saisissent la couette, la déplient et la lissent de façon synchronisée. Le tout est piloté par Helix-02, le système d'intelligence artificielle maison développé par Figure AI pour contrôler ses humanoïdes. L'entreprise affirme que c'est la première fois qu'un unique réseau neuronal gouverne plusieurs robots humanoïdes coopérant sur une tâche complexe, en combinant perception visuelle, locomotion et manipulation fine dans une seule architecture.

Ce qui distingue cette démonstration des précédentes, c'est l'absence de chef d'orchestre centralisé entre les deux robots. Chacun analyse la scène via ses propres caméras et interprète les intentions de l'autre uniquement en observant ses mouvements, sans communication directe. Ils fonctionnent comme deux humains qui tendraient une housse de couette sans se concerter verbalement. Le moment le plus significatif techniquement reste la manipulation de la couette: un tissu souple change constamment de forme, ce qui oblige chaque robot à recalculer ses actions en temps réel à chaque geste de son partenaire. C'est un problème de robotique notoirement difficile, très différent de la manipulation d'objets rigides comme des boîtes ou des outils.

Figure AI s'inscrit dans une course industrielle intense autour des robots humanoïdes destinés aux environnements domestiques et professionnels, un marché que convoitent aussi Tesla avec Optimus, Boston Dynamics, Agility Robotics ou encore 1X. La coopération multi-robot représente une étape charnière: un seul humanoïde ne suffit pas pour de nombreuses tâches du monde réel qui nécessitent deux paires de mains. Cependant, la prudence reste de mise face à ce type de démonstration. La pièce est soigneusement préparée avant l'exercice, les objets placés de façon optimale, et aucun élément imprévu ne vient perturber les robots pendant l'opération. La distance entre un environnement de démo contrôlé et un appartement ordinaire avec ses câbles, ses animaux de compagnie et son désordre quotidien reste considérable. Les progrès sont néanmoins réels et s'accélèrent: la question n'est plus de savoir si les humanoïdes atteindront ce niveau d'autonomie en conditions réelles, mais à quelle échéance.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

C’est incroyable ! Figure AI passe à 55 robots en une semaine (et ça inquiète)
1Le Big Data 

C’est incroyable ! Figure AI passe à 55 robots en une semaine (et ça inquiète)

Figure AI vient de franchir un cap industriel majeur dans la robotique humanoïde. En seulement 120 jours, la startup californienne a multiplié par 24 sa cadence de production sur son site BotQ, passant d'un robot par jour à un robot par heure, soit 55 unités sur la semaine du 29 avril 2026. Cette montée en puissance repose sur une chaîne de fabrication entièrement repensée : plus de 150 postes de travail connectés, un logiciel maison pilotant chaque étape, plus de 50 points de contrôle qualité, et plus de 80 tests fonctionnels par unité avant validation. Les robots subissent des cycles intensifs de squats, de jogging et de mouvements répétés pour simuler les conditions réelles dès la sortie de ligne. Les résultats sont saisissants : un rendement supérieur à 80 % dès la première sortie, un taux de réussite de 99,3 % sur les batteries, et plus de 9 000 actionneurs déjà produits. Cette accélération industrielle dépasse la simple performance logistique. Chaque robot déployé devient un capteur de données qui alimente Helix, le système d'intelligence artificielle maison de Figure AI. Plus la flotte s'agrandit, plus l'IA apprend vite, et plus les robots gagnent en autonomie réelle. Les nouvelles capacités s'appuient sur une approche dite de contrôle corporel complet guidé par la perception : équipés de caméras embarquées, les robots reconstruisent une vision 3D de leur environnement et anticipent leurs mouvements, que ce soit pour monter des escaliers, traverser des surfaces irrégulières ou s'adapter à des situations imprévues sans assistance humaine. Figure AI a également développé une infrastructure de gestion de flotte incluant diagnostic en temps réel, maintenance à distance et mises à jour simultanées sur l'ensemble des unités déployées. Figure AI s'inscrit dans une course industrielle qui oppose désormais plusieurs géants et startups bien financées sur un même terrain : la capacité à produire des humanoïdes en série et à les rendre opérationnels à grande échelle. Tesla, avec son robot Optimus, et Boston Dynamics font figure de concurrents directs, mais la vraie bataille se joue aujourd'hui sur les données réelles accumulées en déploiement. Celui qui dispose de la plus grande flotte apprenante accumule un avantage compétitif difficile à rattraper. Figure AI, soutenue par des investisseurs majeurs de la Silicon Valley et des partenariats industriels actifs notamment avec BMW, mise sur cette logique de flywheel : plus de robots, plus de données, de meilleures décisions, encore plus de robots. La question qui reste ouverte est celle de la vitesse à laquelle ces humanoïdes vont effectivement remplacer de la main-d'oeuvre dans des environnements industriels réels, une perspective qui fascine autant qu'elle inquiète.

UELe partenariat actif de Figure AI avec BMW expose directement le tissu industriel européen à la robotique humanoïde en série, avec des implications concrètes sur l'emploi dans les usines du continent.

RobotiqueOpinion
1 source
Vidéo : Edward le robot prend en chasse une meute de sangliers dans Varsovie !
2Le Big Data 

Vidéo : Edward le robot prend en chasse une meute de sangliers dans Varsovie !

Le 12 avril 2026, les habitants d'un parking de Varsovie ont assisté à une scène inattendue : un robot humanoïde poursuivant un groupe de sangliers pour les repousser vers la forêt. Le robot en question s'appelle Edward, et il s'agit d'un Unitree G1, modèle conçu pour évoluer dans des environnements urbains complexes. Mesurant 1,32 mètre, équipé d'un sac à dos et capable de se déplacer sur différents types de terrains, Edward a avancé calmement vers les animaux, les suivant sur plusieurs mètres sans geste brusque ni contact direct, jusqu'à ce qu'ils quittent la zone. La vidéo de l'intervention a rapidement circulé sur les réseaux sociaux, cumulant des millions de vues en quelques heures sur TikTok, Instagram et X, où Edward dépasse déjà les 500 millions de vues au total. Cette opération illustre une approche radicalement différente de la gestion de la faune urbaine. Les sangliers représentent un problème récurrent dans plusieurs quartiers de Varsovie : ils fouillent les poubelles, effraient les passants et créent des nuisances durables. Les méthodes traditionnelles, fondées sur la chasse ou les pièges, divisent régulièrement l'opinion publique et engendrent des tensions. Le robot propose une troisième voie : éloigner les animaux sans violence, sans risque pour les agents municipaux, et sans confrontation directe. L'approche séduit car elle combine efficacité opérationnelle et acceptabilité sociale, deux critères que les villes cherchent de plus en plus à concilier dans la gestion de leurs espaces publics. Edward n'est pas un prototype improvisé. Le robot a suivi un entraînement spécifique en Chine fin 2025, et son logiciel pilote ses déplacements en temps réel selon les contraintes du terrain. À Varsovie, il est devenu une figure publique à part entière : il discute avec des passants, est apparu à la télévision et s'est rendu au Parlement polonais, incarnant une forme nouvelle de robot à la fois fonctionnel et influenceur. La Pologne s'impose ainsi comme un terrain d'expérimentation sérieux pour l'usage civil de la robotique humanoïde en milieu urbain. Reste une question ouverte que cette séquence virale pose avec acuité : à mesure que ces robots gagnent en autonomie et en visibilité, comment les sociétés vont-elles définir leur rôle légitime dans l'espace public, et jusqu'où peut aller leur déploiement sans encadrement réglementaire clair ?

UELa Pologne expérimente le déploiement civil de robots humanoïdes en milieu urbain, soulevant des questions concrètes sur l'encadrement réglementaire européen de la robotique autonome dans l'espace public, un enjeu directement couvert par l'AI Act.

RobotiqueOpinion
1 source
Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage
3Le Big Data 

Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage

Des chercheurs du Korea Advanced Institute of Science and Technology (KAIST) ont présenté DreamWaQ++, un système de contrôle pour robots quadrupèdes qui combine caméras, LiDAR et capteurs embarqués pour analyser le terrain en temps réel et adapter chaque pas avant tout contact avec le sol. Lors des tests, le robot a grimpé un escalier de 50 marches en 35 secondes, couvrant plus de 30 mètres à l'horizontale et 7 mètres de dénivelé. Il a également négocié des pentes à 35 degrés, bien au-delà de ce qu'il avait rencontré durant son entraînement, et franchi des obstacles plus hauts que lui tout en portant une charge supplémentaire, le tout en sollicitant moins ses moteurs. Le système repose sur un apprentissage par renforcement capable de fusionner plusieurs flux de données simultanément sans surcharge de calcul, et peut basculer d'un mode de détection à un autre en cas de défaillance d'un capteur. Ce qui change fondamentalement avec DreamWaQ++, c'est le passage d'une locomotion réactive à une locomotion anticipatoire. Les robots quadrupèdes antérieurs s'appuyaient exclusivement sur des capteurs proprioceptifs, codeurs articulaires, centrales inertielles, et ne détectaient un obstacle qu'au moment du contact physique. DreamWaQ++ perçoit l'environnement avant de l'atteindre, analyse la géométrie du sol et recalcule la trajectoire immédiatement, sans planificateur externe. Le robot choisit lui-même son chemin, s'arrête parfois quelques instants pour observer, puis repart : un comportement qui évoque directement celui d'un animal en milieu inconnu. Cette autonomie de décision réduit les risques de chute dans des contextes où une intervention humaine est difficile ou dangereuse. Les applications visées par l'équipe de KAIST couvrent l'inspection industrielle, l'agriculture, la foresterie et les interventions d'urgence en zones sinistrées, autant de secteurs où la mobilité en terrain non structuré est aujourd'hui un verrou technologique. La robotique quadrupède a connu une accélération notable ces dernières années, portée par des acteurs comme Boston Dynamics et ses concurrents chinois tels qu'Unitree, mais la capacité à généraliser au-delà des situations d'entraînement reste un défi central. DreamWaQ++ s'inscrit dans une tendance plus large qui consiste à intégrer la perception extéroceptive profonde dans la boucle de contrôle bas niveau, réduisant la dépendance à la cartographie préalable. L'équipe envisage d'étendre l'approche à d'autres morphologies de robots, bipèdes et à roues inclus, ce qui pourrait accélérer le déploiement de machines autonomes dans des environnements réels non balisés.

RobotiqueActu
1 source
Genie Sim 3.0 : une plateforme de simulation haute fidélité pour robots humanoïdes
4arXiv cs.RO 

Genie Sim 3.0 : une plateforme de simulation haute fidélité pour robots humanoïdes

AgibotTech a publié Genie Sim 3.0, une plateforme de simulation unifiée destinée à l'apprentissage de la manipulation robotique. Son composant central, le Genie Sim Generator, utilise un grand modèle de langage (LLM) pour construire automatiquement des environnements 3D haute fidélité à partir de simples instructions en langage naturel. La plateforme intègre également le premier benchmark de robotique dont l'évaluation est entièrement automatisée par LLM : il génère en masse des scénarios de test, puis s'appuie sur un modèle vision-langage (VLM) pour noter les performances des robots sans intervention humaine. AgibotTech publie simultanément un jeu de données open source de plus de 10 000 heures de données synthétiques couvrant plus de 200 tâches distinctes, accessible sur GitHub. L'enjeu central est le fossé entre simulation et monde réel, le fameux problème du "sim-to-real transfer", qui freine depuis des années le déploiement à grande échelle des robots apprenants. Collecter des données dans le monde physique coûte extrêmement cher et se heurte à des contraintes de passage à l'échelle quasi insurmontables. Genie Sim 3.0 démontre expérimentalement que ses données synthétiques permettent un transfert "zéro-shot" vers le monde réel, c'est-à-dire que des politiques de contrôle entraînées uniquement en simulation fonctionnent directement sur des robots physiques, sans phase d'adaptation supplémentaire. Pour les laboratoires de robotique et les startups du secteur, cela ouvre la possibilité de produire des volumes de données d'entraînement plusieurs ordres de grandeur supérieurs à ce qu'autorise la réalité physique, à une fraction du coût. Cette publication s'inscrit dans une course mondiale à la robotique humanoïde impliquant des acteurs comme Figure AI, Physical Intelligence, Boston Dynamics ou encore Tesla avec Optimus. L'un des goulots d'étranglement communs à tous est précisément la rareté des données d'entraînement de qualité et la fragmentation des benchmarks, chaque laboratoire travaillant dans son propre silo de simulation. En proposant une plateforme ouverte, un dataset massif et une procédure d'évaluation standardisée et automatisée, AgibotTech tente de poser une infrastructure commune au champ. La prochaine étape sera de vérifier si ce transfert zéro-shot tient dans des conditions moins contrôlées, avec des objets, des éclairages et des configurations inédits.

UELes laboratoires de robotique et startups européens peuvent accéder librement aux 10 000 heures de données synthétiques sur GitHub pour accélérer leurs recherches sur le transfert sim-to-réel, sans avoir à produire ces données coûteusement en conditions réelles.

💬 Le fossé sim-to-real, c'est le mur sur lequel tous les labos de robotique se cognent depuis des années. Que des données purement synthétiques suffisent à piloter du vrai métal sans phase d'adaptation, c'est la promesse qu'on attendait vraiment. Reste à voir si ça tient avec des objets imprévus, un mauvais éclairage, le vrai bazar du monde réel.

RobotiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour