Aller au contenu principal
Il y a 30 ans, les robots ont appris à marcher sans tomber
RobotiqueIEEE Spectrum AI6sem

Il y a 30 ans, les robots ont appris à marcher sans tomber

Résumé IASource uniqueImpact UE
Source originale ↗·

Il y a trente ans, Honda franchissait une étape fondatrice de la robotique mondiale : en 1996, son prototype P2 devenait le premier robot autonome capable de marcher sans tomber. Mesurant 183 centimètres et pesant 210 kilogrammes, P2 pouvait contrôler sa posture pour maintenir l'équilibre et coordonner plusieurs articulations simultanément — une prouesse inédite à l'époque. En reconnaissance de cet exploit, IEEE lui a décerné le statut de Milestone, avec une cérémonie prévue le 28 avril au Honda Collection Hall au Japon.

L'importance de cette avancée dépasse le simple exploit technique. Avant P2, aucun robot ne pouvait se déplacer de manière autonome dans un environnement réel sans perdre l'équilibre. Comme le souligne la section IEEE Nagoya dans sa proposition : "Cette réalisation a démontré la faisabilité d'une locomotion humanoïde dans les machines, établissant un nouveau standard en robotique." C'est ce jalon qui a posé les bases de toute la filière des robots humanoïdes modernes — de Boston Dynamics à Figure AI en passant par Tesla Optimus.

Le projet avait démarré en 1986, quand quatre ingénieurs de Honda — Kazuo Hirai, Masato Hirose, Yuji Haikawa et Toru Takenaka — entreprirent de concevoir un "robot domestique" capable d'effectuer des tâches ménagères, monter des escaliers et manipuler des objets. La référence de l'époque, le WABOT-1 de l'Université Waseda (1973), pouvait certes parler japonais et saisir des objets, mais marchait de façon instable et dépendait d'une batterie externe. L'équipe Honda commença par analyser le mouvement humain pour définir les spécifications mécaniques, puis construisit E0 — un simple prototype de deux jambes — qui marchait, mais mettait 15 secondes par pas.

Les décennies suivantes donneront raison à cette vision : P2 est aujourd'hui exposé dans la galerie robotique du Honda Collection Hall, témoignage d'une rupture technologique dont les effets continuent de remodeler l'industrie. Le marché des robots humanoïdes devrait peser plusieurs dizaines de milliards de $ d'ici 2030, et les fondations posées par Honda en 1996 restent la référence intellectuelle de tout ce qui a suivi.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les robots sont trop nuls dans la vraie vie : ces chercheurs ont enfin trouvé la solution
1Le Big Data 

Les robots sont trop nuls dans la vraie vie : ces chercheurs ont enfin trouvé la solution

Des chercheurs des universités d'Aston et de Birmingham ont mis au point un système basé sur l'intelligence artificielle pour résoudre l'un des problèmes les plus persistants de la robotique industrielle : l'échec des robots à fonctionner correctement dans des conditions réelles après un entraînement en simulation virtuelle. Leurs travaux, soutenus par le projet REBELION dans le cadre d'un programme de UK Research and Innovation dédié au recyclage sécurisé des batteries lithium-ion, montrent des résultats probants sur des tâches concrètes impliquant des interactions physiques avec des matériaux, notamment la manipulation et la découpe. La méthode consiste à introduire automatiquement, pendant la phase d'entraînement virtuel, des variations et des perturbations dans l'environnement simulé, forçant le robot à apprendre à gérer l'instabilité et l'imprévisibilité bien avant de rencontrer le monde réel. Ce que cette approche change fondamentalement, c'est la manière dont l'industrie peut déployer des robots dans des environnements complexes ou dangereux sans accumuler des milliers d'heures de tests physiques coûteux et risqués. Le "fossé entre simulation et réalité", ce phénomène bien connu des roboticiens où une machine maîtrisant parfaitement une tâche en virtuel déraille dans le monde physique à cause du bruit des capteurs, des légères variations de position des objets ou des forces inattendues, est précisément ce que cette méthode cherche à combler. Les résultats indiquent que les robots entraînés de cette façon deviennent plus stables et plus adaptatifs, même avec très peu de données réelles supplémentaires, ce qui représente un gain considérable en termes de coûts et de délais de mise en service. Le secteur du recyclage des batteries lithium-ion constitue le cas d'usage prioritaire des chercheurs, car il implique la manipulation de cellules endommagées ou instables, rendant les tests directs particulièrement hasardeux. Mais l'ambition va bien au-delà : l'équipe espère déboucher sur des robots industriels quasi "prêts à l'emploi", capables d'être entraînés rapidement en simulation puis déployés dans un nouvel environnement avec un minimum de reconfiguration. Dans un contexte où l'automatisation industrielle est sous pression pour s'adapter à des chaînes de production plus flexibles et à des pénuries de main-d'œuvre, une telle avancée pourrait accélérer significativement l'adoption de la robotique dans des secteurs encore réticents à cause des coûts et de la complexité du déploiement. La prochaine étape sera d'étendre cette validation à des environnements industriels plus diversifiés et moins contrôlés.

UELa recherche adresse un verrou industriel directement concerné par la réglementation européenne sur les batteries : l'automatisation du recyclage des cellules lithium-ion, imposée par l'EU Battery Regulation, pourrait être accélérée grâce à cette méthode sim-to-real.

RobotiqueActu
1 source
DAIMON Robotics veut doter les mains robotiques du sens du toucher
2IEEE Spectrum AI 

DAIMON Robotics veut doter les mains robotiques du sens du toucher

En avril 2026, la startup hongkongaise DAIMON Robotics a publié Daimon-Infinity, qu'elle décrit comme le plus grand jeu de données omni-modal au monde pour l'IA physique. Ce corpus regroupe des millions d'heures de données multimodales issues de plus de 80 scénarios réels et de 2 000 compétences humaines référencées, couvrant des tâches aussi variées que le pliage de linge à domicile et l'assemblage industriel en usine. Dix mille heures de ces données ont été rendues publiques en open source. Le projet a été développé en partenariat avec Google DeepMind, l'Université Northwestern et la National University of Singapore. Au coeur du dispositif : un capteur tactile visuel monochrome capable d'intégrer plus de 110 000 unités de détection dans un module de la taille d'un bout de doigt, alimenté par un réseau de collecte décentralisé pouvant générer plusieurs millions d'heures de données par an. Ce lancement s'attaque à l'un des verrous les plus persistants de la robotique : l'absence de retour tactile dans les modèles d'apprentissage. Les architectures Vision-Language-Action (VLA), qui dominent aujourd'hui le domaine, reposent quasi exclusivement sur la vision, laissant les robots aveugles au toucher lors des manipulations physiques. DAIMON propose une alternative baptisée VTLA (Vision-Tactile-Language-Action), qui élève la perception tactile au rang de modalité à part entière, au même niveau que la vision. Pour les industriels et les chercheurs, l'enjeu est concret : un robot qui "sent" ce qu'il manipule peut gérer des objets fragiles, s'adapter à des textures inattendues et réduire drastiquement les erreurs de préhension. La publication de 10 000 heures en open source vise également à abaisser la barrière d'entrée pour les équipes de recherche qui peinent à constituer des datasets de qualité. Fondée il y a deux ans et demi, DAIMON s'est construite autour de la technologie de capteurs tactiles haute résolution avant d'élargir son ambition vers la donnée d'entraînement à grande échelle. La stratégie est portée par le professeur Michael Yu Wang, cofondateur et directeur scientifique, titulaire d'un doctorat de Carnegie Mellon où il a étudié la manipulation sous la direction de Matt Mason, et fondateur de l'Institut de robotique de l'Université des sciences et technologies de Hong Kong. Fellow IEEE et ancien rédacteur en chef de la revue IEEE Transactions on Automation Science and Engineering, il cumule quatre décennies dans le domaine. À terme, DAIMON vise des déploiements commerciaux dans des environnements à forte manipulation manuelle, comme les hôtels et les supérettes en Chine, où des robots dotés du sens du toucher pourraient remplacer des tâches aujourd'hui infranchissables pour les machines.

UELes équipes de recherche européennes en robotique peuvent accéder aux 10 000 heures de données tactiles publiées en open source, mais l'initiative est portée par des acteurs asiatiques sans implication directe de partenaires français ou européens.

RobotiqueOpinion
1 source
Les modèles d'IA échouent à contrôler les robots sans structures humaines, mais les agents autonomes comblent cet écart
3The Decoder 

Les modèles d'IA échouent à contrôler les robots sans structures humaines, mais les agents autonomes comblent cet écart

Des chercheurs de Nvidia, de l'UC Berkeley et de Stanford ont publié un nouveau cadre d'évaluation destiné à mesurer systématiquement la capacité des modèles d'IA à contrôler des robots via du code. Leurs résultats sont sans appel : sans abstractions conçues par des humains, c'est-à-dire sans briques logicielles préfabriquées qui simplifient les tâches complexes, même les meilleurs modèles disponibles échouent à piloter efficacement un robot. En revanche, des approches comme le "test-time compute scaling" ciblé, qui consiste à allouer davantage de puissance de calcul au moment de l'inférence plutôt qu'à l'entraînement, permettent de combler significativement cet écart de performance. Ces conclusions ont des implications directes pour l'industrie de la robotique autonome. Elles remettent en question l'idée que les grands modèles de langage peuvent, seuls et sans infrastructure spécialisée, prendre en charge le contrôle bas niveau de machines physiques. Pour les entreprises qui misent sur des robots autonomes dans la logistique, la fabrication ou les services, cela signifie que la conception humaine reste indispensable, du moins à court terme, et que l'autonomie complète exige encore un travail d'ingénierie non négligeable. Ce travail s'inscrit dans une course plus large entre les laboratoires de recherche et les industriels pour rendre les robots véritablement programmables par l'IA. Nvidia, déjà très présent dans l'infrastructure d'entraînement des modèles, cherche à étendre son influence vers la couche applicative de la robotique. L'approche par échafaudage agentique, qui enchaîne des modules spécialisés plutôt que de tout déléguer à un seul modèle, semble aujourd'hui la piste la plus prometteuse pour franchir ce verrou technique.

UELes industriels européens de la robotique (logistique, fabrication, services) doivent intégrer que l'autonomie complète par IA nécessite encore une ingénierie humaine substantielle, ce qui prolonge les délais et coûts de déploiement dans leurs feuilles de route.

💬 Sans abstractions humaines, même les meilleurs modèles ratent le contrôle robotique, et ça, c'est pas vraiment une surprise. La vraie info, c'est que l'échafaudage agentique (enchaîner des modules spécialisés plutôt que tout déléguer à un seul modèle) tient mieux ses promesses que le scaling brut à l'entraînement. Reste à voir si ça tient en prod ou si ça reste un beau résultat de labo Stanford.

RobotiqueOpinion
1 source
Ce robot cuisine mieux que vous… et il a tout appris en regardant une vidéo
4Le Big Data 

Ce robot cuisine mieux que vous… et il a tout appris en regardant une vidéo

Physical Intelligence, startup basée à San Francisco, a présenté π0.7, un modèle d'IA robotique capable d'exécuter des tâches pour lesquelles il n'a reçu presque aucun entraînement spécifique. La démonstration phare : un robot utilisant une friteuse à air chaud pour cuire une patate douce, alors que ses données d'apprentissage ne contenaient que deux séquences vaguement pertinentes, un robot fermant une friteuse, et un autre manipulant une bouteille en plastique issue d'un dataset open source. Sans assistance verbale, le taux de réussite du robot était d'environ 5 %. Après une demi-heure d'instructions orales en temps réel, ce taux a bondi à 95 %, sans réentraînement ni collecte massive de nouvelles données. Sergey Levine, cofondateur de Physical Intelligence, décrit cette capacité comme une recomposition inédite de connaissances acquises dans des contextes disparates, notamment issues du web. Ce qui distingue π0.7 de la majorité des systèmes robotiques actuels, c'est précisément ce qu'il n'a pas besoin : des millions d'heures de vidéos pour chaque nouvelle tâche. La robotique industrielle et domestique bute depuis des années sur ce mur : chaque situation légèrement différente exige un nouvel entraînement coûteux. Si π0.7 tient ses promesses, il ouvre la voie à des robots capables de s'adapter à des environnements inconnus simplement en recevant des consignes verbales, un changement de paradigme potentiellement majeur pour les secteurs de la logistique, de l'aide à domicile ou de la restauration automatisée. La chercheuse Shi, doctorante à Stanford impliquée dans les travaux, note toutefois qu'il reste difficile d'identifier précisément d'où le modèle tire les connaissances qu'il mobilise, ce qui soulève des questions sur la prédictibilité et la fiabilité du système. Physical Intelligence s'inscrit dans une vague de startups qui parient sur des modèles de fondation pour la robotique, à l'image de ce que GPT-4 a représenté pour le texte. L'entreprise a levé des fonds significatifs ces dernières années et concurrence directement des laboratoires comme Google DeepMind ou Figure AI sur le terrain des robots généralistes. Le vrai enjeu n'est plus de construire des bras articulés précis, mais de créer des systèmes capables de raisonner sur le monde physique avec un minimum d'exemples. π0.7 représente une étape crédible dans cette direction, même si les tests restent pour l'instant en conditions contrôlées. Les prochains mois diront si cette capacité d'adaptation tient face à la complexité désordonnée du monde réel.

RobotiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour