Aller au contenu principal
RobotiqueIEEE Spectrum AI1h

Digit apprend à danser en une nuit grâce à la simulation

1 source couvre ce sujet·Source originale ↗·

Le robot humanoïde Digit d'Agility Robotics vient d'apprendre à danser en une nuit. Grâce à des données brutes de capture de mouvement, d'animation et de téléopération, l'équipe IA de l'entreprise a développé de nouvelles capacités de contrôle corporel via un entraînement par renforcement en simulation transféré ensuite au robot réel. Dans le même temps, la startup Generalist AI a annoncé GEN-1, un modèle d'IA généraliste pour la robotique physique atteignant 99 % de taux de réussite sur des tâches simples, contre 64 % pour les générations précédentes, avec une vitesse d'exécution environ trois fois supérieure et seulement une heure de données collectées sur robot réel par tâche. Unitree, de son côté, a rendu public depuis le 5 mars 2026 le dataset UnifoLM-WBT, un jeu de données open-source de téléopération whole-body pour robots humanoïdes en environnements réels, disponible sur Hugging Face avec des mises à jour fréquentes.

Ces avancées illustrent une accélération concrète sur deux fronts majeurs : la généralisation des capacités motrices et la réduction des coûts de données d'entraînement. GEN-1 représente un saut qualitatif potentiellement décisif pour la viabilité commerciale des robots de service, en abaissant drastiquement le seuil d'échec sur des tâches répétitives industrielles ou logistiques. L'ouverture du dataset Unitree constitue elle un signal fort pour la communauté académique et les startups qui manquent de ressources pour collecter des données humanoïdes à grande échelle. Par ailleurs, Universal Robots démontre avec THEMAGIC5 comment des cobots automatisent les derniers 5 % d'une production personnalisée, permettant à une entreprise née sur Kickstarter de dépasser les 400 000 paires de lunettes de natation sur mesure vendues dans le monde.

Ces démonstrations s'inscrivent dans une dynamique plus large où la frontière entre recherche et déploiement commercial s'efface rapidement. La conférence ICRA 2026 se tiendra à Vienne du 1er au 5 juin, et RSS 2026 à Sydney en juillet, deux rendez-vous clés où beaucoup de ces travaux seront formalisés. Sanctuary AI poursuit quant à elle le développement de ses mains hydrauliques à haute dextérité, capables de réorienter un objet de manière autonome vers une configuration cible. Enfin, la Chine a validé en orbite un bras robotique flexible embarqué à bord du satellite commercial Yuxing 3-06, ouvrant la voie au ravitaillement autonome en orbite. L'ensemble de ces actualités confirme que 2026 marque une inflexion décisive : la robotique physique entre dans une phase d'industrialisation rapide, portée par des modèles IA de plus en plus généralisés et des écosystèmes de données ouverts.

Impact France/UE

Universal Robots (Danemark) illustre l'adoption des cobots dans la production personnalisée européenne, et la conférence ICRA 2026 à Vienne constituera un relais académique clé pour ces avancées en robotique physique.

À lire aussi

1Le Big Data 

MindOn : ce cerveau IA transforme n’importe quel robot en femme de ménage

La startup chinoise MindOn, basée à Shenzhen, a dévoilé début avril 2026 un système baptisé MindOn Brain, un cerveau IA conçu pour doter le robot humanoïde G1 d'Unitree Robotics d'une autonomie domestique complète. Le G1, qui mesure 1,30 mètre et embarque des dizaines d'articulations, des capteurs et des caméras 3D, était jusqu'ici limité à des tâches télécommandées ou préprogrammées. Avec cette couche logicielle, le robot est désormais capable d'arroser des plantes, d'ouvrir des rideaux, de nettoyer des surfaces, de déplacer des objets et même de monter sur un lit pour aspirer un matelas, le tout sans intervention humaine en temps réel. Les démonstrations diffusées en ligne, relayées notamment par le compte Space and Technology sur X, montrent un robot qui interprète des objectifs plutôt que de simples instructions séquentielles. Ce qui distingue cette avancée des robots domestiques précédents, c'est précisément ce saut vers l'autonomie au niveau des tâches. Jusqu'ici, la majorité des humanoïdes commerciaux nécessitait un pilotage constant ou des environnements très contraints. MindOn propose un cerveau numérique capable d'observer l'environnement, d'adapter les actions en temps réel et de gérer des séquences complexes de manière cohérente. Pour l'industrie de la robotique de service, cela représente un changement de paradigme : la valeur ne réside plus uniquement dans le hardware, mais dans le logiciel qui l'anime. Un même châssis physique pourrait changer totalement d'usage selon le système d'intelligence qui le pilote, ouvrant la voie à une modularité inédite dans le secteur. Cette annonce s'inscrit dans un contexte de convergence entre des LLM de plus en plus capables d'interpréter des contextes complexes et des robots dont le hardware a atteint un niveau de précision suffisant pour exécuter ces décisions. La demande de fond, elle, est structurelle : vieillissement de la population, pénurie de main-d'oeuvre domestique et recherche de confort poussent le marché vers des assistants autonomes. Cela dit, les démonstrations actuelles se déroulent dans des environnements soigneusement contrôlés, loin du chaos d'un foyer réel avec ses imprévus, ses enfants, ses animaux et ses instructions implicites. La fiabilité, la sécurité et la capacité à gérer des situations non anticipées restent des défis ouverts. MindOn illustre une direction que toute la robotique humanoïde cherche à prendre, mais la distance entre une démo convaincante et un produit déployable à grande échelle reste, pour l'instant, considérable.

RobotiqueOpinion
1 source
Les modèles d'IA échouent à contrôler les robots sans structures humaines, mais les agents autonomes comblent cet écart
2The Decoder 

Les modèles d'IA échouent à contrôler les robots sans structures humaines, mais les agents autonomes comblent cet écart

Des chercheurs de Nvidia, de l'UC Berkeley et de Stanford ont publié un nouveau cadre d'évaluation destiné à mesurer systématiquement la capacité des modèles d'IA à contrôler des robots via du code. Leurs résultats sont sans appel : sans abstractions conçues par des humains, c'est-à-dire sans briques logicielles préfabriquées qui simplifient les tâches complexes, même les meilleurs modèles disponibles échouent à piloter efficacement un robot. En revanche, des approches comme le "test-time compute scaling" ciblé, qui consiste à allouer davantage de puissance de calcul au moment de l'inférence plutôt qu'à l'entraînement, permettent de combler significativement cet écart de performance. Ces conclusions ont des implications directes pour l'industrie de la robotique autonome. Elles remettent en question l'idée que les grands modèles de langage peuvent, seuls et sans infrastructure spécialisée, prendre en charge le contrôle bas niveau de machines physiques. Pour les entreprises qui misent sur des robots autonomes dans la logistique, la fabrication ou les services, cela signifie que la conception humaine reste indispensable, du moins à court terme, et que l'autonomie complète exige encore un travail d'ingénierie non négligeable. Ce travail s'inscrit dans une course plus large entre les laboratoires de recherche et les industriels pour rendre les robots véritablement programmables par l'IA. Nvidia, déjà très présent dans l'infrastructure d'entraînement des modèles, cherche à étendre son influence vers la couche applicative de la robotique. L'approche par échafaudage agentique, qui enchaîne des modules spécialisés plutôt que de tout déléguer à un seul modèle, semble aujourd'hui la piste la plus prometteuse pour franchir ce verrou technique.

UELes industriels européens de la robotique (logistique, fabrication, services) doivent intégrer que l'autonomie complète par IA nécessite encore une ingénierie humaine substantielle, ce qui prolonge les délais et coûts de déploiement dans leurs feuilles de route.

💬 Sans abstractions humaines, même les meilleurs modèles ratent le contrôle robotique, et ça, c'est pas vraiment une surprise. La vraie info, c'est que l'échafaudage agentique (enchaîner des modules spécialisés plutôt que tout déléguer à un seul modèle) tient mieux ses promesses que le scaling brut à l'entraînement. Reste à voir si ça tient en prod ou si ça reste un beau résultat de labo Stanford.

RobotiqueOpinion
1 source
Les robotaxis vont bientôt débarquer en Europe avec l’aide d’Uber, voici où
3Presse-citron 

Les robotaxis vont bientôt débarquer en Europe avec l’aide d’Uber, voici où

L'article fourni est très court (titre + 2 phrases) et ne contient pas les détails nécessaires — ville test, partenaire AV, dates, chiffres — pour écrire un article autonome précis de 150-200 mots. Pour produire ce résumé, j'aurais besoin du corps complet de l'article. Pouvez-vous le coller ici ?

UELe déploiement de robotaxis en Europe via Uber marque une étape concrète vers l'autonomie véhiculaire sur le marché européen, avec des implications réglementaires et de mobilité directes pour les pays concernés.

💬 Uber joue les intermédiaires plutôt que de construire sa propre flotte, c'est un pari intéressant. L'Europe reste un terrain miné côté réglementation, et "bientôt" sur ce genre d'annonce, ça veut souvent dire dans 3 ou 4 ans dans deux villes tests. Reste que si ça passe, ça va aller vite ensuite.

RobotiqueActu
1 source
Bloqué 1h30 dans un robot taxi sans aucune assistance : Baidu vient de tuer la confiance des usagers en un seul bug
4Frandroid 

Bloqué 1h30 dans un robot taxi sans aucune assistance : Baidu vient de tuer la confiance des usagers en un seul bug

Des centaines de robotaxis Baidu se sont immobilisés simultanément en plein milieu de trajets en cours, en Chine, provoquant des embouteillages importants et plusieurs collisions. Les passagers, bloqués à l'intérieur des véhicules sans possibilité de reprendre la main sur le volant, ont attendu jusqu'à une heure trente sans recevoir aucune assistance humaine. Le bug, dont l'origine technique n'a pas encore été officiellement communiquée par Baidu, a touché le service Apollo Go, le bras autonome du géant technologique chinois. L'incident illustre de manière brutale la principale vulnérabilité des flottes de véhicules autonomes connectés : une défaillance logicielle centralisée peut paralyser des centaines de véhicules en même temps, sans aucun filet de sécurité humain immédiat. Pour les usagers coincés, l'absence totale de support en temps réel a transformé un simple bug en expérience anxiogène. C'est précisément ce type d'événement qui érode la confiance du grand public bien plus efficacement que n'importe quel accident isolé — car il touche à la fois la fiabilité technique et à l'abandon perçu des passagers. Baidu est l'un des leaders mondiaux du robotaxi, avec des milliers de véhicules déployés dans plusieurs grandes villes chinoises comme Wuhan et Chengdu dans le cadre d'un service commercial sans chauffeur de sécurité. La course à l'autonomie totale, partagée avec Waymo aux États-Unis et WeRide en Chine, pousse les opérateurs à retirer rapidement les superviseurs humains pour réduire les coûts — un arbitrage qui montre ici ses limites. Des enquêtes réglementaires et une révision des protocoles d'assistance d'urgence sont désormais attendues.

UECet incident pourrait accélérer les discussions réglementaires européennes sur les protocoles d'assistance obligatoires et les exigences de sécurité pour les flottes de véhicules autonomes commerciales déployées sans superviseur humain à bord.

💬 1h30 bloqué dans une boîte en métal sans pouvoir sortir, sans personne au bout du fil, c'est pas un bug, c'est un scénario de film d'horreur. Le vrai problème n'est pas la panne elle-même, c'est que Baidu a retiré le filet humain avant d'avoir un plan B, parce que ça coûte moins cher. Reste à voir si les régulateurs vont enfin poser des exigences claires, ou si on attend le prochain incident.

RobotiqueOpinion
1 source