Aller au contenu principal

Robotique

50 sur 201 articles

Actualités robotique et IA : robots autonomes, drones, véhicules autonomes et robots humanoïdes.

Navigation autonome d'un robot par apprentissage structurel en ligne et planification par inférence active
1arXiv cs.RO RobotiquePaper

Navigation autonome d'un robot par apprentissage structurel en ligne et planification par inférence active

Des chercheurs de l'université de Gand ont publié sur arXiv un système de navigation robotique autonome baptisé AIMAPP (Active Inference MAPping and Planning), capable d'explorer des environnements inconnus sans carte préalable ni phase d'entraînement. Le robot construit en temps réel une carte topologique sparse, apprend dynamiquement les transitions d'états et planifie ses actions en minimisant ce que les auteurs appellent l'Énergie Libre Attendue (Expected Free Energy), un principe emprunté à la théorie de l'inférence active. Le système est compatible avec ROS, indépendant du type de capteurs utilisés et fonctionne en mode entièrement auto-supervisé, sans aucune intervention humaine préalable. L'intérêt principal d'AIMAPP réside dans sa robustesse face aux conditions réelles d'opération : il continue de fonctionner même en cas de défaillance partielle des capteurs ou de dérive odométrique cumulative, deux problèmes qui paralysent souvent les systèmes classiques de navigation SLAM. Contrairement aux approches par apprentissage profond qui nécessitent d'importants volumes de données annotées, AIMAPP s'adapte en ligne à des environnements changeants et à des observations ambiguës. Dans des évaluations conduites à grande échelle, en environnements réels et simulés, le système surpasse ou égale les planificateurs de référence actuels, ouvrant la voie à des robots déployables dans des contextes non structurés comme des entrepôts, des zones sinistrées ou des espaces extérieurs. L'inférence active est un cadre théorique issu des neurosciences computationnelles, initialement développé pour modéliser la perception et l'action chez les êtres vivants. Son application à la robotique est encore émergente, mais AIMAPP représente une des implémentations les plus complètes à ce jour, combinant cartographie, localisation et prise de décision dans un modèle génératif unifié. Le code est disponible publiquement sur GitHub (decide-ugent/aimapp), ce qui pourrait accélérer son adoption dans la communauté robotique. La prochaine étape naturelle sera de tester le système sur des flottes de robots opérant en parallèle, ainsi que dans des environnements dynamiques peuplés d'humains.

UERecherche conduite par l'Université de Gand (Belgique), le code open-source publié sur GitHub est directement exploitable par les laboratoires et industriels européens actifs en robotique autonome.

1 source
CARLA-Air: infrastructure unifiée pour drones et agents autonomes aériens et terrestres dans CARLA
2arXiv cs.RO 

CARLA-Air: infrastructure unifiée pour drones et agents autonomes aériens et terrestres dans CARLA

Des chercheurs ont publié CARLA-Air, une plateforme de simulation open source qui permet, pour la première fois, de faire voler des drones multirotor directement dans l'environnement urbain de CARLA, le simulateur de référence pour la conduite autonome, développé initialement par Waymo et maintenu par la communauté. La plateforme tourne au sein d'un unique processus Unreal Engine, garantissant une cohérence spatiale et temporelle stricte entre les agents au sol et les drones, tout en capturant simultanément jusqu'à 18 modalités de capteurs à chaque pas de simulation. Elle préserve les API Python natives de CARLA et d'AirSim, ainsi que les interfaces ROS 2, ce qui permet de réutiliser du code existant sans aucune modification. L'enjeu est considérable pour les équipes qui travaillent sur les systèmes robotiques mixtes air-sol, un domaine en pleine expansion avec le développement des économies à basse altitude, livraisons par drone, inspection d'infrastructures, mobilité urbaine aérienne. Jusqu'ici, les simulateurs de conduite manquaient de dynamique aérienne réaliste, tandis que les simulateurs de drones proposaient des environnements urbains trop simplifiés. Les solutions de co-simulation par pont introduisaient des décalages temporels incompatibles avec l'entraînement de politiques de navigation ou de perception multi-modale. CARLA-Air supprime ces compromis en offrant un seul environnement avec trafic conforme aux règles de circulation, piétons à comportement social, et dynamique aérodynamique cohérente. Le projet répond aussi à une urgence pratique : Microsoft a archivé le développement d'AirSim, le simulateur de drones le plus utilisé dans la recherche académique, laissant orphelines de nombreuses équipes. CARLA-Air reprend cet héritage et l'intègre dans une infrastructure moderne et activement maintenue. La plateforme est déjà conçue pour accueillir des charges de travail avancées : coopération air-sol, navigation incarnée, actions guidées par le langage, construction de jeux de données et entraînement par renforcement. Le code source complet et des binaires précompilés sont disponibles sur GitHub, ce qui devrait faciliter son adoption rapide dans la communauté robotique et autonome.

UELes équipes de recherche européennes en robotique et mobilité urbaine aérienne disposent d'une alternative open source maintenue à AirSim pour développer et entraîner des systèmes autonomes mixtes air-sol.

RobotiqueOpinion
1 source
NanoCockpit : un framework applicatif optimisé pour la nanorobotique autonome pilotée par IA
3arXiv cs.RO 

NanoCockpit : un framework applicatif optimisé pour la nanorobotique autonome pilotée par IA

Des chercheurs ont présenté NanoCockpit, un framework logiciel conçu pour optimiser les performances des nano-drones autonomes embarquant des modèles d'intelligence artificielle compacts, appelés TinyML. Ces micro-engins de quelques dizaines de grammes, dont le Bitcraze Crazyflie fait figure de référence dans le domaine, ne disposent que de microcontrôleurs fonctionnant sous la barre des 100 milliwatts. NanoCockpit s'appuie sur une architecture de multitâche par coroutines pour orchestrer simultanément l'acquisition d'images en multi-buffer, le calcul multi-cœur, les échanges de données entre microcontrôleurs et la transmission Wi-Fi. Les expériences menées sur trois applications réelles de nano-robotique ont démontré une latence bout-en-bout idéale, c'est-à-dire sans aucun overhead lié à la sérialisation des tâches, une réduction de 30 % de l'erreur de position moyenne, et un taux de réussite des missions passé de 40 % à 100 %. Ces résultats sont significatifs pour un domaine où chaque milliseconde de latence et chaque milliwatt comptent. En robotique embarquée, une mauvaise gestion des ressources logicielles se traduit directement par une instabilité de vol, des collisions ou des missions avortées. Le fait de passer d'un taux de succès de 40 % à 100 % en modifiant uniquement la couche logicielle, sans toucher au matériel, illustre à quel point l'inefficacité du code peut brider des systèmes physiquement capables. Pour les ingénieurs et chercheurs travaillant sur des applications comme la surveillance, l'inspection industrielle ou la navigation en environnements contraints, NanoCockpit offre un gain de performance immédiat sans surcoût matériel. Le domaine des nano-drones autonomes connaît une accélération rapide, portée par les progrès des modèles TinyML capables de faire tourner de la vision par ordinateur sur des puces minuscules. Jusqu'ici, l'absence de couche logicielle adaptée forçait les développeurs à sous-exploiter les ressources disponibles, créant un goulot d'étranglement artificiel. NanoCockpit s'attaque directement à ce problème en standardisant le pipeline de traitement sur le Crazyflie, la plateforme la plus répandue dans la recherche académique. La prochaine étape logique serait l'adoption de ce framework comme socle commun pour la communauté, ce qui faciliterait la reproductibilité des expériences et accélérerait le transfert vers des applications industrielles réelles.

UELe framework cible la plateforme Crazyflie de Bitcraze (entreprise suédoise), ce qui pourrait faciliter son adoption par les laboratoires de recherche européens travaillant sur les nano-drones autonomes.

💬 Passer de 40 % à 100 % de missions réussies juste en changeant la couche logicielle, ça m'a fait lire l'abstract deux fois. Tout le monde se focalisait sur le matériel, les puces, les modèles TinyML, et personne ne s'occupait sérieusement d'orchestrer tout ça proprement sur des microcontrôleurs à 100 milliwatts. Si tu travailles sur de l'embarqué, c'est le genre de truc qu'on attendait depuis un moment.

RobotiqueOpinion
1 source
Agent de sécurité guidé par LLM pour la robotique embarquée avec une architecture perception-calcul-contrôle conforme ISO
4arXiv cs.RO 

Agent de sécurité guidé par LLM pour la robotique embarquée avec une architecture perception-calcul-contrôle conforme ISO

Des chercheurs ont publié une architecture permettant d'intégrer un agent de sécurité guidé par un grand modèle de langage (LLM) dans des robots embarqués fonctionnant à la périphérie du réseau, tout en respectant les normes industrielles de sécurité fonctionnelle. Le système, présenté dans une prépublication arXiv (2604.20193), repose sur une architecture perception-calcul-contrôle conforme à la norme ISO 13849. Concrètement, il convertit des règles de sécurité formulées en langage naturel en prédicats exécutables, déployés sur un environnement d'exécution hétérogène et redondant. Pour garantir la tolérance aux pannes, les chercheurs adoptent une redondance duale symétrique : deux modules indépendants fonctionnent en parallèle pour la perception, le calcul et le contrôle. Le prototype tourne sur une plateforme à double processeur RK3588, une puce ARM développée par Rockchip, et a été évalué dans des scénarios typiques d'interaction humain-robot. L'enjeu est fondamental : la sécurité fonctionnelle industrielle exige des comportements déterministes, c'est-à-dire prévisibles et reproductibles à chaque exécution, alors que la perception par IA reste intrinsèquement probabiliste. Cette incompatibilité freine depuis des années le déploiement de robots intelligents dans des espaces où des humains circulent. En atteignant le niveau ISO 13849 Catégorie 3 et Performance Level d avec du matériel grand public peu coûteux, cette approche ouvre la voie à des systèmes robotiques certifiables sans processeurs spécialisés hors de prix. Pour les intégrateurs industriels et fabricants de cobots, c'est un signal clair : la sécurité certifiable pourrait bientôt s'appliquer à bien plus large échelle. La montée en puissance des robots collaboratifs dans les usines, entrepôts et environnements de soins a rendu urgente la question de la certification. Les normes ISO 13849 définissent des niveaux de performance de PL a à PL e selon la probabilité de défaillance dangereuse ; atteindre PL d est généralement requis pour des équipements opérant à proximité directe d'humains. L'utilisation d'un LLM pour interpréter et codifier automatiquement des règles de sécurité en langage naturel est une approche originale qui pourrait simplifier radicalement la configuration de ces systèmes. La prochaine étape décisive sera la validation formelle par des organismes de certification indépendants, condition indispensable à une adoption industrielle à grande échelle.

UELes fabricants européens de cobots et intégrateurs industriels pourraient accéder à une voie de certification ISO 13849 PL d à moindre coût, sous réserve de validation par des organismes notifiés européens.

RobotiqueOpinion
1 source
Manipulation bimanuelles par robot via apprentissage en contexte multi-agents
5arXiv cs.RO 

Manipulation bimanuelles par robot via apprentissage en contexte multi-agents

Des chercheurs ont présenté BiCICLe (Bimanual Coordinated In-Context Learning), un nouveau cadre permettant à des grands modèles de langage (LLM) standard de contrôler des robots à deux bras sans aucun entraînement spécifique à la tâche. Publié sous forme de preprint sur arXiv, ce travail s'appuie sur l'apprentissage en contexte (In-Context Learning), une technique qui permet à un LLM de généraliser à de nouvelles situations à partir de quelques exemples fournis directement dans le prompt. Évalué sur 13 tâches issues du benchmark TWIN, BiCICLe atteint un taux de succès moyen de 71,1 %, surpassant la meilleure méthode sans entraînement de 6,7 points de pourcentage et dépassant la majorité des approches supervisées. Le défi de la manipulation bimanuele est précisément ce qui rend ce résultat remarquable. Coordonner deux bras robotiques implique un espace d'action à très haute dimensionnalité et des contraintes de synchronisation strictes entre les deux membres, ce qui dépasse rapidement les capacités des fenêtres de contexte standard des LLM. BiCICLe contourne ce problème en reformulant le contrôle bimanuel comme un problème multi-agents de type leader-suiveur : chaque bras est géré par un LLM distinct, le second conditionnant ses prédictions sur celles du premier. Un troisième modèle joue le rôle de juge, évaluant et sélectionnant les trajectoires coordonnées les plus plausibles parmi plusieurs propositions, via un processus itératif baptisé Arms' Debate. Ce travail s'inscrit dans une tendance plus large qui vise à exploiter les capacités de raisonnement des LLM pour la robotique incarnée, sans passer par des cycles d'entraînement coûteux. Jusqu'ici, l'ICL avait surtout été appliqué à des tâches à un seul bras, plus simples à modéliser. BiCICLe ouvre la voie à une robotique plus flexible, où des modèles de langage généralistes peuvent être déployés sur des systèmes physiques complexes avec un minimum d'exemples. Les résultats de généralisation sur des tâches inédites renforcent la crédibilité de cette approche pour des applications industrielles ou domestiques où la variété des manipulations est élevée.

RobotiqueActu
1 source
VTouch++ : jeu de données multimodal combinant vision et retour tactile pour la manipulation bimanuelle
6arXiv cs.RO 

VTouch++ : jeu de données multimodal combinant vision et retour tactile pour la manipulation bimanuelle

Des chercheurs ont publié VTOUCH, un nouveau jeu de données multimodal conçu pour améliorer la manipulation bimanuelles des robots, c'est-à-dire la capacité d'un robot à utiliser deux bras de manière coordonnée. Présenté sur arXiv (référence 2604.20444), ce dataset combine des capteurs tactiles basés sur la vision pour fournir des signaux d'interaction physique haute fidélité. Concrètement, ces capteurs permettent au robot de "sentir" les contacts et pressions lors de tâches complexes, comme assembler un objet ou manipuler des matériaux fragiles. La collecte des données s'appuie sur des pipelines automatisés couvrant des scénarios réels orientés par la demande, et l'organisation des tâches suit une structure matricielle pensée pour faciliter l'apprentissage systématique à grande échelle. La manipulation bimanualle reste l'un des défis les plus ardus de la robotique incarnée, notamment parce que les tâches à fort contact physique exigent une coordination fine et des retours sensoriels précis que les datasets existants ne capturent pas suffisamment. VTOUCH répond directement à ce manque en intégrant des signaux tactiles riches là où la plupart des jeux de données se limitent à la vision ou aux données proprioceptives. Les expériences quantitatives menées sur la récupération cross-modale, ainsi que les évaluations sur robots réels, confirment l'efficacité du dataset. Plus important encore, les chercheurs ont démontré que les politiques entraînées sur VTOUCH se généralisent à plusieurs types de robots et plusieurs types de tâches, ce qui en fait un outil potentiellement mutualisable à travers l'industrie. La robotique incarnée connaît une accélération notable depuis l'essor des grands modèles de langage et vision, des acteurs comme Google DeepMind, Figure AI ou Physical Intelligence investissant massivement dans des robots capables d'opérer dans des environnements non structurés. La manipulation bimanualle est un goulot d'étranglement reconnu : même les systèmes les plus avancés peinent à égaler la dextérité humaine dans des tâches d'assemblage ou de cuisine. VTOUCH s'inscrit dans une tendance plus large de constitution de datasets spécialisés de grande échelle, à l'image d'Open X-Embodiment, pour accélérer l'entraînement de politiques robotiques généralisables. La prochaine étape sera de voir si ce dataset est rendu public et adopté par la communauté au-delà du laboratoire d'origine.

RobotiqueActu
1 source
PokeVLA : un modèle vision-langage-action compact enrichi d'une connaissance globale du monde
7arXiv cs.RO 

PokeVLA : un modèle vision-langage-action compact enrichi d'une connaissance globale du monde

Des chercheurs ont publié PokeVLA, un nouveau modèle de fondation léger conçu pour la manipulation robotique, présenté dans un article déposé sur arXiv fin avril 2026. Le système repose sur une architecture Vision-Language-Action (VLA) qui intègre la compréhension visuelle et linguistique directement dans l'apprentissage des actions physiques d'un robot. Pour y parvenir, l'équipe a développé une approche en deux étapes : d'abord, un modèle vision-langage compact baptisé PokeVLM est pré-entraîné sur un jeu de données soigneusement constitué de 2,4 millions d'échantillons couvrant l'ancrage spatial, les affordances et le raisonnement incarné ; ensuite, des représentations spécifiques à la manipulation sont injectées dans l'espace d'action via un apprentissage sémantique multi-vues, un alignement géométrique et un module d'action inédit. Les expériences montrent des performances de pointe sur le benchmark LIBERO-Plus ainsi qu'en déploiement réel, surpassant les modèles comparables en taux de réussite et en robustesse face à diverses perturbations. Le code, les poids du modèle et les scripts de préparation des données seront rendus publics. Ce travail s'attaque à deux limites majeures des modèles VLA existants : leur inefficacité computationnelle et leur faible capacité à raisonner à haut niveau sur l'espace et les objets. En proposant un modèle à la fois compact et performant, PokeVLA ouvre la voie à des robots capables de comprendre leur environnement de manière plus fine sans nécessiter des ressources matérielles considérables. Pour l'industrie de la robotique, cela signifie que des systèmes plus accessibles pourraient atteindre des niveaux de fiabilité jusqu'ici réservés aux modèles volumineux, accélérant potentiellement l'adoption dans des contextes réels comme la logistique, la fabrication ou les soins à domicile. Les modèles VLA connaissent une montée en puissance rapide depuis que des travaux comme RT-2 de Google ou OpenVLA ont démontré l'intérêt de combiner grands modèles de langage et contrôle moteur. La tendance générale pousse vers des modèles toujours plus grands, mais PokeVLA prend le contre-pied en cherchant la compacité sans sacrifier les capacités. La mise en open source annoncée est stratégique : elle permettra à la communauté académique de reproduire les résultats et d'itérer rapidement, ce qui pourrait accélérer l'émergence de robots généralistes abordables dans les prochaines années.

RobotiqueActu
1 source
Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
8arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

RobotiqueActu
1 source
MOMO : un cadre pour l'apprentissage et l'adaptation des compétences robotiques, physiques, verbales et graphiques
9arXiv cs.RO 

MOMO : un cadre pour l'apprentissage et l'adaptation des compétences robotiques, physiques, verbales et graphiques

Des chercheurs ont présenté MOMO, un framework permettant à des utilisateurs non experts de programmer et d'adapter des robots industriels sans écrire une seule ligne de code. Le système repose sur trois modalités d'interaction complémentaires : la guidance physique directe (kinesthetic teaching), les commandes en langage naturel, et une interface web graphique permettant de visualiser les trajectoires, ajuster des paramètres et déplacer des points de passage par glisser-déposer. La validation a eu lieu sur un robot industriel à 7 degrés de liberté à contrôle par couple, présenté lors du salon Automatica 2025, l'une des principales foires mondiales de robotique et d'automatisation. Ce que MOMO change concrètement, c'est la barrière entre l'opérateur et la machine. Jusqu'ici, modifier le comportement d'un robot industriel nécessitait des compétences en programmation ou l'intervention d'un intégrateur spécialisé. Avec ce framework, un technicien peut corriger une trajectoire en guidant physiquement le bras, demander verbalement une modification sémantique ("sois plus lent sur le bord droit"), ou retoucher visuellement la courbe dans un navigateur. L'architecture LLM adoptée est dite "à base d'outils" : le modèle de langage ne génère pas de code libre, mais sélectionne et paramètre des fonctions prédéfinies, ce qui limite les risques d'erreurs et de comportements imprévus sur un vrai site de production. L'article s'inscrit dans un effort de recherche plus large pour démocratiser la robotique flexible, particulièrement dans un contexte de pénurie de compétences techniques et de demande croissante de personnalisation en usine. Les cinq composants du système, détection d'intention humaine par énergie, LLM outillé, Kernelized Movement Primitives pour l'encodage du mouvement, Virtual Fixtures probabilistes et contrôle ergodique pour la finition de surface, forment une architecture modulaire. Le fait que la même approche LLM fonctionne aussi bien pour les mouvements classiques que pour le contrôle ergodique (utilisé en polissage ou peinture de surface) suggère une généralisation possible à un large spectre de tâches industrielles. Les prochaines étapes pourraient inclure des tests en conditions réelles de production et une éventuelle commercialisation via des partenariats industriels.

UELa démocratisation de la programmation robotique via interfaces multimodales pourrait bénéficier aux PME manufacturières européennes confrontées à une pénurie de compétences en automatisation industrielle.

RobotiqueOpinion
1 source
ETac : un framework léger de simulation tactile pour apprendre la manipulation dextère
10arXiv cs.RO 

ETac : un framework léger de simulation tactile pour apprendre la manipulation dextère

Des chercheurs ont présenté ETac, un framework de simulation tactile conçu pour entraîner des robots manipulateurs dotés de capteurs tactiles à peau élastomère. Publié sur arXiv, ETac repose sur un modèle léger d'apprentissage automatique pour simuler la propagation des déformations lors des contacts, sans recourir aux coûteuses méthodes par éléments finis (FEM). Exécuté sur un seul GPU RTX 4090, le système supporte jusqu'à 4 096 environnements parallèles et atteint un débit total de 869 images par seconde. La politique de préhension entraînée avec ETac affiche un taux de réussite moyen de 84,45 % sur quatre types d'objets différents, sans aucune vision -- uniquement via le retour tactile large surface. Ce résultat est significatif car il lève l'un des principaux verrous du domaine : la simulation tactile haute fidélité est habituellement si coûteuse en calcul qu'elle empêche l'apprentissage par renforcement à grande échelle. ETac produit des estimations de déformation de surface comparables à celles obtenues par FEM, tout en étant suffisamment rapide pour l'entraînement massif de politiques robotiques. Pour les laboratoires et entreprises qui développent des robots manipulateurs -- en logistique, chirurgie assistée ou assemblage industriel -- cette approche ouvre la voie à des agents capables de saisir des objets variés et fragiles sans dépendre de caméras. La manipulation dextère reste l'un des défis les plus ardus de la robotique moderne, et le sens du toucher est reconnu depuis longtemps comme essentiel pour combler l'écart avec les capacités humaines. Les capteurs tactiles type GelSight ou DIGIT ont progressé rapidement ces dernières années, mais leur intégration dans des boucles d'apprentissage par renforcement butait sur l'absence de simulateurs rapides et réalistes. ETac s'inscrit dans un mouvement plus large visant à aligner simulation et réalité physique (sim-to-real transfer) pour les retours haptiques. Les prochaines étapes pourraient inclure le transfert de politiques vers des robots réels et l'extension à des scénarios de manipulation bimanuelle plus complexes.

RobotiquePaper
1 source
Les modèles du monde au service d'interventions endovasculaires robotisées autonomes et sûres
11arXiv cs.RO 

Les modèles du monde au service d'interventions endovasculaires robotisées autonomes et sûres

Des chercheurs ont développé un système d'intelligence artificielle capable de naviguer de manière autonome dans les vaisseaux sanguins pour traiter des accidents vasculaires cérébraux, sans intervention humaine directe. Publiés sur arXiv, leurs travaux portent sur la thrombectomie mécanique, une procédure d'urgence qui consiste à retirer un caillot obstruant une artère cérébrale. L'agent IA repose sur TD-MPC2, un algorithme d'apprentissage par renforcement basé sur un modèle du monde, capable de planifier ses actions en anticipant les conséquences de ses mouvements. Testé sur des anatomies vasculaires propres à chaque patient, il affiche un taux de succès de 58 % en simulation, contre 36 % pour le meilleur algorithme concurrent (SAC, Soft Actor-Critic), une différence statistiquement significative (p < 0,001). En laboratoire, sur des répliques physiques de vaisseaux réels guidées par fluoroscopie, TD-MPC2 atteint 68 % de succès contre 60 % pour SAC, avec une trajectoire plus optimale, bien qu'au prix de procédures légèrement plus longues. La force exercée par l'outil sur les parois vasculaires reste en moyenne à 0,15 newton, très en dessous du seuil de rupture estimé à 1,5 newton. Ces résultats constituent une première mondiale : c'est la première fois qu'un système d'IA autonome pour la thrombectomie est validé à la fois en simulation sur des données patient inédites et sur des fantômes vasculaires physiques sous guidage fluoroscopique. L'enjeu est considérable car la thrombectomie mécanique est une course contre la montre : chaque minute perdue aggrave les séquelles neurologiques. Un système autonome fiable pourrait réduire la dépendance aux neuroradiologues interventionnels, dont la disponibilité 24h/24 est limitée, notamment dans les hôpitaux de taille moyenne. La thrombectomie robotisée fait l'objet d'une compétition intense depuis plusieurs années, portée par des acteurs comme Siemens Healthineers, Corindus (filiale de Siemens) ou des startups comme Endowave. L'approche par modèles du monde est plus récente dans ce domaine : elle permet à l'agent de simuler mentalement les conséquences de ses actions avant d'agir, ce qui améliore la robustesse face à la diversité anatomique des patients. Les prochaines étapes passeront probablement par des essais précliniques sur animal avant toute perspective d'application clinique humaine.

UELa technologie pourrait à terme réduire les inégalités d'accès aux soins dans les hôpitaux européens de taille moyenne manquant de neuroradiologues interventionnels disponibles 24h/24.

RobotiquePaper
1 source
Cortex 2.0 : ancrer les modèles du monde dans les déploiements industriels réels
12arXiv cs.RO 

Cortex 2.0 : ancrer les modèles du monde dans les déploiements industriels réels

Des chercheurs ont présenté Cortex 2.0, un système de manipulation robotique industrielle qui rompt avec le contrôle réactif au profit d'une architecture de planification basée sur un modèle du monde. Décrit dans un article publié sur arXiv, le système génère plusieurs trajectoires futures candidates dans un espace latent visuel, les évalue selon leur probabilité de succès et leur efficacité, puis sélectionne la meilleure avant d'agir. Évalué sur des plateformes à un bras et deux bras, Cortex 2.0 a été testé sur quatre tâches d'une complexité croissante : saisie et placement d'objets, tri d'articles et de déchets, tri de vis, et déballage de boîtes à chaussures. Les résultats montrent que Cortex 2.0 surpasse systématiquement les modèles Vision-Language-Action (VLA) de dernière génération sur l'ensemble des tâches évaluées. L'avantage est particulièrement net dans les environnements encombrés, avec des occlusions fréquentes et des manipulations à forte contrainte physique, c'est-à-dire précisément les situations où les approches réactives accumulent les erreurs et échouent. Pour l'industrie robotique, cela représente un changement de paradigme concret : des robots capables d'exécuter des séquences d'actions longues de manière fiable, sans nécessiter des environnements strictement contrôlés, ouvrent la voie à un déploiement plus large en logistique, en assemblage ou en tri de matériaux. Les modèles VLA ont marqué une avancée importante ces dernières années en permettant aux robots de généraliser à de nouvelles tâches grâce à leur compréhension du langage et de la vision. Leur faiblesse structurelle reste néanmoins leur caractère réactif : ils optimisent l'action immédiate sans anticiper les conséquences à moyen terme, ce qui les fragilise sur des tâches longues où les erreurs s'accumulent. Cortex 2.0 s'inscrit dans un effort plus large pour doter les robots d'une capacité de planification par simulation, comparable à ce que l'on trouve dans des systèmes comme AlphaGo. Si ces résultats se confirment à plus grande échelle et sur une plus large diversité de tâches, ils pourraient accélérer significativement le déploiement de robots industriels autonomes dans des environnements réels et non scénarisés.

UESi les résultats se confirment à plus grande échelle, les secteurs industriels européens, logistique, assemblage, tri de matériaux, pourraient bénéficier d'un déploiement accéléré de robots autonomes capables d'opérer dans des environnements réels non scénarisés.

RobotiqueOpinion
1 source
Un modèle vision-langage-action pour l'insertion et le suivi d'aiguille guidés par échographie
13arXiv cs.RO 

Un modèle vision-langage-action pour l'insertion et le suivi d'aiguille guidés par échographie

Des chercheurs ont présenté un nouveau système robotique capable de réaliser des insertions d'aiguille guidées par échographie de façon entièrement automatisée et adaptative. Publiée sur arXiv (arXiv:2504.20347), l'étude introduit un modèle de type Vision-Language-Action (VLA) intégré à un système d'échographie robotique (RUS). Le cadre repose sur deux composants clés développés par l'équipe : une tête de suivi baptisée Cross-Depth Fusion (CDF), qui fusionne des caractéristiques visuelles superficielles et sémantiques profondes pour localiser l'aiguille en temps réel, et un registre de conditionnement appelé TraCon (Tracking-Conditioning), qui adapte efficacement un modèle visuel pré-entraîné à grande échelle aux tâches de suivi sans réentraînement complet. À ces composants s'ajoutent une politique de contrôle tenant compte des incertitudes et un pipeline VLA asynchrone, permettant des décisions d'insertion rapides et contextuellement adaptées. L'importance de cette avancée est directe : les insertions d'aiguille guidées par échographie sont omniprésentes en médecine, des biopsies aux anesthésies péridurales en passant par les ponctions vasculaires. Jusqu'ici, les systèmes automatisés reposaient sur des pipelines modulaires construits à la main, peu robustes face aux conditions d'imagerie difficiles, aux variations anatomiques ou aux mouvements du patient. Le nouveau système unifie suivi et contrôle dans un seul modèle bout-en-bout, ce qui lui permet de surpasser en précision de suivi et en taux de succès d'insertion non seulement les méthodes automatisées existantes, mais aussi les opérateurs humains lors des expériences menées, tout en réduisant le temps de procédure. Le guidage échographique reste l'une des modalités les plus utilisées pour les interventions percutanées, mais sa fiabilité dépend fortement de l'expérience du praticien et de la qualité de l'image, deux facteurs très variables en clinique. Les approches à base de vision par ordinateur ont progressé ces dernières années, mais aucune n'avait encore proposé un modèle aussi unifié et adaptatif. Ce travail s'inscrit dans une tendance plus large d'application des grands modèles multimodaux à la robotique chirurgicale, un domaine où des acteurs académiques et industriels comme Intuitive Surgical ou Activ Surgical investissent massivement. Les prochaines étapes naturelles concernent la validation sur des patients réels et l'intégration dans des blocs opératoires, avec toutes les contraintes réglementaires que cela implique.

UELa validation clinique et l'intégration en bloc opératoire devront se conformer au règlement européen sur les dispositifs médicaux (MDR), conditionnant tout déploiement futur en Europe.

RobotiqueActu
1 source
QuadPiPS : planificateur de pas pour quadrupèdes avec perception et prédiction d'affordances sémantiques
14arXiv cs.RO 

QuadPiPS : planificateur de pas pour quadrupèdes avec perception et prédiction d'affordances sémantiques

Des chercheurs ont publié QuadPiPS, un système de planification de pas pour robots quadrupèdes qui intègre la perception visuelle en temps réel pour naviguer sur des terrains complexes. Le système repose sur une représentation locale appelée "legged egocan", une carte ego-centrique de l'environnement immédiat du robot qui combine des données géométriques et sémantiques pour identifier les zones de pose sûres. Pour planifier les mouvements, QuadPiPS segmente le sol en "superpixels", des régions planes candidates pour les appuis, puis calcule des trajectoires optimisées entre ces points d'appui via des méthodes d'optimisation non linéaire. Le tout est exécuté sous contrôle prédictif de modèle (MPC) et contrôle de corps entier. Les tests ont été menés sur dix environnements de simulation avec cinq systèmes de référence, puis validés physiquement sur le quadrupède Unitree Go2 équipé d'un calculateur embarqué sur mesure, ainsi que sur le robot ANYmal C de ANYbotics. Les résultats montrent que QuadPiPS surpasse ses concurrents dans les scénarios à faible nombre de points d'appui disponibles, précisément les situations les plus dangereuses pour un robot mobile. C'est dans ces environnements critiques, comme des terrains escarpés, des surfaces trouées ou des obstacles rapprochés, que la planification précise des pas fait toute la différence entre un robot qui trébuche et un système fiable. La capacité à raisonner sur les affordances du terrain en temps réel ouvre la voie à un déploiement dans des milieux industriels risqués, des opérations de recherche en zone sinistrée ou l'inspection d'infrastructures inaccessibles. La locomotion des robots à pattes reste l'un des défis majeurs de la robotique mobile : contrairement aux robots à roues, ils doivent planifier chaque appui individuellement en tenant compte de la dynamique du corps entier. QuadPiPS s'appuie sur le cadre de planification ALEF, qu'il étend en séparant explicitement les sous-espaces de décision discrets et continus pour gagner en efficacité. L'essor des LLM embarqués et des capteurs compacts rend ce type d'approche perception-action de plus en plus viable hors laboratoire, et les prochaines étapes devraient viser une intégration dans des pipelines de navigation autonome plus larges.

RobotiqueActu
1 source
FingerEye : capteur vision-tactile continu et unifié pour la manipulation dextère
15arXiv cs.RO 

FingerEye : capteur vision-tactile continu et unifié pour la manipulation dextère

Des chercheurs du laboratoire LINS de l'Université nationale de Singapour ont présenté FingerEye, un capteur robotique compact et peu coûteux capable de combiner vision et toucher de manière continue tout au long d'une interaction physique. Publié sur arXiv le 28 avril 2025, le système intègre deux caméras RGB binoculaires pour percevoir l'environnement à courte portée avant tout contact, puis capte les déformations d'un anneau souple instrumenté de marqueurs pour mesurer les forces et couples exercés au moment où le robot touche un objet. Cette architecture permet une transition fluide entre perception visuelle pré-contact et retour tactile post-contact, le tout dans un unique capteur monté sur les doigts d'un bras robotique. Les chercheurs ont également développé une politique d'apprentissage par imitation qui fusionne les signaux de plusieurs capteurs FingerEye pour apprendre des comportements de manipulation à partir d'un nombre limité de démonstrations réelles, en s'appuyant sur un jumeau numérique du système pour renforcer la généralisation. La majorité des capteurs tactiles existants, comme GelSight et ses variantes, ne fournissent de retour d'information qu'une fois le contact établi, ce qui empêche le robot d'ajuster sa trajectoire lors de l'approche. FingerEye supprime cette lacune en offrant une boucle de perception ininterrompue, ce qui améliore sensiblement la précision des gestes fins. Les expériences menées montrent que le système parvient à réaliser des tâches délicates variées : faire tenir une pièce de monnaie debout, saisir une chip individuelle, extraire une lettre d'une enveloppe ou manipuler une seringue, autant de scénarios qui exigent une coordination précise entre vue et toucher. La manipulation dextre reste l'un des problèmes les plus difficiles de la robotique, car elle suppose de gérer simultanément la localisation d'un objet et les forces exercées sur lui. La plupart des approches séparent ces deux modalités ou ne traitent qu'une phase de l'interaction. FingerEye s'inscrit dans un courant de recherche plus large visant à doter les robots de capteurs multimodaux proches des capacités sensorielles humaines. L'intégration d'un jumeau numérique permet par ailleurs de générer des données simulées enrichies visuellement pour améliorer la robustesse aux variations d'apparence des objets, réduisant ainsi la dépendance aux coûteuses démonstrations en conditions réelles. Le code, les fichiers de conception matérielle et les vidéos sont disponibles sur le site du projet.

RobotiqueActu
1 source
Apprentissage du contrôle multimodal du corps entier pour robots humanoïdes réels
16arXiv cs.RO 

Apprentissage du contrôle multimodal du corps entier pour robots humanoïdes réels

Des chercheurs en robotique ont publié sur arXiv une avancée notable dans le contrôle des robots humanoïdes, présentant le Masked Humanoid Controller (MHC), un système d'apprentissage automatique capable de piloter l'ensemble du corps d'un robot à partir d'une interface unifiée. Concrètement, le MHC reçoit des commandes sous forme de trajectoires partiellement spécifiées, seules certaines parties du corps sont ciblées à la fois, et les exécute en maintenant l'équilibre général de la machine. Le système a été validé sur le robot humanoïde réel Digit V3 du fabricant Agility Robotics, démontrant que les comportements appris en simulation se transfèrent effectivement au monde physique. Ce qui distingue le MHC, c'est sa capacité à traiter des entrées radicalement différentes avec un seul contrôleur : séquences de pas planifiées par un algorithme d'optimisation, clips de capture de mouvement humain, vidéos retransposées sur le robot, ou signaux de téléopération en temps réel via joystick. Jusqu'ici, chacun de ces modes nécessitait généralement un pipeline dédié. Cette unification simplifie considérablement l'architecture des systèmes robotiques et ouvre la voie à des robots capables de recevoir des instructions hybrides, par exemple suivre une trajectoire planifiée tout en imitant simultanément des gestes captés sur une vidéo. Le problème du contrôle corps entier est l'un des verrous majeurs de la robotique humanoïde commerciale, alors que des acteurs comme Boston Dynamics, Figure AI ou Tesla Optimus investissent massivement dans ce secteur. La tendance actuelle consiste à entraîner des contrôleurs en simulation, moins coûteux et plus sûr, puis à les transférer sur du matériel réel, une approche que le MHC illustre avec le Digit V3. L'utilisation d'un curriculum d'entraînement couvrant l'ensemble des modalités d'entrée est la clé qui permet cette polyvalence sans sacrifier la robustesse. Les prochaines étapes logiques concerneront l'intégration de modèles de langage comme interface de haut niveau, permettant à terme de donner des instructions verbales à un humanoïde qui les traduirait en commandes motrices complexes.

RobotiqueActu
1 source
JoyAI-RA 0.1 : un modèle de base pour l'autonomie robotique
17arXiv cs.RO 

JoyAI-RA 0.1 : un modèle de base pour l'autonomie robotique

Des chercheurs ont publié le 28 avril 2026 sur arXiv un nouveau modèle de fondation baptisé JoyAI-RA 0.1, conçu pour doter les robots d'une autonomie généralisable dans des environnements réels et variés. Ce modèle de type vision-langage-action (VLA) s'appuie sur un cadre d'entraînement multi-sources et multi-niveaux inédit : il combine des données issues du web, des vidéos en vue subjective de manipulations humaines à grande échelle, des trajectoires générées par simulation, et des données collectées sur de vrais robots. Selon les résultats présentés, JoyAI-RA surpasse les méthodes les plus avancées sur des benchmarks en simulation comme en environnement réel, particulièrement sur des tâches variées nécessitant une capacité de généralisation. L'enjeu central de ce travail est la généralisation inter-robots, un problème récurrent dans le domaine : les modèles entraînés sur un type de robot peinent à s'adapter à d'autres architectures mécaniques ou capteurs différents. JoyAI-RA propose une unification explicite des espaces d'action, ce qui lui permet de transférer efficacement des comportements appris depuis des vidéos de manipulation humaine vers le contrôle robotique. Ce pont entre geste humain et mouvement machine est particulièrement prometteur pour réduire les coûts de collecte de données et accélérer le déploiement de robots polyvalents dans des contextes industriels, logistiques ou domestiques. La robotique autonome bute depuis des années sur deux obstacles structurels : la faible diversité des jeux de données disponibles et l'impossibilité de réutiliser des comportements appris d'un robot à l'autre. JoyAI-RA s'inscrit dans une tendance de fond qui voit émerger des modèles de fondation généralistes pour la robotique, à l'image de RT-2 de Google DeepMind ou d'OpenVLA. La particularité de cette approche réside dans l'intégration massive de vidéos de manipulation humaine comme source de supervision implicite, une stratégie qui contourne partiellement la rareté des données robotiques annotées. La publication en version 0.1 suggère que l'équipe, vraisemblablement liée à l'écosystème chinois au vu du nom JoyAI, entend faire évoluer ce modèle rapidement.

RobotiqueOpinion
1 source
OmniUMI : vers un apprentissage robotique ancré dans le monde physique par interaction multimodale alignée sur l'humain
18arXiv cs.RO 

OmniUMI : vers un apprentissage robotique ancré dans le monde physique par interaction multimodale alignée sur l'humain

Des chercheurs ont présenté OmniUMI, un nouveau cadre d'apprentissage robotique conçu pour dépasser les limites des systèmes actuels en intégrant des données multimodales physiquement ancrées. Là où les interfaces de type UMI existantes se limitent à des observations visuelles RGB et des trajectoires, OmniUMI capture simultanément six types de données : images RGB, profondeur, trajectoire, retour tactile, force de préhension interne et couple d'interaction externe. Ce dispositif tient dans la main et maintient une cohérence entre la phase de collecte des démonstrations humaines et le déploiement sur le robot, grâce à une conception d'embodiment partagé. Les politiques apprises reposent sur une extension de la diffusion policy intégrant ces signaux visuels, tactiles et de force, déployée via une exécution à impédance pour réguler conjointement le mouvement et le contact. Les expériences valident le système sur des tâches comme le saisissement et le dépôt sensibles à la force, l'effacement de surface interactif, et le relâchement sélectif guidé par le toucher. La portée de cette avancée tient à un problème fondamental de la robotique : les tâches impliquant un contact physique riche, comme assembler des pièces fragiles, manipuler des objets déformables ou effectuer des gestes précis avec pression calibrée, restent hors de portée des systèmes purement visuels. La vision seule ne peut pas inférer la dynamique de contact, la force exercée, ni les micro-glissements tactiles. En permettant au démonstrateur humain de percevoir et moduler naturellement ces forces via un retour bilatéral du préhenseur, OmniUMI aligne la démonstration humaine sur la réalité physique du robot, rendant les données collectées directement exploitables. Le contexte est celui d'une course à la manipulation robotique généraliste, où des laboratoires et entreprises comme Google DeepMind, Physical Intelligence ou Boston Dynamics investissent massivement. Les interfaces UMI, popularisées ces dernières années pour leur facilité de collecte de données à grande échelle, butaient précisément sur ce mur du toucher et de la force. OmniUMI ouvre une voie vers des systèmes capables d'apprendre des tâches industrielles ou médicales où la précision physique est critique, tout en conservant le paradigme de démonstration humaine qui a fait le succès des approches d'imitation à grande échelle.

RobotiqueOpinion
1 source
Apprentissage de l'assemblage tenon-mortaise par désassemblage visuo-tactile
19arXiv cs.RO 

Apprentissage de l'assemblage tenon-mortaise par désassemblage visuo-tactile

Des chercheurs ont publié sur arXiv (référence 2604.20712) un nouveau cadre d'apprentissage pour les robots chargés d'effectuer des assemblages de type "goupille dans un trou" (peg-in-hole, PiH), une tâche de manipulation fondamentale en robotique industrielle. L'idée centrale : plutôt que d'entraîner directement le robot sur cette tâche difficile, l'équipe lui apprend d'abord la tâche inverse, retirer une goupille d'un trou (peg-out-of-hole, PooH), puis utilise ces trajectoires inversées temporellement comme données d'expertise pour maîtriser l'insertion. Le système combine deux modalités sensorielles, la vision et le toucher, formalisées dans un cadre de processus de décision markovien partiellement observable. Les résultats sont convaincants : un taux de réussite moyen de 87,5 % sur des géométries déjà vues en entraînement, et de 77,1 % sur des objets inédits, soit une amélioration de 18,1 points de pourcentage par rapport aux méthodes d'apprentissage par renforcement classiques partant de zéro. Les forces de contact mesurées lors des assemblages sont également 6,4 % inférieures à celles des systèmes n'utilisant qu'une seule modalité sensorielle. L'enjeu de cette avancée est considérable pour l'automatisation industrielle. L'assemblage de pièces mécaniques avec précision reste l'un des goulots d'étranglement de la robotique manufacturière : un robot qui rate son insertion peut bloquer une ligne de production entière ou endommager des composants coûteux. La combinaison vision-toucher permet ici au robot de s'approcher du trou grâce aux informations visuelles, puis de corriger des désalignements millimétriques grâce aux capteurs tactiles, reproduisant le geste naturel d'un technicien humain qui "sent" la résistance avant d'ajuster. La généralisation à des objets non vus lors de l'entraînement est particulièrement prometteuse pour un déploiement industriel réel, où les pièces varient constamment d'un lot à l'autre. La tâche peg-in-hole est un problème de référence en robotique depuis les années 1980, longtemps résolu par des méthodes analytiques rigides, peu adaptables. L'apprentissage par renforcement a ouvert de nouvelles perspectives, mais se heurte à un obstacle majeur : l'exploration est coûteuse et risquée, chaque tentative ratée pouvant provoquer des chocs mécaniques. La clé de l'approche proposée est d'exploiter l'asymétrie entre insertion et extraction : retirer une goupille ne nécessite pas d'alignement précis et génère des données d'entraînement bien plus facilement. Le code, les démonstrations vidéo et les jeux de données de l'équipe sont disponibles en ligne, ce qui pourrait accélérer l'adoption de ce type d'apprentissage hybride dans la communauté robotique internationale.

UECette avancée en assemblage robotisé précis pourrait bénéficier à l'industrie manufacturière européenne (automobile, aéronautique), mais l'article ne cite aucun acteur ou programme européen spécifique.

RobotiquePaper
1 source
Cadre cinématique pour évaluer les configurations de pincement en robotique, sans modèle d'objet ni de contact
20arXiv cs.RO 

Cadre cinématique pour évaluer les configurations de pincement en robotique, sans modèle d'objet ni de contact

Des chercheurs ont publié sur arXiv (référence 2604.20692) un cadre d'évaluation cinématique permettant d'analyser les configurations de pincement des mains robotiques sans avoir recours à des modèles d'objets ni à des modèles de force de contact. La méthode repose sur le calcul de l'espace de travail atteignable par chaque bout de doigt à partir des configurations articulaires, puis sur la détection de configurations de pincement réalisables en évaluant les relations géométriques entre les paires de bouts de doigts. Quatre structures cinématiques différentes de main ont été comparées afin d'examiner leur influence sur les configurations de pincement possibles. Pour les concepteurs de mains robotiques, cet apport est concret : il devient possible d'évaluer la dextérité de préhension d'un prototype dès les premières phases de conception, sans avoir à modéliser les objets à saisir ni à simuler les forces de contact. Ces étapes, traditionnellement coûteuses en temps de calcul et en données, constituaient un frein majeur à l'itération rapide sur les designs. En permettant une évaluation fondée uniquement sur la structure cinématique de la main, le framework ouvre la voie à des cycles de développement plus courts et à une comparaison objective entre différentes architectures mécaniques. La robotique de manipulation traverse une période d'intense compétition, portée par l'essor des robots humanoïdes et des bras industriels autonomes. Les mains robotiques dotées d'une dextérité fine restent l'un des grands défis non résolus du secteur, que ce soit pour des usages industriels ou médicaux. Les méthodes d'évaluation existantes supposent généralement que l'objet à manipuler est connu à l'avance, ce qui les rend peu utiles lors des premières étapes de conception matérielle. Ce travail s'inscrit dans un courant de recherche visant à abstraire l'évaluation de la dextérité, et pourrait à terme être intégré dans des outils de conception assistée par ordinateur pour accélérer le développement de nouvelles générations de mains robotiques polyvalentes.

RobotiqueActu
1 source
Avantages de la bio-inspiration économique à l'ère de la surparamétrisation
21arXiv cs.RO 

Avantages de la bio-inspiration économique à l'ère de la surparamétrisation

Des chercheurs ont publié sur arXiv (arXiv:2604.20365) une étude empirique comparant deux grandes familles de contrôleurs pour robots : les générateurs de patterns centraux (CPG), inspirés de la neurologie animale, et les perceptrons multicouches (MLP), omniprésents en apprentissage automatique. L'expérience soumet un robot à proprioception limitée à des protocoles d'optimisation variés, en faisant varier systématiquement la taille des espaces de paramètres sous deux régimes d'entraînement, évolutionnaire et par renforcement, et en mesurant les performances sur plusieurs fonctions de récompense. Le résultat central contredit une intuition répandue dans le domaine : plus de paramètres ne signifie pas de meilleures performances. Dans les contextes où les espaces d'entrée et de sortie sont restreints et où les gains maximaux sont bornés, les architectures légères, MLP peu profonds et CPG densément connectés, surpassent systématiquement les MLP profonds et les architectures Actor-Critic du renforcement. Pour quantifier cet écart, les auteurs introduisent une métrique inédite baptisée "Parameter Impact", qui mesure la proportion de paramètres supplémentaires se traduisant effectivement en gains de performance. Les résultats montrent que les paramètres additionnels exigés par les méthodes de renforcement ne produisent aucun bénéfice mesurable, plaidant en faveur des stratégies évolutionnaires sur ce type de tâche. Ce travail s'inscrit dans un débat de fond qui traverse la robotique et l'IA : l'ère des grands modèles a installé un réflexe de surparamétrage, mais cette logique ne se transfère pas uniformément à tous les problèmes. Les CPG sont une approche bio-inspirée classique, calquée sur les circuits neuronaux responsables de la locomotion animale, et longtemps délaissée au profit des réseaux profonds. L'étude rappelle que pour des morphologies robotiques contraintes, la frugalité computationnelle peut être une force, et non un compromis. Ces résultats ouvrent des pistes concrètes pour la conception de contrôleurs embarqués efficaces sur des robots à faibles ressources, un enjeu central pour la robotique mobile et les systèmes autonomes déployés hors datacenter.

RobotiqueOpinion
1 source
Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle
22arXiv cs.RO 

Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle

Des chercheurs ont publié sur arXiv (référence 2604.20686) un cadre méthodologique permettant d'optimiser les proportions des phalanges dans les mains robotiques à cinq doigts, sans avoir à définir au préalable des objets précis ou des tâches de manipulation. Le système repose sur quatre métriques d'évaluation : la manipulabilité globale, le volume de l'espace de travail atteignable, le volume d'espace de travail partagé entre les doigts, et la sensibilité des extrémités. L'espace de travail est discrétisé via une représentation en voxels, et les mouvements articulaires sont découpés à intervalles uniformes pour permettre une évaluation systématique. L'optimisation s'applique séparément au pouce et aux quatre autres doigts, en excluant les combinaisons de conception qui ne génèrent pas de chevauchement d'espace de travail entre les doigts. Ce travail répond à un problème concret du développement robotique : jusqu'ici, évaluer quantitativement l'impact des ratios de longueur des phalanges sur la dextérité nécessitait de simuler des scénarios de manipulation spécifiques, ce qui rendait la phase de conception longue et peu généralisable. En proposant une fonction objectif pondérée applicable dès la phase de conception cinématique, les auteurs offrent aux ingénieurs un outil de décision précoce, indépendant des cas d'usage. Les résultats montrent que chaque phalange ne contribue pas de manière égale à la dextérité globale, et que le choix des coefficients de pondération ne conduit pas mécaniquement à maximiser chaque indicateur individuellement, en raison de la distribution non uniforme des mesures dans l'espace de conception. La conception des mains robotiques multi-doigts constitue l'un des défis persistants de la robotique humanoïde et de la manipulation industrielle. Des acteurs comme Boston Dynamics, Shadow Robot ou Agility Robotics investissent massivement dans la dextérité des effecteurs, qui conditionne directement l'utilisabilité des robots dans des environnements non structurés. Ce cadre méthodologique, en analysant systématiquement les compromis entre accessibilité, dextérité et contrôlabilité, pourrait accélérer les cycles de prototypage et s'imposer comme référence dans la conception cinématique des mains robotiques de nouvelle génération.

RobotiquePaper
1 source
Stratégie de planification par apprentissage coopératif autonome intégrant l'incertitude
23arXiv cs.RO 

Stratégie de planification par apprentissage coopératif autonome intégrant l'incertitude

Des chercheurs ont publié sur arXiv un nouveau cadre algorithmique baptisé DRLACP (Deep Reinforcement Learning-based Autonomous Cooperative Planning), conçu pour améliorer la coordination entre véhicules autonomes dans des environnements de circulation complexes. Le système s'appuie sur une combinaison de deux techniques d'apprentissage automatique : le Soft Actor-Critic (SAC), un algorithme d'apprentissage par renforcement réputé pour sa robustesse, et les Gate Recurrent Units (GRU), un type de réseau de neurones récurrents capable de traiter des séquences temporelles. Les performances du système ont été évaluées sur CARLA, une plateforme de simulation open-source largement utilisée dans la recherche sur la conduite autonome. L'enjeu central est de traiter simultanément trois catégories d'incertitudes qui affectent les systèmes de planification coopérative actuels : les incertitudes de perception (données sensorielles imprécises ou manquantes), de planification (décisions sous information incomplète) et de communication (latences ou pertes de données entre véhicules). Les approches existantes ne parviennent généralement à gérer qu'une ou deux de ces sources d'erreur. Selon les auteurs, DRLACP surpasse les méthodes de référence testées dans plusieurs scénarios de simulation avec des informations d'état imparfaites, ce qui représente une avancée concrète pour la fiabilité des systèmes multi-véhicules. La planification coopérative autonome est considérée comme une brique fondamentale des systèmes de transport intelligents de demain, où des flottes de véhicules doivent coordonner leurs trajectoires en temps réel pour maximiser fluidité et sécurité. La difficulté réside dans la nature distribuée de ces systèmes : chaque véhicule perçoit partiellement son environnement et communique avec ses voisins dans des conditions réseau variables. Les travaux sur DRLACP s'inscrivent dans une tendance plus large qui cherche à rendre ces algorithmes opérationnels hors des conditions idéales des laboratoires. La prochaine étape naturelle sera de valider ces résultats sur des données réelles et dans des scénarios urbains plus denses que ceux testés en simulation.

UEContribution académique indirectement pertinente pour l'industrie automobile européenne (Stellantis, Renault, Volkswagen) engagée dans la conduite coopérative, mais les résultats restent cantonnés à la simulation CARLA et sont loin d'un déploiement industriel.

RobotiquePaper
1 source
Cartographie sûre de champs scalaires par transformée de Hough et processus gaussiens
24arXiv cs.RO 

Cartographie sûre de champs scalaires par transformée de Hough et processus gaussiens

Des chercheurs ont publié, le 29 avril 2026, un article présenté sur arXiv (référence 2604.20799) décrivant un système permettant à un robot autonome de cartographier des champs scalaires inconnus tout en évitant automatiquement les zones dangereuses. Le cadre proposé repose sur deux composants mathématiques combinés : les processus gaussiens (GP), qui modélisent la distribution spatiale du champ mesuré, et la transformée de Hough (HT), qui détecte en temps réel la géométrie des zones à haute intensité. Concrètement, un robot équipé de capteurs doit mesurer un champ physique, par exemple d'intensité lumineuse ou de radiation, sans jamais pénétrer dans les régions où la valeur dépasse un seuil de sécurité prédéfini. La validation repose sur deux études de simulation numérique et une expérience en intérieur impliquant un robot mobile à roues cartographiant un champ d'intensité lumineuse. L'enjeu concret est de permettre une exploration robuste et sécurisée dans des environnements potentiellement hostiles, tels que des zones de radiation, des champs électromagnétiques intenses ou des atmosphères chimiques, sans exposer le robot à des dommages irréversibles. L'approche bayésienne des processus gaussiens offre un double avantage : elle fournit non seulement une estimation de la valeur du champ en tout point, mais aussi une mesure d'incertitude associée, permettant au système de planifier ses déplacements avec des garanties probabilistes de sécurité. Cela dépasse les approches classiques qui traitent sécurité et cartographie comme deux problèmes séparés. Ce travail s'inscrit dans un champ de recherche actif sur la robotique d'exploration intelligente, où la demande croissante pour des robots capables d'opérer sans supervision humaine dans des environnements extrêmes, nucléaires, industriels ou de défense, pousse à intégrer des garanties formelles de sécurité directement dans la boucle de planification. La transformée de Hough, outil historiquement utilisé en vision par ordinateur pour détecter des formes géométriques, est ici réinterprétée comme un estimateur structurel de zones à risque à partir de données capteurs partielles. Les prochaines étapes naturelles de ce travail incluront des tests en environnements réels non contrôlés et l'extension à des champs vectoriels ou des robots multi-agents.

RobotiquePaper
1 source
Impédance variable passive pour le contrôle partagé
25arXiv cs.RO 

Impédance variable passive pour le contrôle partagé

Des chercheurs ont publié un nouveau travail, référencé arXiv:2604.20557, portant sur la stabilisation des systèmes de contrôle partagé en robotique. L'approche proposée s'attaque à un problème précis : lorsqu'un bras robotique est guidé simultanément vers plusieurs objectifs de position avec des priorités variables, les forces générées par chaque objectif doivent être combinées de façon cohérente. Les auteurs reformulent ce problème dans un cadre unifié, couvrant à la fois le contrôle d'impédance à raideur variable et l'arbitrage entre plusieurs contrôleurs par sommation pondérée de leurs sorties en couple et en force. Le cœur de la contribution réside dans l'identification de violations de passivité dans le système en boucle fermée, un phénomène qui peut rendre le système instable lorsque les gains de raideur ou les pondérations changent au fil du temps. La passivité est une propriété physique fondamentale garantissant qu'un système ne génère pas d'énergie de lui-même, condition nécessaire à la stabilité dans les interactions physiques homme-robot. Les méthodes proposées corrigent ces violations sans imposer de contraintes sur la forme des matrices de raideur : celles-ci peuvent inclure des termes hors diagonale et évoluer arbitrairement dans le temps, ce qui offre une flexibilité inédite pour concevoir des comportements de guidage complexes et adaptatifs. Les expériences menées en simulation et sur des robots réels sur plusieurs plateformes confirment l'efficacité de l'approche. Le contrôle partagé, qui consiste à partager la commande d'un robot entre une intention humaine et une assistance automatique, est un enjeu central en robotique collaborative, en assistance médicale et en téléopération. Les approches actuelles peinent à combiner robustesse et flexibilité dès que le contexte évolue dynamiquement. En proposant un cadre générique qui stabilise les contrôleurs d'impédance standards tout en autorisant des arbitrages fluides entre plusieurs objectifs concurrents, ce travail ouvre la voie à des assistants robotiques capables de s'adapter en temps réel aux besoins de l'utilisateur sans compromettre la sécurité de l'interaction physique.

RobotiqueOpinion
1 source
CubeDAgger : apprentissage par imitation interactif pour systèmes dynamiques, avec une interaction efficace et à faible risque
26arXiv cs.RO 

CubeDAgger : apprentissage par imitation interactif pour systèmes dynamiques, avec une interaction efficace et à faible risque

Des chercheurs ont publié CubeDAgger, une nouvelle méthode d'apprentissage par imitation interactive conçue pour les systèmes robotiques dynamiques. Présentée dans un article soumis à arXiv (identifiant 2505.04897), elle s'appuie sur un cadre existant appelé EnsembleDAgger et y apporte trois améliorations distinctes : une régularisation explicite du seuil de déclenchement des corrections humaines, un mécanisme de consensus entre plusieurs candidats d'action en lieu et place du simple basculement entre expert et agent, et enfin l'injection d'un bruit coloré autorégressif dans les actions du robot pour garantir une exploration cohérente dans le temps. Les expériences réelles ont été conduites sur une tâche de ramassage avec une cuillère, un robot apprenant à exécuter ce geste correctement à partir de zéro en seulement 30 minutes d'interaction avec un expert humain. L'enjeu central que CubeDAgger cherche à résoudre est la stabilité dynamique, un problème négligé par la majorité des méthodes actuelles. Les algorithmes d'apprentissage par imitation interactive existants fonctionnent bien pour des tâches statiques, où l'expert peut intervenir ponctuellement sans perturber le comportement du robot. Mais dès que la tâche implique du mouvement continu, ramasser un objet, stabiliser une trajectoire, un basculement brutal entre le mode expert et le mode autonome provoque des à-coups mécaniques qui compromettent la sécurité et la fiabilité. CubeDAgger réduit ces discontinuités, ce qui le rend pertinent pour des applications industrielles ou médicales où la précision du geste est critique. L'apprentissage par imitation interactive, dont DAgger est le pionnier depuis 2011, reste une approche de référence pour entraîner des politiques robotiques robustes sans nécessiter des millions d'exemples. Le défi a toujours été de minimiser la charge imposée à l'expert humain tout en conservant la qualité de l'apprentissage. Les variantes récentes comme EnsembleDAgger avaient progressé sur ce point, mais butaient sur les tâches dynamiques. CubeDAgger s'inscrit dans une tendance plus large visant à rendre la robotique apprenante opérationnelle en dehors des environnements contrôlés de laboratoire, avec des horizons d'application dans la logistique, la chirurgie assistée, ou encore les robots d'assistance domestique.

RobotiqueOpinion
1 source
Pony.ai lance des tests de robotaxi sans conducteur à Dubaï et vise un déploiement commercial en 2026
27Pandaily 

Pony.ai lance des tests de robotaxi sans conducteur à Dubaï et vise un déploiement commercial en 2026

Pony.ai, entreprise chinoise spécialisée dans la conduite autonome, a lancé des tests de robotaxis entièrement sans chauffeur à Dubaï, franchissant une étape décisive dans son expansion au Moyen-Orient. La société, cotée au Nasdaq, collabore depuis plusieurs mois avec la Roads and Transport Authority (RTA) de Dubaï, et avait obtenu l'autorisation de tester sur voie publique dès septembre 2025. Les essais se déroulent désormais dans des conditions de circulation variées, sans aucun opérateur humain à bord. Le PDG James Peng a confirmé que le déploiement commercial est ciblé pour le second semestre 2026, avec un objectif de plus de 3 000 robotaxis opérationnels dans plus de 20 villes à travers le monde d'ici la fin de l'année, dont près de la moitié en dehors de la Chine. Ce cap est stratégiquement important pour Pony.ai, qui cherche à prouver que son modèle économique, déjà rentabilisé à l'échelle du véhicule à Guangzhou et Shenzhen, peut se répliquer à l'international. Dubaï représente l'un des marchés de mobilité intelligente les plus ambitieux au monde : la ville vise qu'un quart de tous ses déplacements soient autonomes d'ici 2030, dans le cadre de son programme "Smart City 2030". Réussir à Dubaï ouvre la voie à d'autres contrats régionaux et valide la capacité de l'entreprise à s'adapter à des environnements réglementaires et routiers très différents de la Chine. La stratégie internationale de Pony.ai repose sur un modèle dit "partner-driven" : ce sont des opérateurs locaux qui fournissent les véhicules et le support opérationnel, tandis que Pony.ai apporte sa technologie et son logiciel. Ce montage limite les besoins en capital propre et accélère le déploiement marché par marché. Outre Dubaï, des projets sont en cours à Doha et Zagreb. Cette expansion s'inscrit dans une stratégie "double moteur" combinant consolidation du marché chinois et internationalisation accélérée, alors que la concurrence mondiale dans le secteur des véhicules autonomes s'intensifie face à Waymo, WeRide et d'autres acteurs montants.

UEUn déploiement est évoqué à Zagreb (Croatie, UE) mais sans détails concrets, sans impact direct sur le marché français ou les régulations européennes à ce stade.

RobotiqueOpinion
1 source
X Square Robot lance WALL-B, un modèle d'IA embarquée pour usage domestique
28Pandaily 

X Square Robot lance WALL-B, un modèle d'IA embarquée pour usage domestique

La startup chinoise X Square Robot a présenté le 21 avril 2026 WALL-B, qu'elle décrit comme le premier modèle fondamental d'IA incarnée au monde basé sur une architecture World Unified Model (WUM). Contrairement aux approches traditionnelles de type Vision-Language-Action (VLA), WALL-B fusionne nativement la vision, le langage, le mouvement et la prédiction physique dans un entraînement conjoint. Le modèle repose sur trois capacités clés : la multimodalité native, la compréhension de la dynamique du monde physique, et la capacité d'auto-amélioration après un échec. Pour construire ce modèle, X Square Robot a utilisé une combinaison de données expérimentales et de scénarios réels, incluant des données collectées dans des centaines de foyers. La société a annoncé qu'en l'espace de 35 jours, des robots équipés de WALL-B et d'un hardware amélioré seront déployés dans de vraies maisons, avec un recrutement d'utilisateurs déjà lancé. Des détails techniques supplémentaires seront dévoilés le 27 avril lors de la première conférence sur les applications de l'IA du Guangdong. Ce lancement marque une rupture significative dans la robotique domestique. Les architectures VLA classiques souffrent de pertes d'information entre leurs modules et peinent à modéliser la physique du monde réel, deux limitations directement adressées par WALL-B. La capacité d'auto-évolution après l'échec est particulièrement notable : elle permettrait à un robot de s'adapter aux imprévus du quotidien sans intervention humaine, ce qui est le principal obstacle à la commercialisation grand public de robots domestiques. Pour les utilisateurs, cela ouvre la voie à des assistants capables de naviguer dans l'environnement complexe et imprévisible d'un foyer réel. La Chine investit massivement dans la robotique humanoïde et incarnée, avec une concurrence intense entre startups locales et géants comme Huawei ou Xiaomi. X Square Robot s'inscrit dans cette dynamique en ciblant explicitement le marché résidentiel, là où des acteurs comme Figure AI ou Boston Dynamics se concentrent davantage sur l'industrie. Pour lever les freins liés à la vie privée, la société a intégré une anonymisation visuelle locale, une autorisation explicite des utilisateurs et des restrictions d'usage strictes. La prochaine étape sera le déploiement en conditions réelles dans des foyers, un test grandeur nature qui déterminera si l'approche WUM tient ses promesses face aux exigences du monde domestique.

RobotiqueActu
1 source
L'armée américaine déploie des robots pour la logistique de proximité et l'évacuation des blessés en zone de combat
29Interesting Engineering 

L'armée américaine déploie des robots pour la logistique de proximité et l'évacuation des blessés en zone de combat

L'armée américaine a publié un appel à solutions commerciales, dont la date limite est fixée au 28 avril 2026, pour développer un véhicule terrestre sans pilote capable d'assurer deux missions critiques en zone de combat : le ravitaillement de première ligne et l'évacuation des blessés. Le robot doit pouvoir transporter suffisamment de vivres, munitions et matériel médical pour soutenir un peloton de fusiliers et un état-major de compagnie, tout en étant capable d'emporter au moins deux blessés depuis leur point de blessure jusqu'à un poste de collecte désigné. Le système devra fonctionner en télé-opération comme en navigation autonome, y compris hors des routes et sans signal GPS, et minimiser ses émissions électromagnétiques pour réduire sa détectabilité. Ce besoin répond à une vulnérabilité concrète qui coûte des vies : le "dernier kilomètre tactique" est devenu l'un des segments les plus meurtriers du champ de bataille moderne. Les drones ennemis assurent désormais une surveillance quasi permanente des lignes de front, rendant chaque mouvement de troupe exposé aux tirs d'artillerie et aux tireurs d'élite. L'armée reconnaît explicitement que cette pression permanente entrave la capacité des commandants à ravitailler leurs unités et à évacuer les blessés dans des délais acceptables. En remplaçant des soldats par une plateforme robotisée pour ces missions, l'objectif est de maintenir l'efficacité opérationnelle tout en retirant des hommes des zones les plus dangereuses. Ce projet s'inscrit dans la continuité d'efforts déjà engagés, notamment le programme Small Multipurpose Equipment Transport (S-MET), et de systèmes existants comme le Hunter Wolf de HDT Robotics, un robot de transport lourd déjà capable d'intégrer des armements. Mais l'urgence s'est nettement accélérée sous l'effet des leçons tirées du conflit en Ukraine, où les forces ukrainiennes ont largement adopté les robots pour la logistique et l'évacuation sanitaire de première ligne, faute de pouvoir exposer du personnel humain sous la surveillance drone omniprésente. L'armée américaine cherche à aller plus loin en dotant directement les unités de manœuvre d'un soutien robotisé organique, sans dépendre d'une chaîne logistique arrière. Si un système est sélectionné, il pourrait redéfinir l'organisation des unités de combat et accélérer la robotisation d'autres tâches à risque sur des champs de bataille de plus en plus instrumentés.

UELes leçons tirées du conflit en Ukraine, moteur explicite de cette initiative américaine, alimentent directement les réflexions des armées européennes, dont l'armée française, sur la robotisation de leur soutien logistique et sanitaire de première ligne.

RobotiqueOpinion
1 source
Un robot origami au corps souple se déplace sans moteur ni engrenage
30New Atlas Robotics 

Un robot origami au corps souple se déplace sans moteur ni engrenage

Des ingénieurs de l'Université Princeton ont conçu un robot mou capable de se déplacer sans aucun moteur ni engrenage. Le système s'appuie sur une combinaison de matériaux avancés sensibles à la chaleur, d'électronique flexible intégrée et de structures de pliage soigneusement calculées inspirées de l'origami japonais. En appliquant des variations thermiques précises, le robot produit des mouvements coordonnés, abandonnant entièrement les composants mécaniques traditionnels. Cette approche représente une rupture significative dans le domaine de la robotique molle. Les robots conventionnels dépendent de pièces rigides et d'actionneurs mécaniques, ce qui les rend fragiles, lourds et inadaptés à des environnements délicats, comme le corps humain, des espaces confinés ou des surfaces irrégulières. En éliminant les moteurs, ce prototype Princeton ouvre la voie à des robots médicaux implantables, à des assistants portables ultralégers, ou encore à des systèmes d'exploration capables de se faufiler dans des décombres sans endommager leur structure. La robotique molle est un champ de recherche en pleine expansion depuis plusieurs années, portée par des laboratoires universitaires et des acteurs industriels cherchant à dépasser les limites du métal et du plastique rigide. L'usage de l'origami comme principe mécanique est apparu au cours de la dernière décennie comme une piste prometteuse, notamment grâce aux progrès des matériaux intelligents réactifs aux stimuli externes. Les travaux de Princeton s'inscrivent dans cette dynamique et pourraient accélérer le développement de robots entièrement souples, alimentés par des sources d'énergie légères, pour des applications allant de la chirurgie mini-invasive à l'exploration spatiale.

RobotiqueActu
1 source
Project Ace de Sony AI, premier robot autonome à battre des professionnels de tennis de table
31Interesting Engineering 

Project Ace de Sony AI, premier robot autonome à battre des professionnels de tennis de table

Sony AI a présenté Project Ace, un système robotique autonome capable de battre des joueurs professionnels de tennis de table, marquant une première mondiale dans le domaine de l'intelligence artificielle physique. Le robot, développé dans les laboratoires de Sony AI à Zurich sous la direction de Peter Dürr, a été testé selon les règles officielles de la Fédération Internationale de Tennis de Table contre sept joueurs d'élite et professionnels. Ace a remporté trois matchs sur cinq contre des joueurs de niveau élite, avec un taux de retour supérieur à 75 % face à des effets atteignant 450 radians par seconde, et a marqué 16 points directs au service contre seulement 8 pour ses adversaires humains. Des matchs de suivi menés fin 2025 et début 2026 ont confirmé ces résultats en montrant des améliorations supplémentaires en vitesse de rally et en précision. La recherche, intitulée "Outplaying Elite Table Tennis Players with an Autonomous Robot", a été publiée en couverture de la revue Nature. Ce résultat est significatif parce qu'il comble un fossé que l'IA n'avait jamais franchi : celui des sports physiques rapides et imprévisibles. Contrairement aux jeux de plateau ou aux simulations numériques, le tennis de table exige une perception en temps réel, des décisions en quelques millisecondes et une coordination mécanique de haute précision. Ace y parvient grâce à neuf caméras haute vitesse pour le suivi 3D de la balle, des capteurs événementiels mesurant les effets et la vélocité angulaire, ainsi qu'un système d'apprentissage par renforcement qui adapte ses réponses à chaque échange plutôt que de suivre des règles prédéfinies. Selon Peter Stone, Chief Scientist de Sony AI, ce n'est pas tant une victoire sportive qu'une démonstration que l'IA peut désormais "percevoir, raisonner et agir efficacement dans des environnements réels complexes et en rapide évolution exigeant précision et vitesse." Sony AI ne part pas de zéro dans ce domaine : le projet s'inscrit dans la continuité de Gran Turismo Sophy, le système qui avait maîtrisé la conduite automobile en simulation à haut niveau. Le passage du virtuel au physique représentait le défi suivant, et Project Ace constitue la réponse concrète à cette ambition. Les enjeux dépassent largement le sport : une IA capable d'opérer à ce niveau dans le monde réel ouvre la voie à une nouvelle génération d'applications robotiques, de la chirurgie assistée à la manutention industrielle en passant par les interfaces humain-machine en environnement dynamique. Le secteur robotique, longtemps dominé par des systèmes rigides et préprogrammés, se retrouve face à une nouvelle frontière où l'adaptation autonome en temps réel devient techniquement accessible.

RobotiqueActu
1 source
Les robots peuvent désormais éplucher, trancher et manipuler des objets de forme irrégulière
32Interesting Engineering 

Les robots peuvent désormais éplucher, trancher et manipuler des objets de forme irrégulière

Des chercheurs de l'École polytechnique fédérale de Lausanne (EPFL) et de l'Institut de recherche Idiap ont présenté une nouvelle méthode permettant aux robots de manipuler des objets de formes irrégulières avec une précision inédite. Le système génère une carte en nuage de points de l'objet observé, identifie des repères clés à sa surface, puis construit une représentation continue et lisse de cette géométrie, quelle que soit la taille ou la forme de l'objet. Lors des tests, des robots ont réussi à effectuer des tâches en contact direct avec des surfaces, comme éplucher des bananes et des patates douces, les trancher ou sonder leur surface. L'approche s'est montrée robuste même face à des données de capteurs incomplètes ou bruitées, ainsi que dans des environnements encombrés. Sur 50 objets déformés aléatoirement, la méthode a produit des trajectoires d'action plus stables et cohérentes que les techniques conventionnelles. Cette avancée s'attaque à l'un des problèmes fondamentaux de la robotique : transférer des compétences de manipulation d'un objet à un autre sans réentraînement massif. Là où un humain adapte instinctivement son geste pour éplucher un légume inconnu en s'appuyant sur sa compréhension intuitive des surfaces, les robots actuels échouent face à la variabilité géométrique des objets du quotidien. En rendant les représentations indépendantes de la forme spécifique, le cadre développé à Lausanne permettrait à terme de déployer des robots capables d'opérer dans des cuisines, des chaînes agroalimentaires ou des environnements industriels sans nécessiter des milliers d'exemples d'entraînement pour chaque nouvel objet rencontré. Sur le plan technique, la méthode exploite la géométrie différentielle discrète et l'équation de diffusion thermique pour propager les informations géométriques à travers la surface d'un objet, directement depuis des nuages de points bruts, sans nécessiter de modèle 3D propre. Elle combine cette diffusion avec des techniques de Monte Carlo pour gérer les transitions entre mouvements libres et contact physique, produisant des référentiels locaux orientés qui guident des actions simples comme glisser, couper ou sonder. Ce cadre modulaire s'intègre avec plusieurs stratégies de contrôle existantes, dont la téléopération, l'optimisation de trajectoires et l'apprentissage par renforcement. La publication positionne cette approche géométrique comme une alternative prometteuse aux méthodes purement basées sur l'apprentissage profond, dont la gourmandise en données reste un frein majeur à la généralisation dans le monde réel.

UEMenée par l'EPFL et l'Institut Idiap (Suisse), cette avancée ouvre des perspectives concrètes pour l'automatisation des chaînes agroalimentaires et industrielles européennes, en réduisant drastiquement le besoin en données d'entraînement pour chaque nouvel objet.

RobotiqueActu
1 source
Le robot de ping-pong de Sony bat des joueurs de haut niveau
33The Verge 

Le robot de ping-pong de Sony bat des joueurs de haut niveau

Sony AI a dévoilé Ace, un robot joueur de ping-pong capable de battre les meilleurs joueurs humains du monde dans des matchs respectant scrupuleusement les règles officielles de la Fédération Internationale de Tennis de Table (ITTF). C'est une première dans l'histoire de la robotique sportive : aucun système automatisé n'avait jusqu'ici réussi à rivaliser avec des joueurs de haut niveau dans des conditions de compétition réelles. Ace n'est pas seulement capable de renvoyer des balles ou de jouer en conditions contrôlées, il s'adapte en temps réel aux stratégies adverses et parvient à remporter des échanges contre des compétiteurs classés parmi les meilleurs au monde. Cette performance marque un saut qualitatif significatif pour la robotique physique. Si l'intelligence artificielle surpasse les humains depuis longtemps aux échecs ou au jeu de Go, ces victoires s'opèrent dans des environnements purement numériques. Le tennis de table, lui, impose des contraintes physiques extrêmes : une balle qui peut dépasser 100 km/h, des trajectoires imprévisibles, des effets complexes, et des temps de réaction inférieurs à la fraction de seconde. Pour Ace, chaque échange exige une coordination parfaite entre vision artificielle, traitement du signal et actionneurs mécaniques ultra-rapides. C'est précisément cette intégration hardware-software en conditions réelles qui représente l'avancée majeure. Sony AI s'inscrit dans une longue tradition de robots pongistes, depuis le FOREPHUS d'Omron présenté au CES 2017 face à des joueurs amateurs, jusqu'aux prototypes universitaires des décennies précédentes. Mais ces systèmes s'arrêtaient aux échelons intermédiaires ou contournaient certaines règles du jeu. Ace franchit un palier inédit en combinant des avancées en apprentissage par renforcement, en perception temps réel et en robotique haute performance. Cette démonstration ouvre des perspectives concrètes pour la robotique industrielle et médicale, où vitesse de réaction et précision physique dans des environnements non contrôlés sont également critiques.

RobotiqueOpinion
1 source
Le robot de tennis de table de Sony bat des joueurs d'élite
34Robohub 

Le robot de tennis de table de Sony bat des joueurs d'élite

Sony AI a publié le 22 avril 2026 dans la revue Nature les résultats d'Ace, un robot de tennis de table capable de battre des joueurs humains de haut niveau en compétition officielle. Lors d'évaluations menées sous les règles de la Fédération Internationale de Tennis de Table (ITTF), Ace a remporté trois victoires sur cinq matchs contre des joueurs élites, puis a enchaîné des victoires contre des joueurs professionnels lors de rencontres supplémentaires en décembre 2025 et mars 2026. Le robot a notamment atteint un taux de retour supérieur à 75 % face à des effets allant jusqu'à 450 rad/s. Développé par Sony AI à Zurich sous la direction de Peter Dürr, Ace combine neuf caméras à pixels actifs pour la localisation 3D de la balle, trois systèmes de contrôle du regard à base de capteurs de vision événementielle, et un système de contrôle fondé sur du reinforcement learning sans modèle, le tout monté sur un bras robotique haute vitesse capable de réactions à l'échelle de la milliseconde. C'est la première fois qu'un robot autonome surpasse des humains d'élite dans un sport physique compétitif réel, une rupture nette avec les victoires de l'IA dans les jeux de plateau (échecs, Go) ou les environnements numériques. Le tennis de table impose des contraintes particulièrement sévères : vitesse de balle extrême, trajectoires imprévisibles, effets complexes et adaptation constante à un adversaire. Ace réussit à généraliser à des situations rares et difficiles à simuler, comme les retours après rebond sur le filet, ce qui illustre la robustesse de son architecture de contrôle. Pour l'industrie robotique, cela valide l'idée que des agents IA physiques peuvent opérer en temps réel dans des environnements humains non structurés, ouvrant la voie à des applications bien au-delà du sport : assistance physique, logistique de précision, interfaces homme-machine rapides. Le projet s'inscrit dans une course mondiale à l'IA physique où les grands acteurs technologiques investissent massivement pour sortir l'intelligence artificielle de l'écran. Sony AI, division de recherche fondée en 2019, a fait du sport un terrain d'expérimentation privilégié, notamment avec des travaux antérieurs sur Gran Turismo. Le choix du tennis de table n'est pas anodin : c'est l'un des sports les plus rapides et les plus techniques au monde, ce qui en fait un banc d'essai exigeant pour la perception, la planification et le contrôle moteur. La publication dans Nature signale une ambition scientifique sérieuse, et les performances croissantes d'Ace entre les évaluations initiales et celles de mars 2026 suggèrent que le système continue de progresser. La prochaine étape pour l'équipe sera probablement d'élargir les capacités du robot à des contextes d'interaction encore plus ouverts et moins contraints.

UELa recherche conduite par Sony AI à Zurich positionne l'Europe comme pôle de robotique physique autonome, avec des retombées potentielles sur les programmes Horizon Europe dédiés à la robotique et à l'IA embarquée.

Humanoid data
35MIT Technology Review 

Humanoid data

Les entreprises de robotique humanoïde ont lancé une course mondiale à la collecte de données de mouvement humain, convaincues que ces données sont la clé pour entraîner des robots capables de travailler aux côtés des humains, et un jour de les remplacer. Des applications rémunèrent désormais des particuliers en cryptomonnaie pour filmer des gestes du quotidien : réchauffer un plat au micro-ondes, remplir un bol, ouvrir une porte. D'autres plateformes proposent à des internautes de téléopérer à distance un bras robotique situé à Shenzhen, en Chine, pour lui faire résoudre des puzzles. Derrière ces dispositifs étranges se trouvent des investissements massifs : 6,1 milliards de dollars ont été injectés dans la seule filière des robots humanoïdes en 2025. Des centres d'entraînement spécialisés ont vu le jour en Chine, où des opérateurs portant des exosquelettes et des casques de réalité virtuelle répètent le même geste, essuyer une table, des centaines de fois par jour. Des travailleurs à la tâche au Nigeria, en Argentine et en Inde filment leurs corvées ménagères. Aux États-Unis, une entreprise de livraison a équipé ses employés de capteurs enregistrant leurs mouvements pendant le port de colis, avec un double objectif : prévenir les blessures et entraîner les robots qui pourraient les remplacer. L'enjeu est considérable. Les humanoïdes présentent un avantage structurel sur les bras robotiques classiques : leur morphologie leur permet de s'intégrer directement dans des environnements conçus pour l'homme, des entrepôts aux cuisines industrielles. Mais les entraîner est autrement plus complexe. Les simulations informatiques, longtemps utilisées comme substitut aux données réelles, échouent à modéliser fidèlement les lois physiques du monde réel, friction, élasticité, résistance des matériaux, ce qui produisait des robots instables et maladroits. La collecte de données de mouvement en conditions réelles est censée combler ce fossé, en offrant aux algorithmes la même richesse empirique que les textes du web ont fournie aux grands modèles de langage depuis le lancement de ChatGPT fin 2022. Ce modèle de collecte s'est imposé progressivement. Les premières tentatives, menées dans des laboratoires académiques, étaient artisanales : des chercheurs filmaient des volontaires en train de faire des crêpes ou de ranger leur bureau, et partageaient les données librement. Avec l'afflux de capital-risque, la course est devenue industrielle et opaque. La question centrale reste pourtant ouverte : personne ne sait encore combien de milliers de clips d'un micro-ondes ouvert sont nécessaires pour qu'un robot apprenne à cuisiner un repas complet, ni si cette approche peut atteindre l'échelle requise pour déclencher de véritables avancées techniques. Ce que cette dynamique dessine déjà, c'est une nouvelle catégorie de travail physique : celle du laboureur humain qui, avant d'être remplacé par une machine, aura servi à l'entraîner.

RobotiqueOpinion
1 source
Un robot humanoïde Nvidia tient un poste de 8 heures en usine Siemens à 60 bacs par heure
36Interesting Engineering 

Un robot humanoïde Nvidia tient un poste de 8 heures en usine Siemens à 60 bacs par heure

En janvier 2026, le robot humanoïde HMND 01 Alpha du startup britannique Humanoid a réalisé un déploiement de deux semaines dans l'usine électronique de Siemens à Erlangen, en Allemagne. Les résultats, annoncés à la Hannover Messe 2026 en partenariat avec Nvidia, ont dépassé tous les objectifs fixés : le robot à roues a opéré en continu pendant plus de huit heures, déplaçant 60 bacs de stockage par heure avec un taux de réussite supérieur à 90 %. Sa mission consistait à saisir des bacs, les transporter à travers l'usine et les déposer sur des convoyeurs aux points de transfert désignés pour les opérateurs humains, dans un environnement de production réel où ses performances avaient un impact direct sur les opérations. Stephan Schlauss, directeur mondial de la motion control chez Siemens, a qualifié l'usine d'Erlangen de "customer zero" : Siemens s'est volontairement positionné comme premier client payant et validateur de la technologie, avant de la proposer à d'autres industriels. Ce déploiement est significatif parce qu'il franchit la frontière entre démonstration contrôlée et production industrielle réelle. Le robot a travaillé aux côtés d'humains et de systèmes automatisés existants, coordonnant ses actions en temps réel avec des véhicules à guidage autonome et les systèmes de l'usine via la plateforme Siemens Xcelerator, qui a fourni des capacités de jumeau numérique, de perception par IA, d'interfaces PLC-robot et de gestion de flotte. C'est précisément ce niveau d'intégration enterprise qui distingue un vrai déploiement industriel d'une simple preuve de concept. Deepu Talla, vice-président robotique et edge AI chez Nvidia, a affirmé que ce déploiement ouvre la voie aux robots humanoïdes pour atteindre des objectifs de production réels sur des lignes actives. Humanoid, fondée en 2024 par Artem Sokolov et dont le siège est à Londres avec des bureaux à Boston et Vancouver, emploie plus de 200 ingénieurs issus d'Apple, Tesla, Google et Boston Dynamics. L'entreprise a développé le HMND 01 Alpha en environ sept mois, là où le cycle habituel dépasse 18 à 24 mois, grâce à une approche "simulation d'abord" utilisant Nvidia Isaac Lab pour l'apprentissage par renforcement et Nvidia Isaac Sim pour la validation virtuelle avant tout déploiement physique. La version bipède du robot dispose de 29 degrés de liberté et d'une suite complète de capteurs. Siemens et Humanoid présentent le déploiement d'Erlangen non comme une expérimentation isolée mais comme une architecture de référence reproductible par d'autres fabricants, dans un contexte où la pénurie de main-d'oeuvre dans l'industrie manufacturière et les contraintes de flexibilité rendent les lignes entièrement automatisées souvent inadaptées.

UEL'usine Siemens d'Erlangen (Allemagne) est positionnée comme architecture de référence reproductible pour les industriels européens confrontés à la pénurie de main-d'œuvre manufacturière.

💬 60 bacs par heure, 8 heures sans s'arrêter, en production réelle, pas dans un labo avec les caméras bien placées. Le positionnement de Siemens en "customer zero" dit tout : ils testent sur leur propre usine avant de revendre l'architecture à leurs clients industriels, c'est une stratégie commerciale autant qu'une validation technique. Sept mois de dev au lieu de deux ans grâce à la simulation, bon, faut confirmer ça sur 50 usines et pas une.

RobotiqueOpinion
1 source
On n’est plus dans la science-fiction : il est vraiment possible d’acheter un robot humanoïde en promo aujourd’hui
37Frandroid 

On n’est plus dans la science-fiction : il est vraiment possible d’acheter un robot humanoïde en promo aujourd’hui

L'Agibot X2 Ultra, robot humanoïde développé par la société chinoise Agibot, est désormais disponible à l'achat pour le grand public via la plateforme Joybuy, à un prix promotionnel de 36 889 euros contre 41 899 euros habituellement. La machine est capable d'interagir physiquement avec son environnement, de marcher de manière bipède, de danser et d'exécuter des gestes fins comme former un cœur avec les doigts, des capacités qui relevaient encore récemment du domaine expérimental. Ce basculement vers la commercialisation grand public marque un tournant symbolique : pour la première fois, un humanoïde fonctionnel peut être commandé en ligne comme n'importe quel produit électronique haut de gamme. Si le prix reste prohibitif pour un particulier, il se situe dans une fourchette accessible pour des entreprises souhaitant expérimenter l'automatisation physique sans attendre des déploiements industriels à grande échelle. La réduction de 5 000 euros, aussi anecdotique soit-elle, signale une logique de marché en train de s'installer. Agibot, fondée en 2023 à Shanghai et soutenue par des investisseurs proches de l'écosystème technologique chinois, s'inscrit dans une course mondiale à l'humanoïde qui voit s'affronter Figure, 1X, Agility Robotics ou encore Tesla avec Optimus. La Chine pousse activement ce secteur comme axe stratégique, avec des subventions publiques et un tissu industriel capable de produire à coût compétitif. La question n'est plus de savoir si ces robots seront viables, mais à quelle vitesse leurs prix s'effondreront pour atteindre une masse critique d'acheteurs.

UELes entreprises européennes peuvent désormais commander en ligne un robot humanoïde fonctionnel via Joybuy à environ 37 000 euros, rendant tangible une première expérimentation d'automatisation physique sans attendre des déploiements industriels.

RobotiqueOpinion
1 source
Le robot humanoïde Optimus de Tesla accueille les coureurs et pose en photos au Marathon de Boston
38Interesting Engineering 

Le robot humanoïde Optimus de Tesla accueille les coureurs et pose en photos au Marathon de Boston

Le lundi 21 avril 2026, Tesla a transformé le marathon de Boston en vitrine technologique en déployant son robot humanoïde Optimus à quelques mètres de la ligne d'arrivée, devant le showroom situé au 888 Boylston Street. La stratégie était délibérée : le dernier kilomètre de la course longe précisément cette avenue, et plus de 30 000 coureurs issus d'une centaine de pays y franchissent la ligne d'arrivée sous les yeux de centaines de milliers de spectateurs. Pendant deux jours, du 19 au 20 avril, Optimus a salué les coureurs, posé pour des photos et interagi avec le public, offrant à Tesla une exposition mondiale sans acheter le moindre espace publicitaire. Le robot mesure 1,73 mètre, dispose de 40 degrés de liberté et est motorisé par le hardware Autopilot de Tesla. Présenté pour la première fois lors de l'AI Day de Tesla en août 2022, il a depuis multiplié les apparitions : service de popcorn au Tesla Diner de Hollywood en juillet 2025, événement à Miami en décembre 2025, et exposition au salon de l'électronique de Shanghai en mars 2026, où des employés ont évoqué un lancement en production de masse d'ici fin 2026. Elon Musk estime que le coût unitaire à grande échelle se situerait entre 20 000 et 30 000 dollars. Cette mise en scène illustre la montée en puissance de la robotique humanoïde comme outil de communication grand public. En associant Optimus à un événement sportif populaire et émotionnel, Tesla cherche à normaliser la présence des robots dans les espaces publics et à accélérer l'acceptation sociale de sa technologie. L'enjeu commercial est considérable : un robot vendu au prix d'une voiture ordinaire ouvrirait un marché de masse que les industriels, logisticiens et particuliers pourraient absorber massivement. La journée du 19 avril a toutefois mis en lumière un contraste saisissant entre les approches américaine et chinoise de la robotique. Pendant qu'Optimus posait pour des selfies à Boston, la Chine organisait à Pékin le premier semi-marathon humanoïde de l'histoire, dans le district d'E-Town. Des dizaines de robots ont couru en parallèle des humains sur 21 kilomètres, la moitié d'entre eux terminant la course de façon autonome, sans télécommande. Le vainqueur, un robot bipède baptisé "Lightning" conçu par Honor, spin-off de Huawei, a bouclé le parcours en 50 minutes et 26 secondes, surpassant le record mondial humain du demi-marathon détenu par l'Ougandais Jacob Kiplimo en 57 minutes 20 secondes. Cet événement marque un tournant : là où Tesla mise sur la visibilité et le marketing, la Chine parie sur la performance et l'endurance réelle, deux visions qui dessinent les contours d'une compétition technologique et géopolitique croissante autour des robots du futur.

RobotiqueOpinion
1 source
Tien Kung 3.0 remporte le Robot Warrior Challenge en Chine sans intervention humaine
39Interesting Engineering 

Tien Kung 3.0 remporte le Robot Warrior Challenge en Chine sans intervention humaine

Le 18 avril 2026, le robot humanoïde Tien Kung 3.0, développé par le Beijing Innovation Center of Humanoid Robotics (X-Humanoid), a remporté l'inaugural Beijing Yizhuang Robot Warrior Challenge en accomplissant l'intégralité du parcours sans aucune intervention humaine. Ce défi, conçu pour simuler des opérations de sauvetage en milieu hostile, comprenait des épreuves à haut risque : traversée de pendules, franchissement d'obstacles, et breaching de barrières dans des environnements imitant des décombres sismiques, des zones chimiques dangereuses et des structures effondrées. Le lendemain, le 19 avril, Pékin accueillait aussi son deuxième semi-marathon de robots humanoïdes, remporté par le robot "Lightning" de la Team Honor en 50 minutes et 26 secondes, en mode entièrement autonome. Une version plus rapide du même robot avait bouclé le parcours en 48 minutes et 19 secondes, mais en télécommandée, ce qui l'a disqualifiée selon les règles favorisant l'autonomie complète. La victoire de Tien Kung 3.0 représente un saut qualitatif dans l'autonomie des robots humanoïdes. Contrairement aux systèmes précédents qui exécutaient des scripts préprogrammés ou dépendaient de commandes à distance, le robot a démontré une prise de décision active en temps réel dans des environnements non structurés. Sa plateforme d'intelligence incarnée "Wise KaiWu" assure une intégration en boucle fermée entre perception, planification, contrôle et récupération en cas de défaillance. Un système de perception multimodal traite les données de capteurs hétérogènes via un modèle de bout en bout, permettant de traduire directement les observations brutes en stratégies de mouvement. La mobilité est elle aussi frappante : le temps de référence du semi-marathon est passé de 2 heures 40 minutes en 2025 à moins de 50 minutes cette année, signe d'avancées massives en équilibre, endurance et navigation autonome. Ces performances s'inscrivent dans une dynamique d'accélération que la Chine pilote de manière très structurée. Le semi-marathon 2026 a réuni 100 équipes pour 300 robots issus de 26 marques, dont des participants venus de France, d'Allemagne et du Brésil, soit près de cinq fois plus que lors de la première édition. Des acteurs majeurs comme Unitree, Tiangong ou Noetix Robotics y ont présenté des conceptions variées, des plateformes haute tension aux moteurs refroidis à l'eau. X-Humanoid a mobilisé quatre équipes internes et des laboratoires conjoints de l'Université du Hunan et de l'Université Renmin de Chine. Les experts soulignent que ces progrès en contrôle temps réel, adaptation au terrain et décision autonome ouvrent des perspectives concrètes pour la recherche et le sauvetage, les opérations industrielles, la logistique et la défense, des secteurs où la Chine cherche à s'imposer comme puissance robotique mondiale.

UELa participation de teams françaises et allemandes au semi-marathon de Beijing illustre un écart de compétitivité croissant : la Chine pilote une accélération structurée en robotique autonome qui pourrait distancer les acteurs européens sur les marchés industriels et de la défense.

RobotiqueActu
1 source
Tesla et Optimus : pourquoi Elon Musk ne peut plus se passer de la Chine
40Frandroid 

Tesla et Optimus : pourquoi Elon Musk ne peut plus se passer de la Chine

Tesla a officiellement annoncé un pivot stratégique majeur : la production de ses modèles historiques est réduite au profit du robot humanoïde Optimus, qu'Elon Musk présente comme l'avenir de l'entreprise. L'objectif affiché est de produire plusieurs millions d'unités d'Optimus par an à terme, un volume qui dépasse largement les capacités actuelles des usines américaines et européennes. Pour atteindre cette échelle industrielle, Tesla s'appuie de façon croissante sur sa Gigafactory de Shanghai et sur le tissu de fournisseurs chinois spécialisés dans les moteurs, actionneurs et composants mécaniques nécessaires aux robots. Cette dépendance pose un problème stratégique de taille. Dans un contexte de guerre commerciale entre Washington et Pékin, Pékin dispose d'un levier considérable : les terres rares et les composants électroniques avancés, dont la Chine contrôle une part dominante de la production mondiale. Une restriction d'exportation ciblée pourrait paralyser la montée en cadence d'Optimus bien avant que Tesla n'ait pu diversifier ses approvisionnements. Pour Musk, qui cherche à positionner Optimus comme une réponse à la pénurie de main-d'oeuvre industrielle, l'enjeu est directement lié à la valorisation future de Tesla. Ce paradoxe illustre une tension plus large dans l'industrie robotique américaine : les entreprises qui veulent produire à grande échelle n'ont pas d'alternative crédible à court terme aux chaînes d'approvisionnement chinoises. BYD, Huawei et plusieurs groupes industriels de Shenzhen développent leurs propres robots humanoïdes, ce qui signifie que Tesla est simultanément dépendante et concurrencée par le même écosystème industriel chinois.

UELa dépendance européenne aux terres rares chinoises pour la robotique industrielle expose les industriels de l'UE aux mêmes risques d'approvisionnement, fragilisant les ambitions de souveraineté robotique européenne.

💬 Tesla mise tout sur Optimus, mais le pari repose sur des composants que Pékin peut couper en deux coups de stylo. C'est le genre de dépendance qu'on accepte quand on veut aller vite, et là Musk veut aller très vite. Sauf qu'être à la fois client et concurrent du même écosystème chinois, c'est une position qui tient jusqu'à ce qu'elle ne tienne plus.

RobotiqueOpinion
1 source
Le professeur de l'USC qui a ouvert la voie à la robotique d'assistance sociale
41IEEE Spectrum AI 

Le professeur de l'USC qui a ouvert la voie à la robotique d'assistance sociale

Maja Matarić, professeure d'informatique, de neurosciences et de pédiatrie à l'Université de Californie du Sud (USC) à Los Angeles, a reçu en 2025 la médaille Robotics de MassRobotics, une récompense qui distingue les chercheuses faisant avancer le domaine de la robotique. Pionnière de la robotique socialement assistive, une discipline qu'elle a contribué à définir en 2005, Matarić développe depuis deux décennies des robots capables de mener des conversations, de jouer à des jeux et de réagir aux émotions. Ses travaux actuels portent sur l'utilisation de robots pour aider des étudiants souffrant d'anxiété et de dépression à suivre une thérapie cognitivo-comportementale (TCC), une approche clinique visant à modifier les schémas de pensée négatifs. Membre de l'IEEE au rang de Fellow, elle a été formée à l'Université du Kansas, où elle a obtenu son diplôme en informatique en 1987, puis au MIT, où elle a réalisé son master et son doctorat en intelligence artificielle et robotique, obtenus respectivement en 1990 et 1994. L'impact des recherches de Matarić touche des populations particulièrement vulnérables : enfants autistes, adolescents en souffrance psychologique, patients nécessitant une rééducation personnalisée. En remplaçant ou en complétant l'interaction humaine par des robots capables d'adapter leur comportement en temps réel, ses travaux ouvrent une voie concrète pour démocratiser l'accès à certaines formes de thérapie, notamment dans des contextes où les professionnels de santé sont en nombre insuffisant. La TCC assistée par robot, en particulier, représente une avancée significative : elle permet de délivrer un accompagnement structuré et répétable, sans les biais relationnels qui peuvent freiner certains patients dans un cadre clinique traditionnel. Née à Belgrade, en Serbie, Matarić a grandi dans une famille marquée par l'ingénierie : son père était ingénieur, son oncle travaillait dans l'aérospatiale. Après le décès de son père à ses 16 ans, elle émigre aux États-Unis avec sa mère. Au MIT, elle rejoint le laboratoire de Rodney Brooks, pionnier des systèmes robotiques réactifs, et développe Toto, le premier robot navigant à base de comportements, capable de cartographier un bâtiment grâce à des capteurs sonars. Ce parcours l'a menée à Brandeis University, puis à USC, où elle dirige aujourd'hui un laboratoire de référence mondiale. À une époque où la robotique sociale suscite un intérêt croissant des géants technologiques et des fonds d'investissement, les travaux fondateurs de Matarić rappellent que les applications les plus durables de la robotique sont souvent celles centrées sur l'humain.

RobotiqueOpinion
1 source
Vidéo : ce robot chinois a battu le record du semi-marathon détenu par un humain
42Le Big Data 

Vidéo : ce robot chinois a battu le record du semi-marathon détenu par un humain

Un robot humanoïde du fabricant chinois Honor a bouclé un semi-marathon à Pékin en 50 minutes et 26 secondes, surpassant le record humain de la discipline détenu par l'athlète ougandais Jacob Kiplimo. Surnommé "Lightning", ce robot aux jambes de 95 centimètres a reproduit une foulée longue et efficace, proche de celle des athlètes professionnels. Honor n'a pas engagé un seul robot dans cette course, mais trois, signalant une stratégie industrielle assumée plutôt qu'un simple coup de communication. Parmi les plus de 100 robots humanoïdes présents sur la ligne de départ, près de la moitié ont franchi l'arrivée sans aucune assistance humaine directe, analysant leur environnement en temps réel et ajustant leur trajectoire de manière autonome. Ce résultat marque un saut qualitatif net par rapport à l'édition précédente, où beaucoup de robots abandonnaient en chemin, perdaient l'équilibre ou s'immobilisaient en plein effort. En 2026, les machines tiennent la distance, accélèrent, et certaines dépassent des coureurs professionnels sur plusieurs segments. Le chiffre le plus révélateur n'est pas le chrono, mais la croissance du nombre de participants : d'une vingtaine de robots l'an dernier à plus de 100 cette année. Ce que démontre Honor, c'est la capacité à faire sortir des technologies grand public, développées à l'origine pour les smartphones, vers des machines capables de performances physiques comparables à celles d'un humain entraîné. Pour l'industrie robotique mondiale, c'est la preuve que l'endurance et l'autonomie de déplacement en milieu réel ne sont plus des obstacles théoriques. La Chine investit massivement dans la robotique humanoïde depuis plusieurs années, portée par une volonté politique de dominer ce secteur jugé stratégique, au même titre que les semi-conducteurs ou l'intelligence artificielle. Des entreprises comme Unitree, Fourier Intelligence ou désormais Honor s'imposent dans un marché mondial où Boston Dynamics et Tesla (avec Optimus) font figure de références. Le semi-marathon de Pékin fonctionne comme un banc d'essai public : les robots y affrontent des conditions réelles, imprévisibles, face à des milliers de coureurs humains. Chaque édition sert à mesurer les progrès effectifs, loin des démonstrations contrôlées en laboratoire. La prochaine étape logique sera de voir ces systèmes opérer dans des environnements industriels ou de service, où la robustesse et l'autonomie comptent autant que la vitesse. La course au semi-marathon n'est qu'un indicateur parmi d'autres d'une compétition technologique beaucoup plus large qui ne fait que commencer.

UELa montée en puissance de la Chine dans la robotique humanoïde, illustrée par Honor, Unitree et Fourier, représente un défi stratégique direct pour l'industrie européenne, qui accuse un retard croissant face à des acteurs soutenus par une volonté politique nationale forte.

Physical Intelligence présente un modèle robotique à généralisation similaire aux LLM, défauts compris
43The Decoder 

Physical Intelligence présente un modèle robotique à généralisation similaire aux LLM, défauts compris

La start-up américaine Physical Intelligence a présenté π0.7, un nouveau modèle de fondation pour robots capable de recombiner des compétences acquises lors de l'entraînement pour accomplir des tâches inédites. Le principe rappelle directement le fonctionnement des grands modèles de langage, qui assemblent des fragments de leur corpus d'entraînement pour générer du texte nouveau. Les chercheurs qualifient ce phénomène de premières traces de "généralisation compositionnelle" en robotique, une capacité jusqu'ici considérée comme l'un des grands verrous du domaine. L'enjeu est considérable : un robot capable de composer librement ses compétences peut théoriquement s'adapter à des environnements non prévus lors de l'entraînement, sans reprogrammation manuelle. C'est précisément ce qui distingue l'intelligence artificielle générale de la robotique traditionnelle, figée dans des séquences prédéfinies. Physical Intelligence reconnaît toutefois que le modèle présente encore des défauts notables, signe que cette généralisation reste fragile et partielle à ce stade. Physical Intelligence, fondée en 2023 par d'anciens chercheurs de Google, DeepMind et Berkeley, s'est imposée comme l'un des acteurs les plus ambitieux de la robotique dite "généraliste". La société avait déjà publié π0 en 2024, un premier modèle de fondation polyvalent entraîné sur une large variété de tâches physiques. L'annonce de π0.7 s'inscrit dans une course plus large impliquant Figure AI, Agility Robotics et Tesla, tous en quête du même Graal : un robot capable d'apprendre une fois et de s'adapter partout.

RobotiqueOpinion
1 source
Ce robot cuisine mieux que vous… et il a tout appris en regardant une vidéo
44Le Big Data 

Ce robot cuisine mieux que vous… et il a tout appris en regardant une vidéo

Physical Intelligence, startup basée à San Francisco, a présenté π0.7, un modèle d'IA robotique capable d'exécuter des tâches pour lesquelles il n'a reçu presque aucun entraînement spécifique. La démonstration phare : un robot utilisant une friteuse à air chaud pour cuire une patate douce, alors que ses données d'apprentissage ne contenaient que deux séquences vaguement pertinentes, un robot fermant une friteuse, et un autre manipulant une bouteille en plastique issue d'un dataset open source. Sans assistance verbale, le taux de réussite du robot était d'environ 5 %. Après une demi-heure d'instructions orales en temps réel, ce taux a bondi à 95 %, sans réentraînement ni collecte massive de nouvelles données. Sergey Levine, cofondateur de Physical Intelligence, décrit cette capacité comme une recomposition inédite de connaissances acquises dans des contextes disparates, notamment issues du web. Ce qui distingue π0.7 de la majorité des systèmes robotiques actuels, c'est précisément ce qu'il n'a pas besoin : des millions d'heures de vidéos pour chaque nouvelle tâche. La robotique industrielle et domestique bute depuis des années sur ce mur : chaque situation légèrement différente exige un nouvel entraînement coûteux. Si π0.7 tient ses promesses, il ouvre la voie à des robots capables de s'adapter à des environnements inconnus simplement en recevant des consignes verbales, un changement de paradigme potentiellement majeur pour les secteurs de la logistique, de l'aide à domicile ou de la restauration automatisée. La chercheuse Shi, doctorante à Stanford impliquée dans les travaux, note toutefois qu'il reste difficile d'identifier précisément d'où le modèle tire les connaissances qu'il mobilise, ce qui soulève des questions sur la prédictibilité et la fiabilité du système. Physical Intelligence s'inscrit dans une vague de startups qui parient sur des modèles de fondation pour la robotique, à l'image de ce que GPT-4 a représenté pour le texte. L'entreprise a levé des fonds significatifs ces dernières années et concurrence directement des laboratoires comme Google DeepMind ou Figure AI sur le terrain des robots généralistes. Le vrai enjeu n'est plus de construire des bras articulés précis, mais de créer des systèmes capables de raisonner sur le monde physique avec un minimum d'exemples. π0.7 représente une étape crédible dans cette direction, même si les tests restent pour l'instant en conditions contrôlées. Les prochains mois diront si cette capacité d'adaptation tient face à la complexité désordonnée du monde réel.

RobotiqueActu
1 source
Comment les robots apprennent : une courte histoire contemporaine
45MIT Technology Review 

Comment les robots apprennent : une courte histoire contemporaine

En 2025, les investisseurs ont injecté 6,1 milliards de dollars dans les robots humanoïdes, soit quatre fois plus qu'en 2024. Ce chiffre illustre un tournant spectaculaire pour une industrie longtemps boudée par la Silicon Valley après des décennies de promesses non tenues. Le changement de paradigme remonte à plusieurs ruptures technologiques successives : d'abord, vers 2015, l'abandon des systèmes à base de règles codées manuellement au profit de l'apprentissage par renforcement, où un robot simulé s'améliore par essais et erreurs sur des millions d'itérations. Puis, en 2022, l'irruption de ChatGPT a tout accéléré : les grands modèles de langage, entraînés sur des corpus massifs de textes, ont été adaptés à la robotique pour ingérer images, capteurs et positions articulaires, et prédire en temps réel la prochaine action à exécuter, en émettant des dizaines de commandes motrices par seconde. Ce glissement conceptuel, de la programmation exhaustive vers des modèles d'IA nourris de données massives, change radicalement ce qui est désormais possible. Un robot n'a plus besoin qu'un ingénieur anticipe chaque cas particulier, plier une chemise froissée, gérer une manche tordue, adapter le geste à un tissu délicat. Il apprend à generaliser. Cette approche fonctionne aussi bien pour des robots conversationnels que pour des machines qui naviguent dans un environnement physique ou accomplissent des tâches complexes. Pour les industriels, la perspective d'une main-d'œuvre robotique sans salaire devient crédible ; pour les acteurs du soin et du maintien à domicile, celle d'assistants capables d'interagir naturellement avec des personnes âgées ou à mobilité réduite se rapproche aussi. L'histoire de Jibo illustre parfaitement ce chemin parcouru. Ce petit robot social sans bras ni jambes, présenté en 2014 par la chercheuse du MIT Cynthia Breazeal, avait levé 3,7 millions de dollars en crowdfunding et suscité 4 800 précommandes à 749 dollars pièce. Il pouvait se présenter, danser pour des enfants, mais restait très limité faute de véritables capacités langagières, un domaine où il peinait à rivaliser avec Siri d'Apple. La société a fermé ses portes en 2019, victime de ses ambitions prématurées. Rétrospectivement, Jibo manquait précisément des modèles de langage qui existent aujourd'hui. C'est cette convergence, entre LLMs, apprentissage par renforcement et déploiement de robots imparfaits pour qu'ils apprennent dans leur environnement réel, qui redonne aujourd'hui à la Silicon Valley l'audace de rêver aux robots de science-fiction.

UEL'essor des robots humanoïdes ouvre des perspectives pour les secteurs français du soin et du maintien à domicile, mais les investissements restent largement concentrés hors d'Europe.

RobotiqueOpinion
1 source
Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents
46The Information AI 

Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents

Google DeepMind a publié cette semaine Gemini Robotics-ER-1.6, un nouveau modèle de vision et de langage conçu pour aider les robots à interpréter leur environnement. Pour illustrer ses capacités, Boston Dynamics, qui dispose d'un accord pour intégrer Gemini dans ses robots humanoïdes, a publié une vidéo de ses robots quadrupèdes utilisant le modèle pour lire un thermomètre lors d'une inspection dans une installation industrielle. Selon les benchmarks internes de Google, les gains restent modestes sur un seul flux caméra : le modèle n'améliore que marginalement la capacité du robot à détecter la fin d'une tâche par rapport aux versions précédentes. En revanche, les performances progressent nettement lorsque le robot exploite plusieurs flux caméra simultanément. C'est précisément là que réside l'enjeu pratique : la majorité des environnements robotiques industriels, qu'il s'agisse d'usines ou d'entrepôts, s'appuient sur plusieurs points de vue combinés, comme une caméra en hauteur et une caméra fixée sur le bras du robot. Le système doit être capable de fusionner ces perspectives pour construire une compréhension cohérente de ce qu'il accomplit et savoir quand la tâche est terminée. Ce lancement s'inscrit dans une course intense entre les grands laboratoires d'IA pour doter les robots d'une intelligence de perception plus robuste. Google DeepMind et Boston Dynamics ont formalisé leur partenariat autour de Gemini pour les robots humanoïdes, signalant une convergence entre les modèles de fondation et la robotique physique. Si les progrès annoncés restent incrémentaux, l'amélioration sur les configurations multi-caméras est directement applicable aux déploiements industriels existants, ce qui pourrait accélérer l'adoption de robots autonomes dans des environnements de travail réels. Les prochaines versions du modèle seront à surveiller pour évaluer si ces gains se traduisent en performances significatives sur des tâches complexes en conditions réelles.

RobotiqueActu
1 source
Tesla pris de vitesse ? Chery vend déjà son robot humanoïde en ligne
47Frandroid 

Tesla pris de vitesse ? Chery vend déjà son robot humanoïde en ligne

Le constructeur automobile chinois Chery, jusqu'ici principalement connu pour ses véhicules électriques, vient de franchir un cap inattendu en mettant en vente son premier robot humanoïde, le Mornine M1, directement en ligne. Affiché à environ 39 000 euros, l'engin embarque une batterie de capteurs directement issus des systèmes de conduite autonome développés par Chery pour ses voitures. Le robot est commercialisé sans passer par des canaux de distribution traditionnels, une stratégie de vente directe qui rappelle celle adoptée par Tesla pour ses véhicules. Cette mise sur le marché place Chery dans une course technologique qui dépasse largement le secteur automobile. À ce prix, le Mornine M1 s'adresse potentiellement aux industriels, entrepôts logistiques et laboratoires souhaitant automatiser des tâches physiques complexes. La réutilisation de composants issus de la conduite autonome représente un avantage compétitif réel : Chery amortit ses investissements en R&D sur deux marchés simultanément, réduisant ainsi les coûts de développement. Cependant, l'article signale un point faible significatif qui n'est pas détaillé dans l'extrait disponible, ce qui laisse planer un doute sur la maturité réelle du produit. Le lancement du Mornine M1 s'inscrit dans une dynamique chinoise plus large visant à dominer le marché mondial de la robotique humanoïde, un secteur où Tesla avec Optimus, Figure AI et Boston Dynamics se livrent une concurrence féroce. La Chine a fait de la robotique humanoïde une priorité industrielle nationale, et voir un constructeur automobile s'y engouffrer illustre la convergence accélérée entre mobilité autonome et robotique. Chery rejoint ainsi BYD et d'autres géants industriels chinois qui diversifient leurs activités bien au-delà de l'électromobilité.

UELes industriels et entrepôts logistiques européens pourraient accéder à un robot humanoïde à 39 000€, accentuant la pression concurrentielle sur le marché de l'automatisation physique en Europe.

RobotiqueOpinion
1 source
Des robots quadrupèdes lisent des jauges et thermomètres grâce à Google Gemini
48Ars Technica AI 

Des robots quadrupèdes lisent des jauges et thermomètres grâce à Google Gemini

Les chiens robots de Boston Dynamics, comme le quadrupède Spot, sont désormais capables de lire avec précision des thermomètres analogiques et des manomètres lors de leurs rondes dans les usines et entrepôts. Cette avancée repose sur le nouveau modèle d'IA robotique de Google DeepMind, baptisé Gemini Robotics-ER 1.6, annoncé le 14 avril 2026. Ce modèle agit comme un "moteur de raisonnement de haut niveau pour robot", capable de planifier et d'exécuter des tâches complexes impliquant une compréhension fine de l'environnement physique. Il permet notamment de déchiffrer des instruments de mesure comprenant plusieurs aiguilles, des niveaux de liquide, des graduations et du texte, ainsi que d'effectuer des inspections visuelles via des hublots transparents donnant accès à l'intérieur de cuves et de tuyauteries. Cette capacité de "raisonnement incarné" représente un saut qualitatif important pour l'automatisation industrielle. Jusqu'ici, lire un manomètre analogique ou interpréter un niveau dans un réservoir exigeait une intervention humaine ou des capteurs dédiés. Avec Gemini Robotics-ER 1.6, un robot comme Spot peut désormais effectuer des rondes d'inspection autonomes dans des environnements industriels complexes sans infrastructure supplémentaire, réduisant potentiellement les coûts de maintenance et les risques pour les opérateurs humains dans des zones dangereuses. Ce développement s'inscrit dans la collaboration continue entre Google DeepMind et Boston Dynamics, entreprise détenue par le constructeur automobile coréen Hyundai Motor Group. Hyundai teste activement des robots bipèdes et quadrupèdes dans ses usines d'assemblage automobile, faisant de ces environnements un terrain d'expérimentation privilégié. La course à l'IA robotique s'intensifie entre les grands acteurs technologiques, et l'intégration de modèles de vision multimodaux puissants comme Gemini dans des robots physiques ouvre la voie à des inspecteurs autonomes capables d'opérer dans n'importe quelle installation industrielle existante, sans modification matérielle.

UELes industriels européens pourraient adopter cette technologie pour automatiser les rondes d'inspection sans modifier leur infrastructure existante, mais aucune entreprise ou institution française/européenne n'est directement impliquée.

RobotiqueActu
1 source
Vidéo : Edward le robot prend en chasse une meute de sangliers dans Varsovie !
49Le Big Data 

Vidéo : Edward le robot prend en chasse une meute de sangliers dans Varsovie !

Le 12 avril 2026, les habitants d'un parking de Varsovie ont assisté à une scène inattendue : un robot humanoïde poursuivant un groupe de sangliers pour les repousser vers la forêt. Le robot en question s'appelle Edward, et il s'agit d'un Unitree G1, modèle conçu pour évoluer dans des environnements urbains complexes. Mesurant 1,32 mètre, équipé d'un sac à dos et capable de se déplacer sur différents types de terrains, Edward a avancé calmement vers les animaux, les suivant sur plusieurs mètres sans geste brusque ni contact direct, jusqu'à ce qu'ils quittent la zone. La vidéo de l'intervention a rapidement circulé sur les réseaux sociaux, cumulant des millions de vues en quelques heures sur TikTok, Instagram et X, où Edward dépasse déjà les 500 millions de vues au total. Cette opération illustre une approche radicalement différente de la gestion de la faune urbaine. Les sangliers représentent un problème récurrent dans plusieurs quartiers de Varsovie : ils fouillent les poubelles, effraient les passants et créent des nuisances durables. Les méthodes traditionnelles, fondées sur la chasse ou les pièges, divisent régulièrement l'opinion publique et engendrent des tensions. Le robot propose une troisième voie : éloigner les animaux sans violence, sans risque pour les agents municipaux, et sans confrontation directe. L'approche séduit car elle combine efficacité opérationnelle et acceptabilité sociale, deux critères que les villes cherchent de plus en plus à concilier dans la gestion de leurs espaces publics. Edward n'est pas un prototype improvisé. Le robot a suivi un entraînement spécifique en Chine fin 2025, et son logiciel pilote ses déplacements en temps réel selon les contraintes du terrain. À Varsovie, il est devenu une figure publique à part entière : il discute avec des passants, est apparu à la télévision et s'est rendu au Parlement polonais, incarnant une forme nouvelle de robot à la fois fonctionnel et influenceur. La Pologne s'impose ainsi comme un terrain d'expérimentation sérieux pour l'usage civil de la robotique humanoïde en milieu urbain. Reste une question ouverte que cette séquence virale pose avec acuité : à mesure que ces robots gagnent en autonomie et en visibilité, comment les sociétés vont-elles définir leur rôle légitime dans l'espace public, et jusqu'où peut aller leur déploiement sans encadrement réglementaire clair ?

UELa Pologne expérimente le déploiement civil de robots humanoïdes en milieu urbain, soulevant des questions concrètes sur l'encadrement réglementaire européen de la robotique autonome dans l'espace public, un enjeu directement couvert par l'AI Act.

RobotiqueOpinion
1 source
Les drones deviennent plus intelligents pour les grandes exploitations agricoles
50AI News 

Les drones deviennent plus intelligents pour les grandes exploitations agricoles

DroneDash Technologies, basée à Singapour, et GEODNET ont annoncé la création d'une coentreprise baptisée GEODASH Aerosystems, dédiée au développement de drones de pulvérisation agricole destinés aux grandes exploitations industrielles. La technologie, proche du stade de production, vise à supprimer deux contraintes majeures des systèmes actuels : la nécessité de cartographier chaque champ avant chaque vol, et la reconstruction systématique des plans de vol lorsque les conditions au sol changent. Le drone combinera le système de vision par IA de DroneDash avec la technologie de correction de positionnement de GEODNET, pour atteindre une précision au centimètre. En vol, l'appareil est capable d'identifier les rangées de cultures, les arbres, le relief et les zones à traiter, d'ajuster son altitude et ses débits de pulvérisation en temps réel. Des déploiements pilotes ont été conduits tout au long de 2025 et début 2026 ; la commercialisation est prévue pour le troisième trimestre 2026. L'enjeu est considérable pour les grandes exploitations, notamment les plantations de palmiers à huile où les opérations de cartographie préalable mobilisent du temps et des équipes, limitant la surface couvrable par jour. Avec GEODASH Aerosystems, le drone n'a plus besoin de carte existante : il opère à l'intérieur de zones géo-délimitées en prenant ses propres décisions de trajectoire selon l'environnement perçu. Chaque vol alimente en outre le backend d'intelligence artificielle Smart Farming de DroneDash, générant des métriques sur la densité du couvert végétal, la santé des plantes, l'efficacité de la pulvérisation et les profils de terrain. Le drone devient ainsi une double plateforme : applicateur de traitement et capteur aérien permanent, capable d'informer les exploitants sur les besoins en fertilisation, en contrôle phytosanitaire ou en replantation. Les drones agricoles actuels sont pour la plupart des adaptations de modèles grand public, pensés pour des environnements structurés et prévisibles. Or, les plantations tropicales avec des cultures d'âges mixtes, l'érosion des sols ou la croissance végétale rendent les cartes statiques rapidement obsolètes. La frontière décisive en robotique intelligente est précisément là : la capacité à agir dans des environnements changeants, sans tout hard-coder. GEODASH Aerosystems cible en priorité les plantations de palmiers à huile en Asie du Sud-Est, les grandes cultures en rangs aux États-Unis et les vastes domaines en Amérique du Sud, trois marchés où la taille des exploitations rend prohibitif le temps de préparation des opérations traditionnelles. Le positionnement assumé de la société résume l'ambition : "L'agriculture n'a pas besoin de drones plus grands, elle a besoin de drones plus intelligents", selon Paul Yam, PDG de DroneDash.

RobotiqueActu
1 source