Aller au contenu principal
Capteurs tactiles et de proximité comme a priori d'observation pour l'évitement de collisions des humanoïdes
RobotiquearXiv cs.RO2h

Capteurs tactiles et de proximité comme a priori d'observation pour l'évitement de collisions des humanoïdes

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs ont présenté un cadre d'apprentissage par renforcement pour permettre à un robot humanoïde H1-2 d'éviter les collisions avec l'ensemble de son corps, en s'appuyant uniquement sur des capteurs tactiles et de proximité répartis sur sa partie supérieure. Pour évaluer le système, l'équipe a utilisé le dodgeball comme tâche de référence : le robot doit esquiver des balles lancées dans sa direction, sans recourir à des caméras externes. Les chercheurs ont ensuite fait varier systématiquement les propriétés des capteurs, notamment leur couverture spatiale, leur type et leur portée, afin de comprendre comment chacun de ces paramètres influence le comportement d'évitement appris.

Les résultats bousculent certaines intuitions du domaine. Contrairement à ce qu'on pourrait supposer, des mesures de proximité brutes, sans localisation explicite des objets, suffisent à produire un comportement d'évitement efficace, à condition que la portée des capteurs soit suffisante. Plus surprenant encore, des signaux de proximité clairsemés et non directionnels surpassent des alternatives plus denses et directionnelles en termes d'efficacité d'apprentissage : le robot apprend plus vite avec moins d'information, pour peu que celle-ci couvre bien l'espace autour de lui. Ces conclusions ont des implications directes pour la conception matérielle des robots humanoïdes, en suggérant qu'un équipement sensoriel plus simple peut suffire là où l'on cherchait à maximiser la précision.

L'enjeu derrière ces travaux est la sécurité des robots en environnement non contrôlé. Les caméras externes souffrent d'occlusions fréquentes dès que le robot interagit avec son environnement ou d'autres personnes, ce qui rend les capteurs embarqués sur le corps particulièrement précieux. Le H1-2 est l'un des robots humanoïdes commerciaux les plus accessibles du marché, ce qui donne à cette recherche une portée concrète au-delà du laboratoire. Alors que les déploiements industriels et domestiques de robots humanoïdes s'accélèrent, comprendre comment minimiser le risque de collision tout en réduisant la complexité sensorielle est une question centrale pour rendre ces machines réellement utilisables au quotidien.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

FingerEye : capteur vision-tactile continu et unifié pour la manipulation dextère
1arXiv cs.RO 

FingerEye : capteur vision-tactile continu et unifié pour la manipulation dextère

Des chercheurs du laboratoire LINS de l'Université nationale de Singapour ont présenté FingerEye, un capteur robotique compact et peu coûteux capable de combiner vision et toucher de manière continue tout au long d'une interaction physique. Publié sur arXiv le 28 avril 2025, le système intègre deux caméras RGB binoculaires pour percevoir l'environnement à courte portée avant tout contact, puis capte les déformations d'un anneau souple instrumenté de marqueurs pour mesurer les forces et couples exercés au moment où le robot touche un objet. Cette architecture permet une transition fluide entre perception visuelle pré-contact et retour tactile post-contact, le tout dans un unique capteur monté sur les doigts d'un bras robotique. Les chercheurs ont également développé une politique d'apprentissage par imitation qui fusionne les signaux de plusieurs capteurs FingerEye pour apprendre des comportements de manipulation à partir d'un nombre limité de démonstrations réelles, en s'appuyant sur un jumeau numérique du système pour renforcer la généralisation. La majorité des capteurs tactiles existants, comme GelSight et ses variantes, ne fournissent de retour d'information qu'une fois le contact établi, ce qui empêche le robot d'ajuster sa trajectoire lors de l'approche. FingerEye supprime cette lacune en offrant une boucle de perception ininterrompue, ce qui améliore sensiblement la précision des gestes fins. Les expériences menées montrent que le système parvient à réaliser des tâches délicates variées : faire tenir une pièce de monnaie debout, saisir une chip individuelle, extraire une lettre d'une enveloppe ou manipuler une seringue, autant de scénarios qui exigent une coordination précise entre vue et toucher. La manipulation dextre reste l'un des problèmes les plus difficiles de la robotique, car elle suppose de gérer simultanément la localisation d'un objet et les forces exercées sur lui. La plupart des approches séparent ces deux modalités ou ne traitent qu'une phase de l'interaction. FingerEye s'inscrit dans un courant de recherche plus large visant à doter les robots de capteurs multimodaux proches des capacités sensorielles humaines. L'intégration d'un jumeau numérique permet par ailleurs de générer des données simulées enrichies visuellement pour améliorer la robustesse aux variations d'apparence des objets, réduisant ainsi la dépendance aux coûteuses démonstrations en conditions réelles. Le code, les fichiers de conception matérielle et les vidéos sont disponibles sur le site du projet.

RobotiqueActu
1 source
Les robots humanoïdes apprennent la manipulation polyvalente par simulation tactile
2arXiv cs.RO 

Les robots humanoïdes apprennent la manipulation polyvalente par simulation tactile

Des chercheurs ont présenté un nouveau système d'apprentissage pour robots humanoïdes capable de manipuler des objets avec une dextérité inédite, en intégrant le sens du toucher comme modalité centrale. Baptisé HTD (Humanoid Transformer with Touch Dreaming), ce modèle multimodal de type encodeur-décodeur Transformer combine la vision multi-caméras, la proprioception et la détection tactile pour permettre à un robot humanoïde d'accomplir des tâches nécessitant des contacts physiques complexes et fréquents. Testé sur cinq tâches réelles impliquant des manipulations délicates, HTD affiche une amélioration relative de 90,9 % du taux de succès moyen par rapport aux approches concurrentes les plus solides. L'enjeu central de ce travail est de résoudre l'un des défis les plus persistants de la robotique humanoïde : la coordination entre stabilité du corps entier, agilité des mains et conscience du contact physique. Dans les environnements réels, un robot qui saisit un objet fragile ou manipule un outil doit constamment ajuster sa prise en fonction des forces ressenties, une capacité que les systèmes purement visuels peinent à développer. Grâce à la technique du "touch dreaming", la politique apprise ne se contente pas de prédire des séquences d'actions, elle anticipe également les forces futures exercées par les articulations des mains et les états tactiles latents à venir, ce qui l'oblige à construire des représentations internes riches et sensibles au contact. Les expériences d'ablation confirment que cette prédiction dans l'espace latent est plus efficace que la prédiction brute des données tactiles, avec un gain relatif de 30 % supplémentaire en taux de succès. L'architecture repose sur un contrôleur de la partie basse du corps entraîné par apprentissage par renforcement, qui assure la stabilité posturale pendant les manipulations complexes. La collecte de données de démonstration s'effectue via un système de téléopération en réalité virtuelle qui intègre à la fois des mains dextères et des capteurs tactiles, permettant de recueillir des interactions riches en contact sans étape de pré-entraînement tactile séparée. Ce travail, dont les matériaux sont publiés en open source, s'inscrit dans une tendance plus large de la recherche en robotique visant à doter les humanoïdes de capacités sensori-motrices proches de celles des humains, condition indispensable avant un déploiement dans des environnements domestiques ou industriels non contrôlés.

RobotiqueOpinion
1 source
L'armée américaine déploie des robots pour la logistique de proximité et l'évacuation des blessés en zone de combat
3Interesting Engineering 

L'armée américaine déploie des robots pour la logistique de proximité et l'évacuation des blessés en zone de combat

L'armée américaine a publié un appel à solutions commerciales, dont la date limite est fixée au 28 avril 2026, pour développer un véhicule terrestre sans pilote capable d'assurer deux missions critiques en zone de combat : le ravitaillement de première ligne et l'évacuation des blessés. Le robot doit pouvoir transporter suffisamment de vivres, munitions et matériel médical pour soutenir un peloton de fusiliers et un état-major de compagnie, tout en étant capable d'emporter au moins deux blessés depuis leur point de blessure jusqu'à un poste de collecte désigné. Le système devra fonctionner en télé-opération comme en navigation autonome, y compris hors des routes et sans signal GPS, et minimiser ses émissions électromagnétiques pour réduire sa détectabilité. Ce besoin répond à une vulnérabilité concrète qui coûte des vies : le "dernier kilomètre tactique" est devenu l'un des segments les plus meurtriers du champ de bataille moderne. Les drones ennemis assurent désormais une surveillance quasi permanente des lignes de front, rendant chaque mouvement de troupe exposé aux tirs d'artillerie et aux tireurs d'élite. L'armée reconnaît explicitement que cette pression permanente entrave la capacité des commandants à ravitailler leurs unités et à évacuer les blessés dans des délais acceptables. En remplaçant des soldats par une plateforme robotisée pour ces missions, l'objectif est de maintenir l'efficacité opérationnelle tout en retirant des hommes des zones les plus dangereuses. Ce projet s'inscrit dans la continuité d'efforts déjà engagés, notamment le programme Small Multipurpose Equipment Transport (S-MET), et de systèmes existants comme le Hunter Wolf de HDT Robotics, un robot de transport lourd déjà capable d'intégrer des armements. Mais l'urgence s'est nettement accélérée sous l'effet des leçons tirées du conflit en Ukraine, où les forces ukrainiennes ont largement adopté les robots pour la logistique et l'évacuation sanitaire de première ligne, faute de pouvoir exposer du personnel humain sous la surveillance drone omniprésente. L'armée américaine cherche à aller plus loin en dotant directement les unités de manœuvre d'un soutien robotisé organique, sans dépendre d'une chaîne logistique arrière. Si un système est sélectionné, il pourrait redéfinir l'organisation des unités de combat et accélérer la robotisation d'autres tâches à risque sur des champs de bataille de plus en plus instrumentés.

UELes leçons tirées du conflit en Ukraine, moteur explicite de cette initiative américaine, alimentent directement les réflexions des armées européennes, dont l'armée française, sur la robotisation de leur soutien logistique et sanitaire de première ligne.

RobotiqueOpinion
1 source
VTouch++ : jeu de données multimodal combinant vision et retour tactile pour la manipulation bimanuelle
4arXiv cs.RO 

VTouch++ : jeu de données multimodal combinant vision et retour tactile pour la manipulation bimanuelle

Des chercheurs ont publié VTOUCH, un nouveau jeu de données multimodal conçu pour améliorer la manipulation bimanuelles des robots, c'est-à-dire la capacité d'un robot à utiliser deux bras de manière coordonnée. Présenté sur arXiv (référence 2604.20444), ce dataset combine des capteurs tactiles basés sur la vision pour fournir des signaux d'interaction physique haute fidélité. Concrètement, ces capteurs permettent au robot de "sentir" les contacts et pressions lors de tâches complexes, comme assembler un objet ou manipuler des matériaux fragiles. La collecte des données s'appuie sur des pipelines automatisés couvrant des scénarios réels orientés par la demande, et l'organisation des tâches suit une structure matricielle pensée pour faciliter l'apprentissage systématique à grande échelle. La manipulation bimanualle reste l'un des défis les plus ardus de la robotique incarnée, notamment parce que les tâches à fort contact physique exigent une coordination fine et des retours sensoriels précis que les datasets existants ne capturent pas suffisamment. VTOUCH répond directement à ce manque en intégrant des signaux tactiles riches là où la plupart des jeux de données se limitent à la vision ou aux données proprioceptives. Les expériences quantitatives menées sur la récupération cross-modale, ainsi que les évaluations sur robots réels, confirment l'efficacité du dataset. Plus important encore, les chercheurs ont démontré que les politiques entraînées sur VTOUCH se généralisent à plusieurs types de robots et plusieurs types de tâches, ce qui en fait un outil potentiellement mutualisable à travers l'industrie. La robotique incarnée connaît une accélération notable depuis l'essor des grands modèles de langage et vision, des acteurs comme Google DeepMind, Figure AI ou Physical Intelligence investissant massivement dans des robots capables d'opérer dans des environnements non structurés. La manipulation bimanualle est un goulot d'étranglement reconnu : même les systèmes les plus avancés peinent à égaler la dextérité humaine dans des tâches d'assemblage ou de cuisine. VTOUCH s'inscrit dans une tendance plus large de constitution de datasets spécialisés de grande échelle, à l'image d'Open X-Embodiment, pour accélérer l'entraînement de politiques robotiques généralisables. La prochaine étape sera de voir si ce dataset est rendu public et adopté par la communauté au-delà du laboratoire d'origine.

RobotiqueActu
1 source