Aller au contenu principal
RobotiquearXiv cs.RO3h

Améliorer la couverture sensorielle et la conformité des peaux artificielles imprimées en 3D grâce à des capteurs multimodaux et des matériaux souples

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs ont développé une nouvelle génération de peaux artificielles imprimées en 3D capables de couvrir l'ensemble du corps d'un robot avec des capteurs tactiles et de proximité. Présentés dans une étude diffusée sur arXiv (arXiv:2504.25563), ces revêtements hybrides combinent deux modalités de détection : le temps de vol (ToF), qui mesure la distance par impulsions lumineuses, et la capacitance propre (SC), qui détecte le contact ou la pression via des variations électriques. Le système a été validé sur un bras robotique FR3, équipé de six unités de peau totalisant 40 éléments sensoriels répartis sur sa surface.

Ce que cette recherche change concrètement, c'est la capacité des robots à percevoir leur environnement de manière fine et continue, sans dépendre d'une seule source d'information sensorielle. La combinaison ToF et SC permet simultanément de détecter les contacts, de reconstruire une scène spatiale et de mesurer la pression exercée sur le revêtement souple. Ce dernier point est particulièrement significatif : les matériaux souples utilisés absorbent les chocs et transmettent les variations de pression en signaux exploitables, là où les implémentations précédentes restaient cantonnées à des matériaux rigides et à un seul type de capteur. Pour les applications en robotique collaborative, où un bras mécanique partage l'espace de travail avec des humains, cette sensibilité multi-modale est un prérequis de sécurité.

Jusqu'ici, les peaux artificielles pour robots se heurtaient à deux obstacles majeurs : la rigidité des matériaux, qui limite leur adhérence et leur confort sur des surfaces courbes, et l'absence de combinaison sensorielle, qui rendait la détection partielle. L'impression 3D offre une voie de fabrication scalable, c'est-à-dire adaptable à différentes morphologies robotiques sans recourir à des processus industriels coûteux. L'intégration d'une interface électrique simplifiée entre les traces conductrices imprimées et l'électronique externe représente également un progrès pratique. La prochaine étape logique sera d'étendre cette couverture à des robots entiers et de tester la robustesse du système dans des environnements industriels réels.

Impact France/UE

Ces travaux pourraient bénéficier aux fabricants européens de robots collaboratifs, notamment dans l'industrie allemande et française où l'adoption des cobots est en forte croissance, en réduisant les coûts de fabrication des revêtements sensoriels via l'impression 3D.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1arXiv cs.RO 

Capteurs tactiles et de proximité comme a priori d'observation pour l'évitement de collisions des humanoïdes

Des chercheurs ont présenté un cadre d'apprentissage par renforcement pour permettre à un robot humanoïde H1-2 d'éviter les collisions avec l'ensemble de son corps, en s'appuyant uniquement sur des capteurs tactiles et de proximité répartis sur sa partie supérieure. Pour évaluer le système, l'équipe a utilisé le dodgeball comme tâche de référence : le robot doit esquiver des balles lancées dans sa direction, sans recourir à des caméras externes. Les chercheurs ont ensuite fait varier systématiquement les propriétés des capteurs, notamment leur couverture spatiale, leur type et leur portée, afin de comprendre comment chacun de ces paramètres influence le comportement d'évitement appris. Les résultats bousculent certaines intuitions du domaine. Contrairement à ce qu'on pourrait supposer, des mesures de proximité brutes, sans localisation explicite des objets, suffisent à produire un comportement d'évitement efficace, à condition que la portée des capteurs soit suffisante. Plus surprenant encore, des signaux de proximité clairsemés et non directionnels surpassent des alternatives plus denses et directionnelles en termes d'efficacité d'apprentissage : le robot apprend plus vite avec moins d'information, pour peu que celle-ci couvre bien l'espace autour de lui. Ces conclusions ont des implications directes pour la conception matérielle des robots humanoïdes, en suggérant qu'un équipement sensoriel plus simple peut suffire là où l'on cherchait à maximiser la précision. L'enjeu derrière ces travaux est la sécurité des robots en environnement non contrôlé. Les caméras externes souffrent d'occlusions fréquentes dès que le robot interagit avec son environnement ou d'autres personnes, ce qui rend les capteurs embarqués sur le corps particulièrement précieux. Le H1-2 est l'un des robots humanoïdes commerciaux les plus accessibles du marché, ce qui donne à cette recherche une portée concrète au-delà du laboratoire. Alors que les déploiements industriels et domestiques de robots humanoïdes s'accélèrent, comprendre comment minimiser le risque de collision tout en réduisant la complexité sensorielle est une question centrale pour rendre ces machines réellement utilisables au quotidien.

RobotiqueActu
1 source
Des ingénieurs du MIT développent des micro-robots imprimés en 3D contrôlés par aimants
2Interesting Engineering 

Des ingénieurs du MIT développent des micro-robots imprimés en 3D contrôlés par aimants

Des ingénieurs du Massachusetts Institute of Technology (MIT), de l'École polytechnique fédérale de Lausanne (EPFL) et de l'Université de Cincinnati ont mis au point un nouveau type d'hydrogel magnétique souple qui peut être imprimé en 3D à l'échelle microscopique. Ces structures, plus petites qu'un grain de sable, peuvent se déformer et se mouvoir de façon indépendante sous l'effet d'un aimant externe. Pour démontrer la précision du matériau, l'équipe a fabriqué des "sucettes" miniatures en gel magnétique, dont chaque composant peut réagir avec une intensité différente à un simple aimant de réfrigérateur. Lorsqu'on approche l'aimant, les structures se transforment instantanément en pinces robotiques coordonnées, reproduisant le mouvement de doigts qui se referment. Les chercheurs ont également conçu un interrupteur bistable d'un millimètre de long, équipé de "rames" de la taille d'un globule rouge, capable de se verrouiller en position marche ou arrêt par simple commande magnétique à distance. L'enjeu médical est central : des robots aussi miniaturisés, guidés sans fil par un aimant externe, pourraient traverser le corps humain pour effectuer des biopsies ciblées, collecter des échantillons biologiques ou administrer des médicaments avec une précision millimétrique, sans contact physique ni réaction chimique lente. Ce qui distingue cette approche des micro-robots existants, c'est la capacité à programmer des déformations complexes au sein d'une seule et même structure microscopique. Jusqu'ici, les matériaux magnétiques à cette échelle se déplaçaient comme un bloc rigide. Ici, chaque partie du robot peut répondre différemment au même champ magnétique. "Pour la micro-robotique souple, ce pourrait être une capacité qui change la donne", résume Carlos Portela, co-auteur de l'étude. La principale difficulté technique résidait dans l'impression 3D elle-même : les nanoparticules magnétiques dispersent la lumière laser utilisée en lithographie biphotonique et s'agglomèrent, compromettant la structure des pièces imprimées. Pour contourner cela, l'équipe a adopté un procédé en deux temps, baptisé "double-dip" : la structure polymère est d'abord imprimée sans particules magnétiques, puis plongée dans des bains chimiques successifs pour faire croître des nanoparticules d'oxyde de fer directement au sein du gel. La densité du gel, et donc son degré de magnétisme, peut être ajustée finement en modulant la puissance du laser lors de l'impression initiale, ce qui permet de programmer des niveaux de réactivité distincts dans un même robot. Ce travail s'inscrit dans une course mondiale à la micro-robotique médicale, où le contrôle sans fil à distance représente l'un des verrous technologiques les plus convoités par les équipes de chirurgie mini-invasive et de délivrance ciblée de médicaments.

UEL'EPFL de Lausanne est co-auteure de cette avancée, positionnant la recherche européenne comme contributrice clé dans la course mondiale aux micro-robots chirurgicaux guidés sans fil.

RobotiqueActu
1 source
FingerEye : capteur vision-tactile continu et unifié pour la manipulation dextère
3arXiv cs.RO 

FingerEye : capteur vision-tactile continu et unifié pour la manipulation dextère

Des chercheurs du laboratoire LINS de l'Université nationale de Singapour ont présenté FingerEye, un capteur robotique compact et peu coûteux capable de combiner vision et toucher de manière continue tout au long d'une interaction physique. Publié sur arXiv le 28 avril 2025, le système intègre deux caméras RGB binoculaires pour percevoir l'environnement à courte portée avant tout contact, puis capte les déformations d'un anneau souple instrumenté de marqueurs pour mesurer les forces et couples exercés au moment où le robot touche un objet. Cette architecture permet une transition fluide entre perception visuelle pré-contact et retour tactile post-contact, le tout dans un unique capteur monté sur les doigts d'un bras robotique. Les chercheurs ont également développé une politique d'apprentissage par imitation qui fusionne les signaux de plusieurs capteurs FingerEye pour apprendre des comportements de manipulation à partir d'un nombre limité de démonstrations réelles, en s'appuyant sur un jumeau numérique du système pour renforcer la généralisation. La majorité des capteurs tactiles existants, comme GelSight et ses variantes, ne fournissent de retour d'information qu'une fois le contact établi, ce qui empêche le robot d'ajuster sa trajectoire lors de l'approche. FingerEye supprime cette lacune en offrant une boucle de perception ininterrompue, ce qui améliore sensiblement la précision des gestes fins. Les expériences menées montrent que le système parvient à réaliser des tâches délicates variées : faire tenir une pièce de monnaie debout, saisir une chip individuelle, extraire une lettre d'une enveloppe ou manipuler une seringue, autant de scénarios qui exigent une coordination précise entre vue et toucher. La manipulation dextre reste l'un des problèmes les plus difficiles de la robotique, car elle suppose de gérer simultanément la localisation d'un objet et les forces exercées sur lui. La plupart des approches séparent ces deux modalités ou ne traitent qu'une phase de l'interaction. FingerEye s'inscrit dans un courant de recherche plus large visant à doter les robots de capteurs multimodaux proches des capacités sensorielles humaines. L'intégration d'un jumeau numérique permet par ailleurs de générer des données simulées enrichies visuellement pour améliorer la robustesse aux variations d'apparence des objets, réduisant ainsi la dépendance aux coûteuses démonstrations en conditions réelles. Le code, les fichiers de conception matérielle et les vidéos sont disponibles sur le site du projet.

RobotiqueActu
1 source
VTouch++ : jeu de données multimodal combinant vision et retour tactile pour la manipulation bimanuelle
4arXiv cs.RO 

VTouch++ : jeu de données multimodal combinant vision et retour tactile pour la manipulation bimanuelle

Des chercheurs ont publié VTOUCH, un nouveau jeu de données multimodal conçu pour améliorer la manipulation bimanuelles des robots, c'est-à-dire la capacité d'un robot à utiliser deux bras de manière coordonnée. Présenté sur arXiv (référence 2604.20444), ce dataset combine des capteurs tactiles basés sur la vision pour fournir des signaux d'interaction physique haute fidélité. Concrètement, ces capteurs permettent au robot de "sentir" les contacts et pressions lors de tâches complexes, comme assembler un objet ou manipuler des matériaux fragiles. La collecte des données s'appuie sur des pipelines automatisés couvrant des scénarios réels orientés par la demande, et l'organisation des tâches suit une structure matricielle pensée pour faciliter l'apprentissage systématique à grande échelle. La manipulation bimanualle reste l'un des défis les plus ardus de la robotique incarnée, notamment parce que les tâches à fort contact physique exigent une coordination fine et des retours sensoriels précis que les datasets existants ne capturent pas suffisamment. VTOUCH répond directement à ce manque en intégrant des signaux tactiles riches là où la plupart des jeux de données se limitent à la vision ou aux données proprioceptives. Les expériences quantitatives menées sur la récupération cross-modale, ainsi que les évaluations sur robots réels, confirment l'efficacité du dataset. Plus important encore, les chercheurs ont démontré que les politiques entraînées sur VTOUCH se généralisent à plusieurs types de robots et plusieurs types de tâches, ce qui en fait un outil potentiellement mutualisable à travers l'industrie. La robotique incarnée connaît une accélération notable depuis l'essor des grands modèles de langage et vision, des acteurs comme Google DeepMind, Figure AI ou Physical Intelligence investissant massivement dans des robots capables d'opérer dans des environnements non structurés. La manipulation bimanualle est un goulot d'étranglement reconnu : même les systèmes les plus avancés peinent à égaler la dextérité humaine dans des tâches d'assemblage ou de cuisine. VTOUCH s'inscrit dans une tendance plus large de constitution de datasets spécialisés de grande échelle, à l'image d'Open X-Embodiment, pour accélérer l'entraînement de politiques robotiques généralisables. La prochaine étape sera de voir si ce dataset est rendu public et adopté par la communauté au-delà du laboratoire d'origine.

RobotiqueActu
1 source