Aller au contenu principal
Robots à tendons avec colonne vertébrale polymère flexible conique : conception, fabrication et modélisation
RobotiquearXiv cs.RO2h

Robots à tendons avec colonne vertébrale polymère flexible conique : conception, fabrication et modélisation

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs ont présenté une nouvelle génération de robots continus à actionnement par tendons, fabriqués par impression 3D à partir de polyuréthane thermoplastique (TPU), un matériau souple et économique. La caractéristique centrale du design est son architecture conique, c'est-à-dire que la colonne vertébrale flexible du robot s'affine progressivement de la base vers l'extrémité, ce qui lui confère une souplesse accrue à la pointe et une rigidité maintenue à la base. Le système intègre une électronique embarquée permettant de contrôler et de mesurer en temps réel la tension des tendons grâce à des actionneurs et des cellules de charge. Les chercheurs ont validé leur modèle de simulation face à des données de capture de mouvement réelle, atteignant une précision de prédiction de forme à l'échelle du centimètre. En démonstration finale, le robot a réussi des tâches de préhension téléopérée en utilisant une pince endoscopique montée sur un bras robotique à 6 degrés de liberté.

L'intérêt de ce travail réside dans la combinaison rare entre performance mécanique et accessibilité. La plupart des robots continus existants sont conçus pour un usage unique, coûteux à produire et difficiles à modifier. Ici, le design paramétrique permet d'adapter rapidement la géométrie via des scripts CAD fournis en accès libre, ce qui ouvre la voie à des applications dans l'inspection industrielle, la chirurgie mini-invasive ou la manipulation en environnement contraint, sans nécessiter de moyens de fabrication industriels. La conformation conique améliore notamment la manipulabilité distale, c'est-à-dire la capacité du robot à atteindre des angles et des configurations variées en bout de bras, un paramètre clé pour les tâches en espace confiné.

Les robots continus, inspirés de la biologie des tentacules et des trompes, font l'objet d'une attention croissante dans la robotique médicale et industrielle depuis une décennie. Leur principal verrou technologique reste la modélisation précise de leur comportement mécanique, particulièrement complexe car ils déforment tout leur corps plutôt qu'un seul joint articulé. Les auteurs s'appuient sur la théorie des tiges de Cosserat, un formalisme mathématique reconnu, qu'ils étendent ici pour intégrer la variation géométrique longitudinale de la section transversale. La diffusion des scripts de génération paramétrique et l'utilisation exclusive d'imprimantes FDM grand public positionnent cette approche comme une base reproductible pour d'autres équipes souhaitant explorer la robotique souple sans infrastructure lourde.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Modélisation dynamique par apprentissage automatique et contrôle robuste pour robots continus à tendons
1arXiv cs.RO 

Modélisation dynamique par apprentissage automatique et contrôle robuste pour robots continus à tendons

Des chercheurs ont publié le 29 avril 2026 une nouvelle approche pour contrôler les robots continus à tendons (TDCRs), une catégorie de robots souples dont les mouvements sont pilotés par des câbles ou tendons internes. Ces systèmes sont particulièrement difficiles à modéliser en raison de non-linéarités complexes : hystérésis de friction, compliance de transmission et comportements dynamiques qui s'amplifient sur de longues séquences de mouvements. L'équipe propose un cadre d'apprentissage différentiable combinant un modèle de dynamique haute fidélité basé sur des réseaux GRU (Gated Recurrent Units) avec une politique de contrôle neuronal entraînée de bout en bout. Le modèle intègre une connectivité bidirectionnelle multi-canaux et une prédiction résiduelle pour supprimer l'accumulation d'erreurs lors des prédictions auto-régressives sur le long terme. Les expériences ont été menées sur un robot physique à trois sections, validant les performances en conditions réelles. Cette approche dépasse les méthodes classiques basées sur le jacobien, qui génèrent des oscillations auto-entretenues problématiques pour la précision et la stabilité. En traitant le modèle de dynamique comme un "pont de gradient", la politique de contrôle apprend implicitement à compenser les non-linéarités intrinsèques du robot sans qu'il soit nécessaire de les modéliser explicitement. Le résultat est un suivi de trajectoire précis et une robustesse supérieure face à des charges utiles inconnues, c'est-à-dire des poids non intégrés lors de l'entraînement, ce qui est critique pour les applications en environnements variables. Les robots continus à tendons suscitent un intérêt croissant en chirurgie mini-invasive, inspection industrielle et manipulation en espaces confinés, précisément parce que leur souplesse leur permet d'évoluer là où les bras rigides échouent. Le principal verrou restait leur contrôle fiable dans des conditions dynamiques réelles. Cette publication s'inscrit dans une tendance plus large d'intégration de l'apprentissage automatique dans la robotique physique, où les modèles appris remplacent progressivement les équations analytiques trop simplificatrices. Les prochaines étapes pourraient inclure la généralisation à des robots à plus de sections, l'adaptation en temps réel au vieillissement mécanique des tendons, et une intégration dans des systèmes chirurgicaux assistés.

RobotiqueOpinion
1 source
RISE : politique robotique auto-améliorante avec modèle du monde compositionnel
2arXiv cs.RO 

RISE : politique robotique auto-améliorante avec modèle du monde compositionnel

Des chercheurs ont présenté RISE, un framework d'apprentissage par renforcement pour robots qui s'améliore sans interaction physique coûteuse. Publié sur arXiv (2602.11075), le système repose sur un modèle du monde compositional constitué de deux blocs distincts : un modèle de dynamique contrôlable qui prédit l'évolution visuelle de la scène depuis plusieurs angles de caméra, et un modèle d'évaluation de la progression qui note les résultats imaginés. Ces deux composants alimentent une boucle fermée dans laquelle le robot simule des séquences d'actions en imagination, estime leur qualité, puis met à jour sa politique sans jamais bouger un seul moteur. Testé sur trois tâches réelles, RISE obtient des gains spectaculaires : +35 % en tri dynamique de briques, +45 % pour emballer un sac à dos, et +35 % pour fermer une boîte. Ce résultat compte car il s'attaque à un problème fondamental de la robotique moderne : les modèles Vision-Language-Action, malgré des capacités croissantes, restent fragiles dès qu'une manipulation implique des contacts physiques ou une dynamique rapide. La moindre déviation d'exécution peut déclencher une cascade d'échecs. L'apprentissage par renforcement classique permettrait théoriquement de rendre les robots plus robustes, mais il exige des milliers d'essais sur du matériel réel, avec des risques de casse et des procédures de remise en état longues et onéreuses. RISE contourne cette contrainte en déplaçant l'essentiel de l'apprentissage dans un espace imaginaire, rendant l'amélioration continue à la fois sûre et scalable. La robotique de manipulation est aujourd'hui dominée par l'imitation, on montre au robot des démonstrations humaines, et il reproduit. Cette approche atteint ses limites dans des environnements non contrôlés, où les objets bougent et les conditions varient. Le mouvement vers des modèles du monde capables de simuler des conséquences futures s'inscrit dans une tendance plus large, partagée avec les travaux sur les world models en jeux vidéo et en conduite autonome. RISE représente une étape concrète vers des robots capables d'auto-amélioration continue, sans dépendre d'un accès permanent à des environnements physiques instrumentés.

RobotiquePaper
1 source
Comment construire un agent incarné léger inspiré des VLA avec modélisation latente et commande prédictive
3MarkTechPost 

Comment construire un agent incarné léger inspiré des VLA avec modélisation latente et commande prédictive

Un tutoriel publié récemment propose une implémentation complète d'un agent embarqué capable de percevoir son environnement, planifier ses actions, prédire les conséquences de ses décisions et s'adapter en temps réel, le tout à partir de simples pixels. L'architecture s'appuie sur trois composants intégrés : un monde de simulation rendu entièrement en NumPy sous forme de grille RGB 8x8, un modèle de monde léger entraîné avec PyTorch, et un système de contrôle prédictif (Model Predictive Control, MPC) opérant dans un espace latent. L'agent ne reçoit aucune variable d'état symbolique : il perçoit uniquement des images RGB de 112x112 pixels représentant sa position, celle de l'objectif à atteindre, et les obstacles à éviter. Le modèle encode ces observations visuelles en représentations latentes compactes, prédit les états futurs conditionnés par des séquences d'actions, et sélectionne à chaque pas de temps la meilleure séquence en simulant plusieurs trajectoires candidates avant d'exécuter la première action. Cette approche est significative parce qu'elle démontre qu'un pipeline de type Vision-Language-Action, jusqu'ici réservé à des systèmes coûteux en ressources, peut être reproduit à petite échelle de façon pédagogique et fonctionnelle. En remplaçant l'état symbolique par de la perception visuelle brute, le tutoriel illustre concrètement comment les agents robotiques modernes peuvent opérer dans des environnements partiellement observables sans accès privilégié à l'état interne du monde. Le MPC en espace latent offre en outre une planification explicitement interprétable : au lieu d'une politique apprise de bout en bout, l'agent évalue activement de futures trajectoires à chaque étape, ce qui facilite le débogage et l'adaptation à des contraintes changeantes. Pour les chercheurs et ingénieurs travaillant sur la robotique ou les agents autonomes, cette implémentation constitue un point de départ accessible pour comprendre les mécanismes des systèmes comme GATO (DeepMind) ou RT-2 (Google), sans nécessiter de clusters GPU. Les agents Vision-Language-Action ont émergé ces deux dernières années comme l'une des directions les plus prometteuses en robotique incarnée, combinant perception visuelle, compréhension du langage naturel et planification motrice au sein d'un modèle unifié. Des entreprises comme Google DeepMind, Physical Intelligence (pi) et Figure AI investissent massivement dans ces architectures pour des robots capables d'exécuter des instructions en langage naturel dans des environnements réels. Le défi central reste la généralisation : un agent entraîné dans un environnement simulé doit pouvoir transférer ses capacités au monde physique, problème connu sous le nom de "sim-to-real gap". Ce tutoriel, bien que confiné à une grille simplifiée, pose les fondations conceptuelles de cette chaîne de traitement et constitue un outil de formation précieux à mesure que le domaine se démocratise.

RobotiqueTuto
1 source
SARM : une modélisation des récompenses adaptée aux étapes pour la manipulation robotique à long terme
4arXiv cs.RO 

SARM : une modélisation des récompenses adaptée aux étapes pour la manipulation robotique à long terme

Des chercheurs ont publié SARM (Stage-Aware Reward Modeling), un nouveau cadre d'apprentissage destiné aux robots manipulateurs, conçu pour résoudre des tâches longues et complexes impliquant des objets déformables. Le système repose sur un modèle de récompense vidéo qui prédit simultanément l'étape courante d'une tâche et la progression fine du robot, en s'appuyant sur des annotations en langage naturel pour découper les démonstrations en sous-tâches cohérentes. À partir de ce modèle, les auteurs introduisent le Reward-Aligned Behavior Cloning (RA-BC), une méthode qui filtre et repondère les démonstrations d'entraînement selon leur qualité estimée. Sur la tâche de pliage de t-shirt, SARM atteint un taux de réussite de 83 % à partir d'un état aplati et de 67 % à partir d'un état froissé, contre seulement 8 % et 0 % avec le clonage comportemental classique. Ces résultats représentent un bond considérable pour la robotique manipulation, un domaine où les objets déformables comme les vêtements posaient jusqu'ici des problèmes quasi insolubles aux systèmes automatisés. Le principal apport de SARM est sa robustesse face à la variabilité des démonstrations humaines : plutôt que d'indexer les étapes par numéro de frame (une approche fragile dès que les durées varient), le modèle comprend sémantiquement où en est le robot dans la tâche. Cela rend le système directement utilisable dans des environnements réels, sans calibration fine pour chaque nouvelle variante du problème. L'apprentissage par imitation à grande échelle est au coeur de la robotique moderne, portée par des laboratoires comme Google DeepMind, Stanford ou Carnegie Mellon, ainsi que des startups comme Physical Intelligence. Le défi persistant est la qualité inconsistante des données de démonstration collectées sur des tâches longues : un seul geste maladroit peut corrompre tout un exemple d'entraînement. SARM aborde ce problème en amont, au niveau de la supervision, plutôt qu'en collectant toujours plus de données. Cette approche, à la fois économe en annotations et généralisable hors distribution, pourrait devenir un composant standard des pipelines de robot learning dans les prochaines années.

RobotiqueOpinion
1 source