Aller au contenu principal
Compensation de force sans contact en temps réel pour capteurs de poignet en chirurgie robotique haptique
RobotiquearXiv cs.RO3h

Compensation de force sans contact en temps réel pour capteurs de poignet en chirurgie robotique haptique

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs ont publié sur arXiv une méthode de compensation en temps réel des forces parasites affectant les capteurs force/couple montés au poignet de robots chirurgicaux, dans le cadre d'une plateforme d'entraînement appelée RoboScope. Le système présenté intègre un capteur force/couple (F/T) directement sur le poignet du bras robotisé, une configuration qui contourne les difficultés liées aux capteurs placés à l'extrémité des instruments mais qui génère en contrepartie des forces dites non-contact : gravité, biais du capteur, décalages d'installation et couples associés. Pour neutraliser ces perturbations sans sacrifier la réactivité, l'équipe propose un algorithme basé sur les moindres carrés récursifs (RLS), capable de fonctionner en continu sans phase de collecte de données préalable ni recalibrations répétées. Les résultats expérimentaux montrent une réduction des erreurs supérieure à 95 % pour les forces parasites et à 91 % pour les couples, des performances qui surpassent nettement les méthodes existantes.

L'enjeu est direct : le retour haptique, c'est-à-dire la capacité à ressentir la résistance des tissus et à doser précisément la force appliquée, est une fonctionnalité absente de la grande majorité des systèmes de chirurgie robotisée actuels. Sans elle, les chirurgiens opèrent "à l'aveugle" mécaniquement, ce qui complique l'apprentissage et augmente le risque de traumatismes tissulaires lors des procédures délicates. En rendant fiable le retour haptique sur une plateforme à faible coût, cette avancée rend la formation plus réaliste et accessible à des hôpitaux ou centres de recherche ne disposant pas des budgets nécessaires aux systèmes commerciaux haut de gamme comme le Da Vinci.

La chirurgie robotisée assistée connaît une expansion rapide, mais l'intégration du retour haptique reste un problème ouvert depuis des années, freinée par la complexité technique et les coûts. Les rares systèmes commerciaux qui commencent à proposer cette fonctionnalité restent inaccessibles pour la plupart des établissements de formation. RoboScope s'inscrit dans une tendance plus large de démocratisation des outils chirurgicaux avancés via des architectures open-source et abordables. La robustesse de la méthode RLS face aux variations de conditions opératoires laisse envisager une intégration dans des robots réels, au-delà du seul contexte d'entraînement.

Impact France/UE

Les hôpitaux et centres de formation chirurgicale en France et en Europe pourraient bénéficier de plateformes d'entraînement robotique haptique accessibles et peu coûteuses, réduisant la dépendance aux systèmes commerciaux haut de gamme aujourd'hui inaccessibles à la majorité des établissements.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Cadre cinématique pour évaluer les configurations de pincement en robotique, sans modèle d'objet ni de contact
1arXiv cs.RO 

Cadre cinématique pour évaluer les configurations de pincement en robotique, sans modèle d'objet ni de contact

Des chercheurs ont publié sur arXiv (référence 2604.20692) un cadre d'évaluation cinématique permettant d'analyser les configurations de pincement des mains robotiques sans avoir recours à des modèles d'objets ni à des modèles de force de contact. La méthode repose sur le calcul de l'espace de travail atteignable par chaque bout de doigt à partir des configurations articulaires, puis sur la détection de configurations de pincement réalisables en évaluant les relations géométriques entre les paires de bouts de doigts. Quatre structures cinématiques différentes de main ont été comparées afin d'examiner leur influence sur les configurations de pincement possibles. Pour les concepteurs de mains robotiques, cet apport est concret : il devient possible d'évaluer la dextérité de préhension d'un prototype dès les premières phases de conception, sans avoir à modéliser les objets à saisir ni à simuler les forces de contact. Ces étapes, traditionnellement coûteuses en temps de calcul et en données, constituaient un frein majeur à l'itération rapide sur les designs. En permettant une évaluation fondée uniquement sur la structure cinématique de la main, le framework ouvre la voie à des cycles de développement plus courts et à une comparaison objective entre différentes architectures mécaniques. La robotique de manipulation traverse une période d'intense compétition, portée par l'essor des robots humanoïdes et des bras industriels autonomes. Les mains robotiques dotées d'une dextérité fine restent l'un des grands défis non résolus du secteur, que ce soit pour des usages industriels ou médicaux. Les méthodes d'évaluation existantes supposent généralement que l'objet à manipuler est connu à l'avance, ce qui les rend peu utiles lors des premières étapes de conception matérielle. Ce travail s'inscrit dans un courant de recherche visant à abstraire l'évaluation de la dextérité, et pourrait à terme être intégré dans des outils de conception assistée par ordinateur pour accélérer le développement de nouvelles générations de mains robotiques polyvalentes.

RobotiqueActu
1 source
Détection en temps réel des andains par capteurs embarqués sur tracteur pour un suivi automatisé
2arXiv cs.RO 

Détection en temps réel des andains par capteurs embarqués sur tracteur pour un suivi automatisé

Des chercheurs ont publié un système open source de détection en temps réel des andains de fourrage pour tracteurs autonomes, accompagné d'un jeu de données multimodal inédit. L'approche combine vision stéréoscopique et LiDAR montés sur tracteur, capturés lors d'opérations réelles de mise en balles. Les données synchronisées incluent des trajectoires GNSS et sont partiellement disponibles sous forme de bags ROS2 Humble sur la plateforme Zenodo, avec des données supplémentaires accessibles sur demande. L'algorithme de suivi par centroïde tourne à plus de 20 Hz sur un module embarqué NVIDIA Jetson AGX Orin, ce qui garantit une réactivité suffisante pour guider un engin agricole en conditions réelles. Sur la plage critique de guidage de 4 à 10 mètres, les mesures de profondeur par stéréovision et par LiDAR affichent une corrélation de 0,965 ± 0,021, un niveau de concordance remarquable. Ce résultat démontre que des capteurs stéréo peu coûteux peuvent rivaliser avec les performances du LiDAR pour cette tâche spécifique, ouvrant la voie à des systèmes d'automatisation agricole nettement moins onéreux. La pipeline complète, sans recours au GPS, est publiée en open source sous ROS 2 et constitue un référentiel reproductible pour la communauté de recherche en récolte autonome de fourrage. Le secteur de la récolte fourragère automatisée est aujourd'hui dominé par des solutions propriétaires dont les algorithmes de détection d'andains restent opaques, ce qui freine la recherche indépendante et l'innovation ouverte. Ce travail répond directement à ce verrou en fournissant à la fois les données brutes et le code nécessaires pour reproduire et améliorer les résultats. L'agriculture de précision est un marché en pleine expansion, porté par la pénurie de main-d'œuvre agricole et la pression sur la productivité ; disposer de briques technologiques ouvertes pour l'automatisation des tracteurs pourrait accélérer l'adoption dans les exploitations de taille intermédiaire qui ne peuvent pas se permettre des solutions constructeurs à prix élevé.

UECette contribution open source sur l'automatisation des tracteurs pourrait bénéficier aux exploitations agricoles françaises et européennes confrontées à la pénurie de main-d'œuvre, en offrant des briques technologiques reproductibles moins coûteuses que les solutions propriétaires des constructeurs.

RobotiquePaper
1 source
Flow Matching indépendant du temps pour un contrôle robotique génératif, adaptatif et robuste
3arXiv cs.RO 

Flow Matching indépendant du temps pour un contrôle robotique génératif, adaptatif et robuste

Des chercheurs ont publié GeCO (Generative Control as Optimization), un nouveau cadre d'apprentissage par imitation pour robots, présenté dans un article soumis à arXiv (arXiv:2603.17834). Là où les systèmes actuels basés sur la diffusion ou le flow matching consacrent un budget de calcul fixe à chaque mouvement, quelle qu'en soit la complexité, GeCO fonctionne différemment : il transforme la génération d'actions en un processus d'optimisation itérative. Concrètement, le modèle apprend un champ de vitesse stationnaire dans lequel les comportements experts forment des attracteurs stables, ce qui permet à l'inférence de s'arrêter dès convergence plutôt qu'après un nombre prédéterminé d'étapes. Le système s'intègre comme remplacement direct des têtes de flow matching existantes, notamment dans les modèles pi0-series de type Vision-Language-Action (VLA), sans nécessiter de réentraînement de l'architecture complète. L'impact principal est double. D'un côté, GeCO alloue automatiquement plus de calcul aux situations difficiles et s'arrête plus tôt pour les mouvements simples, ce qui améliore à la fois l'efficacité et le taux de succès sur les benchmarks de simulation standards. De l'autre, la géométrie stationnaire du champ de vitesse fournit un signal de sécurité natif et sans entraînement supplémentaire : la norme du champ au point d'action optimisé reste faible pour les situations connues, et augmente significativement en présence d'anomalies ou de situations hors distribution. C'est un détecteur d'OOD (out-of-distribution) gratuit, ce qui est rare dans ce type de systèmes. La robotique apprenante est aujourd'hui dominée par les politiques diffusion et flow matching, héritées des générateurs d'images, avec leur cortège d'étapes d'intégration fixes. Le problème de la détection de situations inconnues est un verrou majeur pour le déploiement sûr de robots en environnement réel. GeCO attaque les deux limites simultanément depuis un angle géométrique plutôt que supervisé, ce qui le distingue des approches concurrentes. Les prochaines étapes naturelles seront la validation sur matériel physique et l'intégration dans des pipelines de manipulation industrielle, domaines où l'adaptabilité computationnelle et la robustesse aux anomalies ont une valeur opérationnelle directe.

RobotiquePaper
1 source
SARM : une modélisation des récompenses adaptée aux étapes pour la manipulation robotique à long terme
4arXiv cs.RO 

SARM : une modélisation des récompenses adaptée aux étapes pour la manipulation robotique à long terme

Des chercheurs ont publié SARM (Stage-Aware Reward Modeling), un nouveau cadre d'apprentissage destiné aux robots manipulateurs, conçu pour résoudre des tâches longues et complexes impliquant des objets déformables. Le système repose sur un modèle de récompense vidéo qui prédit simultanément l'étape courante d'une tâche et la progression fine du robot, en s'appuyant sur des annotations en langage naturel pour découper les démonstrations en sous-tâches cohérentes. À partir de ce modèle, les auteurs introduisent le Reward-Aligned Behavior Cloning (RA-BC), une méthode qui filtre et repondère les démonstrations d'entraînement selon leur qualité estimée. Sur la tâche de pliage de t-shirt, SARM atteint un taux de réussite de 83 % à partir d'un état aplati et de 67 % à partir d'un état froissé, contre seulement 8 % et 0 % avec le clonage comportemental classique. Ces résultats représentent un bond considérable pour la robotique manipulation, un domaine où les objets déformables comme les vêtements posaient jusqu'ici des problèmes quasi insolubles aux systèmes automatisés. Le principal apport de SARM est sa robustesse face à la variabilité des démonstrations humaines : plutôt que d'indexer les étapes par numéro de frame (une approche fragile dès que les durées varient), le modèle comprend sémantiquement où en est le robot dans la tâche. Cela rend le système directement utilisable dans des environnements réels, sans calibration fine pour chaque nouvelle variante du problème. L'apprentissage par imitation à grande échelle est au coeur de la robotique moderne, portée par des laboratoires comme Google DeepMind, Stanford ou Carnegie Mellon, ainsi que des startups comme Physical Intelligence. Le défi persistant est la qualité inconsistante des données de démonstration collectées sur des tâches longues : un seul geste maladroit peut corrompre tout un exemple d'entraînement. SARM aborde ce problème en amont, au niveau de la supervision, plutôt qu'en collectant toujours plus de données. Cette approche, à la fois économe en annotations et généralisable hors distribution, pourrait devenir un composant standard des pipelines de robot learning dans les prochaines années.

RobotiqueOpinion
1 source