Aller au contenu principal
Nouveaux algorithmes pour la construction de variétés de contact régulièrement différentiables et vectorisables
RecherchearXiv cs.RO6j

Nouveaux algorithmes pour la construction de variétés de contact régulièrement différentiables et vectorisables

Résumé IASource uniqueImpact UE
Source originale ↗·

Un préprint déposé sur arXiv le 21 avril 2026 (identifiant 2604.17538) propose deux algorithmes destinés à rendre la détection de collision dans les simulations robotiques à la fois lissément différentiable et massivement vectorisable. Les auteurs ciblent un goulet d'étranglement bien identifié dans les pipelines de simulation standard : lorsqu'un robot interagit avec son environnement en mode contact-riche (manipulation d'objets, locomotion bipède, assemblage industriel), le calcul de gradients utiles au premier et second ordre se heurte à des pathologies à chacune des trois étapes classiques, soit la détection de collision, la dynamique de contact et l'intégration temporelle. La contribution porte ici exclusivement sur la première étape. L'équipe introduit une classe de primitives SDF (signed distance function, ou fonction de distance signée) analytiques à haute expressivité, capables de représenter des surfaces 3D complexes avec une efficacité de calcul élevée, ainsi qu'une routine inédite de génération de variétés de contact (contact manifold) exploitant cette représentation géométrique.

L'enjeu est significatif pour la communauté de la robotique de contact. Aujourd'hui, les méthodes d'ordre zéro, essentiellement des approches par échantillonnage stochastique comme le CEM ou les politiques évolutionnaires, dominent sur les tâches contact-riches précisément parce que les gradients issus des simulateurs existants sont soit discontinus, soit trop bruités pour être exploitables. Si les résultats annoncés dans ce préprint se confirment, des solveurs d'ordre supérieur (gradient descent, méthodes de Newton) deviendraient applicables à ces scénarios, avec des gains potentiels substantiels en vitesse de convergence et en efficacité computationnelle. La propriété de vectorisation massive est également pertinente pour les architectures GPU modernes, ce qui ouvre la voie à un parallélisme étendu dans les boucles de simulation utilisées pour l'apprentissage par renforcement.

Ce travail s'inscrit dans un effort de recherche plus large visant à rendre les simulateurs physiques différentiables de bout en bout, prérequis reconnu pour réduire le sim-to-real gap sur des comportements impliquant du contact. Des environnements comme MuJoCo (DeepMind), Drake (Toyota Research Institute) ou Brax (Google) ont posé des jalons dans cette direction, chacun avec des compromis différents entre fidélité physique et différentiabilité. L'approche SDF analytique proposée ici se distingue par sa vectorisabilité, une propriété moins prioritaire dans les travaux antérieurs. Il s'agit d'un preprint non encore soumis à peer review ; les benchmarks comparatifs et les validations expérimentales sur hardware réel restent à produire, et la robustesse de la méthode sur des géométries industrielles complexes demeure à démontrer.

À lire aussi

Commande optimale de robots planaires sous-actionnés différentiellement plats pour la réduction des oscillations
1arXiv cs.RO 

Commande optimale de robots planaires sous-actionnés différentiellement plats pour la réduction des oscillations

Une équipe de chercheurs a publié sur arXiv (arXiv:2603.15528v2) une étude portant sur la commande optimale des robots planaires sous-actionnés différentiellement plats, avec pour objectif principal la réduction des oscillations résiduelles de l'effecteur terminal. Les robots sous-actionnés présentent un nombre de degrés de liberté (DOF) supérieur au nombre d'actionneurs, ce qui permet de concevoir des systèmes plus légers et moins coûteux, au prix d'une complexité accrue de la commande. La propriété de platitude différentielle, applicable lorsque la distribution de masse du robot est soigneusement dimensionnée, permet de paramétrer entièrement la trajectoire du système à partir d'un ensemble réduit de variables dites "plates". Le problème identifié est précis : pour les trajectoires à faible vitesse, les modèles dynamiques simplifient souvent le frottement, une hypothèse qui induit des oscillations résiduelles de l'effecteur autour de la position cible, dégradant la précision de positionnement. Pour y remédier, les auteurs proposent de coupler la commande par platitude différentielle avec une couche de commande optimale, en minimisant des indices de performance quadratiques portant sur deux grandeurs distinctes : l'effort de commande (couple moteur) et l'énergie potentielle de l'articulation passive. La minimisation de l'énergie potentielle s'avère particulièrement intéressante car elle produit des lois de mouvement robustes aux variations de raideur et d'amortissement de l'articulation passive, un point critique lorsque les paramètres mécaniques réels dévient des valeurs nominales du modèle. Les résultats, validés par simulations numériques, montrent que cette approche réduit efficacement les oscillations sans nécessiter une modélisation exhaustive du frottement. Ce travail s'inscrit dans une tradition de recherche sur les manipulateurs sous-actionnés comme le Pendubot ou les bras à liaisons flexibles, où le compromis légèreté/contrôlabilité reste un sujet actif depuis les années 1990. La platitude différentielle, formalisée notamment par Fliess et al., trouve ici une extension vers la planification de trajectoires optimales. Les approches concurrentes incluent la commande par modes glissants et les régulateurs LQR classiques, moins adaptés aux non-linéarités de ces systèmes. L'étape suivante naturelle serait une validation expérimentale sur prototype physique, absente de cette version de l'article, ainsi qu'une extension aux robots 3D non planaires.

UELa platitude différentielle est un cadre théorique formalisé par le chercheur français Michel Fliess, mais cette extension reste au stade simulation sans partenaire industriel européen identifié.

RecherchePaper
1 source
De nouveaux robots fourmis travaillent comme de vrais insectes pour construire et démonter de façon autonome
2Interesting Engineering 

De nouveaux robots fourmis travaillent comme de vrais insectes pour construire et démonter de façon autonome

Des chercheurs de la Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS) ont publié dans la revue PRX Life une étude décrivant une flotte de robots appelés "RAnts" (Robotic Ants), capables de construire et démanteler des structures de manière autonome, sans plan directeur ni contrôleur central. Ces agents physiques suivent un ensemble minimal de règles locales : détecter un gradient lumineux, transporter des blocs, et les déposer lorsqu'un seuil d'intensité est atteint. Pour remplacer les phéromones chimiques des fourmis biologiques, l'équipe du Professeur L. Mahadevan a introduit le concept de "photormones" : des champs lumineux qui jouent le même rôle de signal environnemental, permettant à chaque robot de modifier son environnement et de réagir aux modifications effectuées par ses congénères. Ce mécanisme s'appuie sur le principe biologique de stigmergie. Le basculement entre mode construction et mode démolition ne nécessite que l'ajustement de deux paramètres : l'intensité du comportement de suivi lumineux et le seuil de dépôt ou de ramassage des blocs. L'intérêt industriel de cette approche réside dans sa robustesse intrinsèque. Un système décentralisé n'a pas de point de défaillance unique : si un agent tombe en panne, le reste de l'essaim continue d'opérer. Pour les intégrateurs et les décideurs B2B, cela pose une alternative crédible aux architectures de coordination centralisées, souvent coûteuses à maintenir et fragiles en environnements non structurés. Le concept d'"exbodied intelligence" proposé par Mahadevan est théoriquement significatif : il déplace le centre de gravité de l'intelligence hors du hardware individuel, vers l'interaction continue entre les agents et leur environnement évolutif. Cela contredit directement la tendance dominante en IA, qui mise sur des modèles toujours plus grands et des processeurs toujours plus puissants. Ici, la complexité émergente est obtenue à coût computationnel minimal. Les résultats semblent solides sur le plan des principes, mais l'article ne précise pas les dimensions des robots, leur payload, leur vitesse de cycle, ni les volumes de blocs traités, ce qui limite pour l'instant l'évaluation de leur transposabilité industrielle réelle. La robotique en essaim n'est pas un domaine nouveau : des travaux pionniers comme le projet Kilobot au MIT ou les recherches de Marco Dorigo (Université Libre de Bruxelles) sur les algorithmes de colonie de fourmis ont posé les bases théoriques il y a plus d'une décennie. Ce qui distingue les RAnts est l'utilisation d'un support physique de communication (la lumière) plutôt que d'une infrastructure de communication numérique externe, ce qui simplifie le déploiement en environnements contraints. Les applications envisagées par l'équipe incluent la construction autonome en zones dangereuses, l'exploration planétaire, et la modélisation du comportement animal. Ces cas d'usage restent à ce stade prospectifs : aucun pilote industriel ni partenariat de déploiement n'est annoncé. La prochaine étape logique serait de démontrer la scalabilité du système avec des essaims de plusieurs dizaines d'unités dans des environnements 3D non contrôlés, condition nécessaire avant toute adoption par des acteurs comme les agences spatiales ou le secteur de la construction en milieux extrêmes.

UELes travaux de Marco Dorigo (ULB, Bruxelles) sur les algorithmes de colonie de fourmis constituent le socle théorique de ce domaine, mais cette étude Harvard n'implique pas directement d'acteurs européens ni de déploiement en Europe.

RecherchePaper
1 source
Assemblage robotique à contacts multiples dans la construction par politique de diffusion
3arXiv cs.RO 

Assemblage robotique à contacts multiples dans la construction par politique de diffusion

Des chercheurs ont publié sur arXiv (arXiv:2511.17774, version 3) une étude portant sur l'application de l'apprentissage par diffusion à l'assemblage robotique dans le secteur de la construction. Le cas d'usage retenu est l'assemblage tenon-mortaise en bois, une jonction à contact riche soumise à des contraintes de friction et de géométrie strictes, avec des jeux inférieurs au millimètre. Les politiques de diffusion sensori-motrices ont été entraînées à partir de démonstrations téléopérées collectées sur un poste de travail robotique industriel équipé de capteurs force/couple. L'évaluation s'est déroulée en deux phases : une baseline en conditions nominales et un test de robustesse avec des perturbations positionnelles aléatoires allant jusqu'à 10 mm, soit un ordre de grandeur au-delà de la tolérance d'assemblage. La politique la plus performante atteint 100 % de taux de succès en conditions nominales et 75 % en moyenne sous perturbation. Ce résultat est notable car il adresse directement un verrou industriel structurel : l'accumulation de tolérances dans la construction empêche depuis longtemps l'automatisation fiable des tâches d'assemblage à contact. Le fait qu'une politique diffusion parvienne à compenser des désalignements de 10 mm pour des jeux sub-millimétriques suggère que ces architectures apprennent implicitement une stratégie de compliance active via le retour d'effort, sans modélisation géométrique explicite. Pour un intégrateur industriel ou un bureau de méthodes, cela signifie que le sim-to-real gap sur des tâches de précision en construction pourrait être en partie résorbé par l'apprentissage par imitation couplé à la force/couple, sans recalibration manuelle systématique. L'assemblage tenon-mortaise n'est pas un choix anodin : cette technique millénaire est revenue en force dans la construction bois massive (CLT, charpente lamellée-croisée), un segment en forte croissance en Europe avec des acteurs comme Sœur Bois ou Blumer-Lehmann. Les politiques de diffusion appliquées à la robotique manipulatrice ont été popularisées par des travaux comme le Diffusion Policy de Chi et al. (2023, Columbia/Toyota) et sont désormais explorées par des labos comme Physical Intelligence (pi) avec Pi-0, ou par Boston Dynamics Research. Cette étude se distingue en ciblant explicitement la construction industrielle plutôt que la cuisine ou la logistique. La prochaine étape logique serait un déploiement en conditions chantier réelles, avec variation de matériaux et de géométries, ce que les auteurs n'ont pas encore testé.

UELe segment construction bois massive (CLT, charpente lamellée-croisée) est en forte croissance en Europe avec des acteurs comme Sœur Bois ou Blumer-Lehmann ; une automatisation fiable des assemblages à contact ouvrirait une voie d'industrialisation directement applicable sur les chantiers européens.

RecherchePaper
1 source
Raffinement de démonstrations accélérées par contrôle itératif incrémental pour l'apprentissage par imitation à contact riche
4arXiv cs.RO 

Raffinement de démonstrations accélérées par contrôle itératif incrémental pour l'apprentissage par imitation à contact riche

Une équipe de chercheurs a publié en avril 2026 sur arXiv (arXiv:2604.16850) une méthode baptisée I2RLC (Incremental Iterative Reference Learning Control) pour générer automatiquement des démonstrations robotiques rapides et précises, sans intervention humaine à haute vitesse. Le constat de départ est simple : en apprentissage par imitation (IL), les humains ne peuvent pas démontrer physiquement une tâche à 5x ou 10x leur vitesse naturelle, et accélérer naïvement un enregistrement dégrade la dynamique de contact et crée des erreurs de suivi qui corrompent les données d'entraînement. L'I2RLC résout ce problème en augmentant progressivement la vitesse d'exécution tout en corrigeant itérativement la trajectoire de référence à partir des erreurs observées. La méthode a été validée sur robot réel, sur deux tâches à contact riche : effacement de tableau blanc et insertion cheville-trou (peg-in-hole), en utilisant un système de téleopération composé d'un bras suiveur à contrôle de compliance et d'un leader haptic imprimé en 3D. Les résultats atteignent des démonstrations 10x plus rapides avec réduction des erreurs de suivi, et I2RLC améliore la similarité spatiale aux trajectoires originales de 22,5 % en moyenne par rapport à la version non-incrémentale (IRLC), sur trois tâches et plusieurs vitesses (3x à 10x). Les politiques entraînées sur ces données atteignent 100 % de taux de réussite sur la tâche peg-in-hole, y compris pour des positions non vues à l'entraînement, avec des forces de contact inférieures. Ce résultat adresse un angle mort fréquent dans le développement des politiques d'imitation : la qualité des démonstrations elle-même. La grande majorité des approches IL (Diffusion Policy, ACT, Pi-0) suppose des démos propres et représentatives, sans se préoccuper du fossé entre la vitesse humaine et la vitesse de déploiement réelle. Ici, la généralisation à des positions non vues avec 100 % de succès constitue un signal concret de robustesse, pas simplement une performance en conditions contrôlées. Pour les intégrateurs industriels, l'enjeu est direct : si l'on peut automatiser la génération de trajectoires rapides à partir de démos lentes, le coût de collecte de données pour des tâches d'assemblage ou de manutention chute significativement. L'apprentissage par imitation pour la manipulation à contact riche est un axe de recherche très actif depuis 2022-2023, porté par des travaux comme ACT (Stanford), Diffusion Policy (MIT/Columbia) et les architectures VLA type Pi-0 (Physical Intelligence). Le problème de la "vitesse des démos" reste cependant peu traité dans la littérature. L'I2RLC s'inscrit dans une lignée de méthodes de contrôle itératif (ILC) adaptées à la robotique apprenante. Aucune entreprise commerciale n'est citée dans cette publication académique, mais les applications industrielles naturelles touchent l'assemblage électronique, le câblage, et toute manipulation nécessitant précision et cadence. Les prochaines étapes probables incluent une extension aux politiques diffusives modernes et une validation sur des tâches multi-étapes en environnement non structuré.

RecherchePaper
1 source