Aller au contenu principal
HAVEN : navigation hiérarchique sensible aux adversaires, visibilité et couverts par réseaux Q à transformeurs profonds
RecherchearXiv cs.RO6j

HAVEN : navigation hiérarchique sensible aux adversaires, visibilité et couverts par réseaux Q à transformeurs profonds

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs ont publié sur arXiv (arXiv:2512.00592v2) un framework de navigation autonome baptisé HAVEN, Hierarchical Adversary-aware Visibility-Enabled Navigation, conçu pour faire évoluer des agents robotiques dans des environnements partiellement observables, c'est-à-dire là où les capteurs ne voient pas tout et où des obstacles occultent une partie de la scène. L'architecture combine un réseau de neurones de type Deep Transformer Q-Network (DTQN) pour la sélection de sous-objectifs à haut niveau, et un contrôleur bas niveau à champs de potentiel pour l'exécution des waypoints. Le DTQN ingère des historiques courts de features contextuelles, odométrie, direction de l'objectif, proximité des obstacles, indices de visibilité, et produit des Q-values qui classent les sous-objectifs candidats. Une génération de candidats dite "visibility-aware" introduit des pénalités d'exposition et récompense l'utilisation des couverts, favorisant un comportement anticipatoire plutôt que réactif. Le système a été validé en simulation 2D puis transféré sans modification architecturale vers un environnement 3D Unity-ROS, en projetant la perception point-cloud dans le même schéma de features.

Ce travail s'attaque à un problème concret dans les déploiements robotiques réels : les planificateurs classiques (A*, RRT) et les politiques de reinforcement learning sans mémoire peinent dès que le champ de vision est limité, générant des manœuvres sous-optimales ou dangereuses dans des espaces encombrés. L'apport du Transformer réside dans sa capacité à exploiter l'historique temporel pour inférer l'état caché de l'environnement, là où un réseau feedforward réagirait à l'instant présent. Les résultats montrent des améliorations mesurées sur le taux de succès, les marges de sécurité et le temps jusqu'à l'objectif par rapport aux baselines RL et aux planificateurs classiques, bien que les expériences restent en simulation, sans banc d'essai sur hardware réel, ce qui laisse ouverte la question du sim-to-real gap.

HAVEN s'inscrit dans une tendance de recherche qui applique les architectures Transformer, initialement conçues pour le NLP, au contrôle séquentiel de robots en environnements incertains. Le champ de l'autonomie sous occlusion est particulièrement actif : des travaux comme Decision Transformer ou GTrXL ont posé les bases de l'usage de la mémoire contextuelle en RL. Les domaines d'application cités par les auteurs couvrent la logistique entrepôt (AMR en environnement dynamique), la conduite urbaine et la surveillance, un positionnement qui rejoint les problématiques des acteurs de la navigation indoor comme Exotec ou Balyo côté français. La prochaine étape naturelle serait une validation sur plateforme physique et des benchmarks en environnements réels avec adversaires mobiles, conditions non encore adressées dans cette version.

Impact France/UE

Les acteurs français de la navigation indoor comme Exotec et Balyo pourraient être concernés par cette approche de planification sous occlusion, mais le travail reste entièrement en simulation sans validation matérielle.

À lire aussi

Un cadre de recherche guidé par l'accessibilité de Hamilton-Jacobi pour la navigation intérieure planaire sûre et efficace des robots
1arXiv cs.RO 

Un cadre de recherche guidé par l'accessibilité de Hamilton-Jacobi pour la navigation intérieure planaire sûre et efficace des robots

Des chercheurs ont publié sur arXiv (référence 2504.17679) un framework de navigation intérieure combinant deux familles d'algorithmes jusqu'ici utilisées séparément : la reachability hamiltonienne-jacobienne (HJ), calculée hors-ligne, et la recherche sur graphe, exécutée en ligne. Le principe : les fonctions de valeur HJ, précomputées sur la géométrie de l'environnement, servent à la fois d'heuristiques informatives et de contraintes de sécurité proactives pour guider la recherche sur graphe en temps réel. Le système a été validé en simulation extensive et dans des expériences en conditions réelles, incluant des environnements avec présence humaine. Aucun modèle de robot spécifique ni aucune entreprise commerciale ne sont mentionnés dans la publication, qui s'inscrit dans un cadre académique pur. L'intérêt principal de cette approche réside dans la gestion du compromis entre sécurité garantie et efficacité computationnelle, un point de friction classique pour les robots mobiles en intérieur (AMR, plateformes logistiques). La reachability HJ offre des garanties théoriques solides sur l'évitement d'obstacles, mais elle souffre d'une limitation structurelle : elle suppose une connaissance complète de l'environnement, ce qui la rend difficilement applicable à des espaces dynamiques ou partiellement inconnus. En intégrant la reachability comme heuristique plutôt que comme planificateur principal, les auteurs contournent cette contrainte tout en amortissant le coût de calcul en ligne. Les résultats annoncés montrent une amélioration consistante face aux méthodes de référence, tant en efficacité de planification qu'en sécurité, mais les métriques précises (temps de cycle, taux de collision) ne sont pas détaillées dans le résumé disponible. La reachability HJ est un outil issu de la théorie du contrôle optimal, historiquement utilisé pour la vérification formelle de systèmes cyber-physiques. Son application à la robotique mobile n'est pas nouvelle, mais son couplage avec des algorithmes de recherche sur graphe type A* pour surmonter la contrainte de connaissance globale de l'environnement représente une direction de recherche active. Ce travail se positionne face aux approches purement apprentissage (VLA, politiques end-to-end) en revendiquant des garanties formelles absentes des méthodes neuronales. Les prochaines étapes naturelles incluent l'extension à des espaces 3D ou à des robots non-holonomes, ainsi qu'une validation sur des plateformes industrielles réelles.

RecherchePaper
1 source
Amélioration de la reconstruction de surfaces en verre par estimation de profondeur pour la navigation robotique
2arXiv cs.RO 

Amélioration de la reconstruction de surfaces en verre par estimation de profondeur pour la navigation robotique

Des chercheurs ont publié le 25 avril 2026 sur arXiv (arXiv:2604.18336) un framework de reconstruction de surfaces vitrées destiné à améliorer la navigation autonome en intérieur. Le problème visé est concret : les capteurs de profondeur (LiDAR, RGB-D) échouent systématiquement face aux surfaces transparentes ou réfléchissantes comme le verre, qui génèrent des mesures erronées ou absentes. L'approche proposée exploite Depth Anything 3, un modèle fondationnel de vision monoculaire, comme prior géométrique, puis aligne ce prior sur les données brutes du capteur via un algorithme RANSAC local. Ce mécanisme permet d'éviter que les mesures corrompues par le verre ne contaminent la reconstruction finale, tout en récupérant une échelle métrique absolue que le modèle de fondation seul ne fournit pas. L'équipe publie également GlassRecon, un dataset RGB-D inédit avec vérité terrain dérivée géométriquement pour les régions vitrées, et annonce la mise à disposition du code et des données sur GitHub. Ce travail adresse un angle mort réel de la navigation robotique en milieu tertiaire. Les bureaux, centres commerciaux, aéroports et hôpitaux sont truffés de cloisons vitrées, de vitrines et de portes transparentes qui font échouer les AMR (Autonomous Mobile Robots) commerciaux en production. Le fait que le framework soit training-free est un avantage pratique direct pour les intégrateurs : il ne nécessite pas de retrainer un modèle sur des données propriétaires, et peut s'insérer dans un pipeline de navigation existant sans modification majeure. Les expériences montrent des gains consistants par rapport aux baselines de l'état de l'art, particulièrement dans les cas de corruption sévère du capteur, ce qui suggère une robustesse utile en conditions réelles plutôt qu'en environnement de laboratoire contrôlé. La détection et la reconstruction de surfaces transparentes est un problème ouvert depuis plusieurs années dans la communauté robotique. Des travaux antérieurs comme GlassNet ou Trans10K avaient abordé la segmentation du verre en RGB pur, mais la fusion avec des données de profondeur restait peu explorée de manière training-free. Du côté concurrentiel, des approches de completion de profondeur par deep learning (IP-Basic, PENet) ou de slam robuste aux occultations existent, mais elles requièrent typiquement un entraînement spécialisé. La contribution de ce papier est de positionner les modèles de fondation non pas comme remplaçants du capteur, mais comme régularisateurs géométriques. Les prochaines étapes annoncées sont la publication du dataset GlassRecon et du code, ce qui permettra à la communauté d'évaluer la reproductibilité des résultats. Aucun déploiement terrain ni partenaire industriel n'est mentionné à ce stade : il s'agit d'une contribution de recherche, pas d'un produit.

RecherchePaper
1 source
Tutoriel OpenMythos : Transformers à profondeur récurrente, calcul adaptatif et routage par mélange d'experts
3MarkTechPost 

Tutoriel OpenMythos : Transformers à profondeur récurrente, calcul adaptatif et routage par mélange d'experts

Une bibliothèque Python open source baptisée OpenMythos propose une reconstruction théorique de l'architecture dite "Claude Mythos", une approche de raisonnement approfondi qui mise sur l'itération computationnelle plutôt que sur l'augmentation du nombre de paramètres. Publiée sur PyPI sous le nom open-mythos, elle permet de construire des modèles de langage dotés d'un mécanisme de profondeur récurrente, où la même couche de traitement est traversée plusieurs fois en boucle. Le tutoriel publié explore deux variantes du mécanisme d'attention : GQA (Grouped Query Attention) et MLA (Multi-head Latent Attention), compare leur empreinte mémoire respective, entraîne un modèle sur une tâche de parité binaire, et inspecte l'utilisation des experts dans des couches de type Mixture-of-Experts (MoE). Les expériences montrent que MLA réduit la taille du cache KV d'un facteur d'environ 2 par rapport à GQA pour une séquence de 64 tokens sur 4 boucles. L'enjeu central de l'architecture est ce que les auteurs appellent la "depth extrapolation" : la capacité à augmenter le nombre de boucles de raisonnement au moment de l'inférence, sans réentraîner le modèle. Un modèle entraîné avec 4 itérations peut ainsi être utilisé avec 8 ou 16 boucles pour améliorer ses performances sur des tâches complexes, sans modifier aucun paramètre. Ce paradigme s'inscrit dans la tendance plus large du "test-time compute", qui consiste à allouer davantage de calcul au moment de la génération plutôt qu'à l'entraînement. Le tutoriel valide également la stabilité numérique du modèle via les propriétés spectrales de la matrice de mise à jour récurrente, un point critique pour éviter l'explosion ou la disparition des gradients dans les boucles profondes. Le module ACT (Adaptive Computation Time) permet en outre au modèle de décider dynamiquement combien d'itérations sont nécessaires pour chaque token. Cette publication s'inscrit dans un contexte de forte effervescence autour des architectures alternatives aux transformeurs classiques. La référence à "Claude Mythos" suggère une inspiration directe des travaux d'Anthropic, même si le projet reste une reconstruction théorique non officielle. Le champ des architectures récurrentes profondes connaît un regain d'intérêt depuis 2024, porté par des travaux comme les Recurrent Depth Transformers de Google DeepMind et les architectures hybrides SSM/attention. OpenMythos se positionne comme un outil pédagogique et expérimental pour explorer ces idées, à destination de chercheurs et d'ingénieurs qui cherchent à comprendre comment atteindre des capacités de raisonnement plus profondes sans multiplier les paramètres, une piste particulièrement pertinente dans un contexte où l'entraînement de modèles frontières est devenu prohibitif pour la majorité des acteurs.

RecherchePaper
1 source
Navigation en foule par LiDAR avec représentation des groupes en bordure de champ de vision
4arXiv cs.RO 

Navigation en foule par LiDAR avec représentation des groupes en bordure de champ de vision

Des chercheurs ont publié sur arXiv (référence 2604.16741) une étude portant sur la navigation autonome de robots mobiles dans des environnements piétonniers à forte densité, en s'appuyant sur une représentation simplifiée des groupes de piétons détectés par LiDAR. Le problème central qu'ils adressent est bien identifié dans le secteur : naviguer socialement en foule dense reste un verrou applicatif majeur pour les AMR déployés en gare, aéroport ou centre commercial. Les approches existantes souffrent de deux limites structurelles : soit elles n'ont été testées qu'en faible densité, soit elles reposent sur des modules de détection externe d'individus, particulièrement sensibles aux occlusions et au bruit de capteur propres aux foules compactes. Les auteurs proposent en réponse une représentation dite "visible edge-based" des groupes, qui exploite uniquement les arêtes visibles entre piétons détectés, sans reconstruction complète des trajectoires individuelles. Le résultat le plus significatif de ce travail est contre-intuitif : la précision de la prédiction des groupes n'influence que marginalement les performances de navigation en environnement dense. Cela suggère qu'une représentation simplifiée, computationnellement moins coûteuse, peut atteindre des niveaux de sécurité et de "socialness" comparables à des approches plus complexes. Pour les intégrateurs et les équipes R&D déployant des robots de service en milieu public, cette observation est directement actionnables : elle légitime une réduction significative de la complexité du pipeline de perception sans dégradation mesurable du comportement social du robot. Les expériences en simulation confirment cette parité de performance, et la vitesse de calcul accrue ouvre la voie à des déploiements sur hardware embarqué plus contraint. Le contexte académique de ce travail s'inscrit dans une littérature active sur la navigation socialmente conforme (socially-aware navigation), dont les jalons incluent les travaux sur ORCA, SARL ou encore CADRL. La prise en compte des groupes comme unité comportementale plutôt que des individus isolés remonte à des études empiriques en sciences sociales (théorie des F-formations), et plusieurs équipes travaillent sur ce sujet, notamment à travers les benchmarks de navigation piétonnière en robotique de service. L'étape suivante naturelle serait une validation à plus grande échelle en conditions réelles, les auteurs ayant pour l'instant limité les expériences terrain à un seul robot dans un environnement contrôlé.

RecherchePaper
1 source