Aller au contenu principal
L'IA vise la navigation autonome en fauteuil roulant
RobotiqueIEEE Spectrum AI6sem

L'IA vise la navigation autonome en fauteuil roulant

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs du Centre de recherche allemand sur l'intelligence artificielle (DFKI) à Brême ont présenté ce mois-ci à Anaheim, en Californie, un prototype de fauteuil roulant électrique intelligent capable de naviguer de manière autonome dans des environnements encombrés. Dirigée par Christian Mandel et Serge Autexier, l'équipe a développé un système intégrant des données de capteurs embarqués et de caméras de profondeur montées sur drones pour garantir une navigation sûre — y compris en mode entièrement autonome piloté par la voix.

L'enjeu dépasse largement le gadget technologique : pour les personnes souffrant de handicaps moteurs sévères, l'autonomie de déplacement est une question d'inclusion et de dignité. Ces systèmes pourraient transformer le quotidien de millions d'utilisateurs, à condition de franchir des obstacles bien réels — coût, fiabilité en conditions réelles, et adaptation aux profils très variés des utilisateurs.

Chaque fauteuil prototype embarque deux lidars, une caméra 3D, des odomètres et un ordinateur intégré. La navigation autonome repose sur le système open-source ROS2 Nav2 couplé à des cartes SLAM et des contrôleurs d'évitement d'obstacles. En mode semi-autonome, l'utilisateur garde le joystick ; en mode pleinement autonome, il suffit d'une commande vocale — « Conduis-moi à la machine à café » — confirmée via l'interface du fauteuil. Le projet s'inscrit dans le cadre du programme européen REXASI-PRO (Reliable and Explainable Swarm Intelligence for People With Reduced Mobility).

Les expertes du secteur tempèrent l'enthousiasme. Pooja Viswanathan, PDG de Braze Mobility (Toronto), souligne que « le coût reste un frein majeur » et que les systèmes de financement exigent des preuves claires d'efficacité et de sécurité avant de prendre en charge ces technologies. Louise Devinge, ingénieure biomédicale à l'IRISA (Rennes), avertit que « plus on ajoute de capteurs, de calcul et d'autonomie, plus il devient difficile de garantir des performances robustes dans tous les environnements réels ». Le consensus du domaine est clair : l'objectif n'est pas de remplacer le jugement de l'utilisateur, mais de l'assister.

Impact France/UE

Le projet REXASI-PRO est porté par le DFKI, centre de recherche européen de référence, et ses résultats pourraient alimenter les standards d'accessibilité et de robotique de service au sein de l'UE.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
1arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

RobotiqueActu
1 source
L’IA s’attaque aux fauteuils roulants avec de grandes promesses
2Numerama 

L’IA s’attaque aux fauteuils roulants avec de grandes promesses

Des prototypes de fauteuils roulants intelligents intégrant l'intelligence artificielle ont été présentés début mars 2026 lors d'une conférence sur les technologies d'assistance en Californie. Ces dispositifs sont conçus pour améliorer l'autonomie des utilisateurs en facilitant la navigation dans des environnements encombrés ou complexes. L'apport de l'IA pourrait représenter une avancée significative pour les personnes à mobilité réduite, en réduisant les obstacles du quotidien — couloirs étroits, foules, obstacles imprévus — sans intervention manuelle constante. Si les promesses se confirment, ces technologies pourraient transformer l'expérience de millions de personnes dépendant d'un fauteuil roulant. Le secteur des technologies d'assistance connaît depuis plusieurs années une accélération liée aux progrès de l'IA embarquée, avec plusieurs acteurs cherchant à repositionner le fauteuil roulant comme un outil de mobilité véritablement autonome.

RobotiqueActu
1 source
Navigation autonome d'un robot par apprentissage structurel en ligne et planification par inférence active
3arXiv cs.RO 

Navigation autonome d'un robot par apprentissage structurel en ligne et planification par inférence active

Des chercheurs de l'université de Gand ont publié sur arXiv un système de navigation robotique autonome baptisé AIMAPP (Active Inference MAPping and Planning), capable d'explorer des environnements inconnus sans carte préalable ni phase d'entraînement. Le robot construit en temps réel une carte topologique sparse, apprend dynamiquement les transitions d'états et planifie ses actions en minimisant ce que les auteurs appellent l'Énergie Libre Attendue (Expected Free Energy), un principe emprunté à la théorie de l'inférence active. Le système est compatible avec ROS, indépendant du type de capteurs utilisés et fonctionne en mode entièrement auto-supervisé, sans aucune intervention humaine préalable. L'intérêt principal d'AIMAPP réside dans sa robustesse face aux conditions réelles d'opération : il continue de fonctionner même en cas de défaillance partielle des capteurs ou de dérive odométrique cumulative, deux problèmes qui paralysent souvent les systèmes classiques de navigation SLAM. Contrairement aux approches par apprentissage profond qui nécessitent d'importants volumes de données annotées, AIMAPP s'adapte en ligne à des environnements changeants et à des observations ambiguës. Dans des évaluations conduites à grande échelle, en environnements réels et simulés, le système surpasse ou égale les planificateurs de référence actuels, ouvrant la voie à des robots déployables dans des contextes non structurés comme des entrepôts, des zones sinistrées ou des espaces extérieurs. L'inférence active est un cadre théorique issu des neurosciences computationnelles, initialement développé pour modéliser la perception et l'action chez les êtres vivants. Son application à la robotique est encore émergente, mais AIMAPP représente une des implémentations les plus complètes à ce jour, combinant cartographie, localisation et prise de décision dans un modèle génératif unifié. Le code est disponible publiquement sur GitHub (decide-ugent/aimapp), ce qui pourrait accélérer son adoption dans la communauté robotique. La prochaine étape naturelle sera de tester le système sur des flottes de robots opérant en parallèle, ainsi que dans des environnements dynamiques peuplés d'humains.

UERecherche conduite par l'Université de Gand (Belgique), le code open-source publié sur GitHub est directement exploitable par les laboratoires et industriels européens actifs en robotique autonome.

💬 Pas de données annotées, pas de carte préalable, et ça tient quand les capteurs flanchent, là où SLAM se plante souvent. C'est le problème qu'on n'arrivait pas à régler proprement depuis des années en robotique mobile. Le code est sur GitHub et compatible ROS, donc les labos n'ont pas besoin de repartir de zéro.

RobotiquePaper
1 source
L'IA de conduite autonome entraînée 50 000 fois plus vite qu'en temps réel
4IEEE Spectrum AI 

L'IA de conduite autonome entraînée 50 000 fois plus vite qu'en temps réel

General Motors développe une infrastructure d'entraînement pour ses systèmes de conduite autonome capable de simuler des scénarios à 50 000 fois la vitesse réelle. L'entreprise combine simulation à grande échelle, apprentissage par renforcement et modèles de fondation pour préparer ses véhicules aux situations rares et imprévisibles — ce que les ingénieurs appellent la « longue traîne » : une panne généralisée de feux de signalisation à San Francisco, un matelas sur la chaussée, un chantier de construction guidé par des ouvriers qui font des gestes. Pour traiter ces scénarios complexes, GM développe des modèles Vision-Language-Action (VLA), issus des grands modèles de vision par langage, auxquels sont ajoutées des têtes de décodage spécialisées pour la conduite. Ces modèles permettent au véhicule de comprendre, par exemple, qu'un geste d'un policier a priorité sur un feu rouge, ou d'identifier visuellement une zone de chargement dans un aéroport. Face au problème de latence inhérent aux modèles de grande taille, GM a conçu une architecture dite « Dual Frequency VLA » : un grand modèle tourne à basse fréquence pour les décisions sémantiques de haut niveau (« cet objet est-il une branche ou un parpaing ? »), tandis qu'un modèle léger gère en temps réel le contrôle spatial — direction et freinage. Cette séparation permet de bénéficier du raisonnement profond sans compromettre les temps de réaction nécessaires à la sécurité. Les modèles génèrent également des traces de raisonnement lisibles par les ingénieurs, facilitant le débogage et la validation des comportements du véhicule. La conduite autonome reste l'un des défis les plus exigeants de l'intelligence artificielle physique : un système doit interpréter un environnement chaotique en temps réel, anticiper le comportement humain et fonctionner de manière fiable dans une infinité de configurations. GM, qui vise d'abord la conduite autonome sur autoroute sans surveillance avant d'atteindre une autonomie totale, mise sur la simulation massive pour compenser l'impossibilité de collecter suffisamment de données réelles sur ces situations exceptionnelles.

RobotiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour