Aller au contenu principal
Détection en temps réel des andains par capteurs embarqués sur tracteur pour un suivi automatisé
RobotiquearXiv cs.RO3h

Détection en temps réel des andains par capteurs embarqués sur tracteur pour un suivi automatisé

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs ont publié un système open source de détection en temps réel des andains de fourrage pour tracteurs autonomes, accompagné d'un jeu de données multimodal inédit. L'approche combine vision stéréoscopique et LiDAR montés sur tracteur, capturés lors d'opérations réelles de mise en balles. Les données synchronisées incluent des trajectoires GNSS et sont partiellement disponibles sous forme de bags ROS2 Humble sur la plateforme Zenodo, avec des données supplémentaires accessibles sur demande. L'algorithme de suivi par centroïde tourne à plus de 20 Hz sur un module embarqué NVIDIA Jetson AGX Orin, ce qui garantit une réactivité suffisante pour guider un engin agricole en conditions réelles.

Sur la plage critique de guidage de 4 à 10 mètres, les mesures de profondeur par stéréovision et par LiDAR affichent une corrélation de 0,965 ± 0,021, un niveau de concordance remarquable. Ce résultat démontre que des capteurs stéréo peu coûteux peuvent rivaliser avec les performances du LiDAR pour cette tâche spécifique, ouvrant la voie à des systèmes d'automatisation agricole nettement moins onéreux. La pipeline complète, sans recours au GPS, est publiée en open source sous ROS 2 et constitue un référentiel reproductible pour la communauté de recherche en récolte autonome de fourrage.

Le secteur de la récolte fourragère automatisée est aujourd'hui dominé par des solutions propriétaires dont les algorithmes de détection d'andains restent opaques, ce qui freine la recherche indépendante et l'innovation ouverte. Ce travail répond directement à ce verrou en fournissant à la fois les données brutes et le code nécessaires pour reproduire et améliorer les résultats. L'agriculture de précision est un marché en pleine expansion, porté par la pénurie de main-d'œuvre agricole et la pression sur la productivité ; disposer de briques technologiques ouvertes pour l'automatisation des tracteurs pourrait accélérer l'adoption dans les exploitations de taille intermédiaire qui ne peuvent pas se permettre des solutions constructeurs à prix élevé.

Impact France/UE

Cette contribution open source sur l'automatisation des tracteurs pourrait bénéficier aux exploitations agricoles françaises et européennes confrontées à la pénurie de main-d'œuvre, en offrant des briques technologiques reproductibles moins coûteuses que les solutions propriétaires des constructeurs.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Compensation de force sans contact en temps réel pour capteurs de poignet en chirurgie robotique haptique
1arXiv cs.RO 

Compensation de force sans contact en temps réel pour capteurs de poignet en chirurgie robotique haptique

Des chercheurs ont publié sur arXiv une méthode de compensation en temps réel des forces parasites affectant les capteurs force/couple montés au poignet de robots chirurgicaux, dans le cadre d'une plateforme d'entraînement appelée RoboScope. Le système présenté intègre un capteur force/couple (F/T) directement sur le poignet du bras robotisé, une configuration qui contourne les difficultés liées aux capteurs placés à l'extrémité des instruments mais qui génère en contrepartie des forces dites non-contact : gravité, biais du capteur, décalages d'installation et couples associés. Pour neutraliser ces perturbations sans sacrifier la réactivité, l'équipe propose un algorithme basé sur les moindres carrés récursifs (RLS), capable de fonctionner en continu sans phase de collecte de données préalable ni recalibrations répétées. Les résultats expérimentaux montrent une réduction des erreurs supérieure à 95 % pour les forces parasites et à 91 % pour les couples, des performances qui surpassent nettement les méthodes existantes. L'enjeu est direct : le retour haptique, c'est-à-dire la capacité à ressentir la résistance des tissus et à doser précisément la force appliquée, est une fonctionnalité absente de la grande majorité des systèmes de chirurgie robotisée actuels. Sans elle, les chirurgiens opèrent "à l'aveugle" mécaniquement, ce qui complique l'apprentissage et augmente le risque de traumatismes tissulaires lors des procédures délicates. En rendant fiable le retour haptique sur une plateforme à faible coût, cette avancée rend la formation plus réaliste et accessible à des hôpitaux ou centres de recherche ne disposant pas des budgets nécessaires aux systèmes commerciaux haut de gamme comme le Da Vinci. La chirurgie robotisée assistée connaît une expansion rapide, mais l'intégration du retour haptique reste un problème ouvert depuis des années, freinée par la complexité technique et les coûts. Les rares systèmes commerciaux qui commencent à proposer cette fonctionnalité restent inaccessibles pour la plupart des établissements de formation. RoboScope s'inscrit dans une tendance plus large de démocratisation des outils chirurgicaux avancés via des architectures open-source et abordables. La robustesse de la méthode RLS face aux variations de conditions opératoires laisse envisager une intégration dans des robots réels, au-delà du seul contexte d'entraînement.

UELes hôpitaux et centres de formation chirurgicale en France et en Europe pourraient bénéficier de plateformes d'entraînement robotique haptique accessibles et peu coûteuses, réduisant la dépendance aux systèmes commerciaux haut de gamme aujourd'hui inaccessibles à la majorité des établissements.

RobotiquePaper
1 source
L'apprentissage par démonstration avec détection d'échecs pour la navigation sécurisée des robots
2arXiv cs.RO 

L'apprentissage par démonstration avec détection d'échecs pour la navigation sécurisée des robots

Des chercheurs ont publié un article de recherche présentant un nouveau cadre d'apprentissage pour la navigation robotique, intitulé "Learning from Demonstration with Failure Awareness for Safe Robot Navigation" (arXiv:2604.23360). Leur approche s'attaque à un problème fondamental des systèmes d'apprentissage par démonstration : les robots apprennent principalement à partir de comportements réussis, ce qui les rend vulnérables dès qu'ils rencontrent des situations inédites ou dangereuses. Pour y remédier, l'équipe propose un cadre qui exploite explicitement les expériences d'échec, comme les collisions, jusqu'ici largement ignorées car elles n'offrent pas de comportement directement imitable. Le coeur de l'innovation réside dans une séparation stricte des rôles des deux types de données. Les expériences d'échec servent exclusivement à calibrer l'estimation de la valeur dans les zones à risque, signalant au robot les régions à éviter, tandis que l'apprentissage de la politique de navigation reste cantonné aux démonstrations réussies. Cette dissociation permet d'intégrer les données d'échec sans dégrader les performances globales, un écueil habituel des approches naïves qui mélangent les deux. Le tout est implémenté dans un cadre d'apprentissage par renforcement hors ligne, ce qui signifie que le robot apprend à partir d'un jeu de données fixe, sans nécessiter d'interactions supplémentaires avec l'environnement pendant l'entraînement. Les évaluations menées à la fois en simulation et en environnements réels montrent une réduction significative des taux de collision, tout en maintenant un taux de succès des tâches équivalent, avec une bonne généralisation sur différentes plateformes robotiques. Cette recherche s'inscrit dans un effort plus large pour rendre les robots autonomes fiables dans des contextes ouverts et imprévisibles, un enjeu critique pour leur déploiement dans des entrepôts logistiques, des hôpitaux ou des espaces publics. L'apprentissage par démonstration reste l'une des approches les plus pratiques pour programmer des robots sans expertise en RL, mais sa fragilité face aux situations hors distribution freine son adoption industrielle. En valorisant les données d'échec autrement que comme du bruit à écarter, ce travail ouvre une voie prometteuse pour construire des politiques de navigation plus robustes, sans coût de collecte de données supplémentaire.

RobotiqueActu
1 source
Un modèle vision-langage-action pour l'insertion et le suivi d'aiguille guidés par échographie
3arXiv cs.RO 

Un modèle vision-langage-action pour l'insertion et le suivi d'aiguille guidés par échographie

Des chercheurs ont présenté un nouveau système robotique capable de réaliser des insertions d'aiguille guidées par échographie de façon entièrement automatisée et adaptative. Publiée sur arXiv (arXiv:2504.20347), l'étude introduit un modèle de type Vision-Language-Action (VLA) intégré à un système d'échographie robotique (RUS). Le cadre repose sur deux composants clés développés par l'équipe : une tête de suivi baptisée Cross-Depth Fusion (CDF), qui fusionne des caractéristiques visuelles superficielles et sémantiques profondes pour localiser l'aiguille en temps réel, et un registre de conditionnement appelé TraCon (Tracking-Conditioning), qui adapte efficacement un modèle visuel pré-entraîné à grande échelle aux tâches de suivi sans réentraînement complet. À ces composants s'ajoutent une politique de contrôle tenant compte des incertitudes et un pipeline VLA asynchrone, permettant des décisions d'insertion rapides et contextuellement adaptées. L'importance de cette avancée est directe : les insertions d'aiguille guidées par échographie sont omniprésentes en médecine, des biopsies aux anesthésies péridurales en passant par les ponctions vasculaires. Jusqu'ici, les systèmes automatisés reposaient sur des pipelines modulaires construits à la main, peu robustes face aux conditions d'imagerie difficiles, aux variations anatomiques ou aux mouvements du patient. Le nouveau système unifie suivi et contrôle dans un seul modèle bout-en-bout, ce qui lui permet de surpasser en précision de suivi et en taux de succès d'insertion non seulement les méthodes automatisées existantes, mais aussi les opérateurs humains lors des expériences menées, tout en réduisant le temps de procédure. Le guidage échographique reste l'une des modalités les plus utilisées pour les interventions percutanées, mais sa fiabilité dépend fortement de l'expérience du praticien et de la qualité de l'image, deux facteurs très variables en clinique. Les approches à base de vision par ordinateur ont progressé ces dernières années, mais aucune n'avait encore proposé un modèle aussi unifié et adaptatif. Ce travail s'inscrit dans une tendance plus large d'application des grands modèles multimodaux à la robotique chirurgicale, un domaine où des acteurs académiques et industriels comme Intuitive Surgical ou Activ Surgical investissent massivement. Les prochaines étapes naturelles concernent la validation sur des patients réels et l'intégration dans des blocs opératoires, avec toutes les contraintes réglementaires que cela implique.

UELa validation clinique et l'intégration en bloc opératoire devront se conformer au règlement européen sur les dispositifs médicaux (MDR), conditionnant tout déploiement futur en Europe.

RobotiqueActu
1 source
Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
4arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

RobotiqueActu
1 source