Aller au contenu principal
LeRobot fait de l'école de conduite : Le plus grand ensemble de données open-source pour les voitures autonomes au monde
RobotiqueHuggingFace Blog60sem

LeRobot fait de l'école de conduite : Le plus grand ensemble de données open-source pour les voitures autonomes au monde

Résumé IASource uniqueImpact UE
Source originale ↗·

LeRobot a créé le plus vaste ensemble de données open-source pour les véhicules autonomes, offrant une mine d'informations pour le développement et la recherche dans ce domaine. Cet ensemble de données, désormais disponible, vise à accélérer les progrès dans la conception et la sécurité des systèmes de conduite autonome.

Impact France/UE

HuggingFace, la licorne française spécialisée en IA open-source, renforce sa position de leader mondial en publiant le plus vaste jeu de données ouvert pour véhicules autonomes, bénéficiant directement aux chercheurs et industriels européens du secteur automobile.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Décision interactive pour la conduite autonome par grands modèles de langage
1arXiv cs.RO 

Décision interactive pour la conduite autonome par grands modèles de langage

Des chercheurs ont publié sur arXiv un nouveau cadre de prise de décision pour véhicules autonomes, conçu spécifiquement pour les situations de trafic mixte à forte densité où coexistent voitures humaines et autonomes. Le système exploite les grands modèles de langage non pour générer du texte, mais pour analyser dynamiquement la scène routière et inférer les intentions des autres usagers. Il repose sur l'Object-Process Methodology (OPM), qui traduit les données perceptuelles brutes en objets, processus et relations compréhensibles par le modèle. Celui-ci identifie ensuite les intentions explicites et implicites des véhicules voisins, génère des trajectoires candidates par échantillonnage Monte Carlo, et sélectionne la trajectoire optimale sous contraintes conjointes de sécurité et d'efficacité. La décision finale est retranscrite en langage naturel et diffusée aux autres usagers via une interface homme-machine externe (eHMI). Testé dans un simulateur de conduite en convoi, le système surpasse les approches traditionnelles sur les critères de sécurité, confort et fluidité, et un test de style Turing révèle une forte ressemblance avec les comportements humains au volant. Ce travail s'attaque à l'un des principaux freins à l'adoption des véhicules autonomes : leur tendance aux comportements excessivement prudents dans les situations conflictuelles, qui génèrent blocages et méfiance du public. En dotant le véhicule d'une capacité de lecture des intentions des autres conducteurs et d'une communication proactive en langage naturel, le cadre proposé change la nature de l'interaction : il ne s'agit plus seulement d'éviter les accidents, mais d'expliquer en temps réel les décisions du robot pour instaurer une confiance partagée avec les piétons, cyclistes et automobilistes environnants. La conduite autonome en environnement mixte reste l'un des défis les plus complexes du secteur, au croisement de la robotique, des sciences cognitives et de l'IA générative. Des acteurs comme Waymo ou Mobileye investissent massivement dans ces problèmes d'interaction homme-machine. L'intégration des LLMs dans la boucle de décision en temps réel représente une direction émergente : elle permet d'exploiter le raisonnement de sens commun de ces modèles sans avoir à coder explicitement chaque scénario possible. Encore limité à la simulation, le système devra prouver sa robustesse et sa faible latence en conditions réelles, mais les auteurs y voient une voie crédible vers une conduite autonome réellement interactive et digne de confiance dans un trafic dense.

RobotiquePaper
1 source
L'IA de conduite autonome entraînée 50 000 fois plus vite qu'en temps réel
2IEEE Spectrum AI 

L'IA de conduite autonome entraînée 50 000 fois plus vite qu'en temps réel

General Motors développe une infrastructure d'entraînement pour ses systèmes de conduite autonome capable de simuler des scénarios à 50 000 fois la vitesse réelle. L'entreprise combine simulation à grande échelle, apprentissage par renforcement et modèles de fondation pour préparer ses véhicules aux situations rares et imprévisibles — ce que les ingénieurs appellent la « longue traîne » : une panne généralisée de feux de signalisation à San Francisco, un matelas sur la chaussée, un chantier de construction guidé par des ouvriers qui font des gestes. Pour traiter ces scénarios complexes, GM développe des modèles Vision-Language-Action (VLA), issus des grands modèles de vision par langage, auxquels sont ajoutées des têtes de décodage spécialisées pour la conduite. Ces modèles permettent au véhicule de comprendre, par exemple, qu'un geste d'un policier a priorité sur un feu rouge, ou d'identifier visuellement une zone de chargement dans un aéroport. Face au problème de latence inhérent aux modèles de grande taille, GM a conçu une architecture dite « Dual Frequency VLA » : un grand modèle tourne à basse fréquence pour les décisions sémantiques de haut niveau (« cet objet est-il une branche ou un parpaing ? »), tandis qu'un modèle léger gère en temps réel le contrôle spatial — direction et freinage. Cette séparation permet de bénéficier du raisonnement profond sans compromettre les temps de réaction nécessaires à la sécurité. Les modèles génèrent également des traces de raisonnement lisibles par les ingénieurs, facilitant le débogage et la validation des comportements du véhicule. La conduite autonome reste l'un des défis les plus exigeants de l'intelligence artificielle physique : un système doit interpréter un environnement chaotique en temps réel, anticiper le comportement humain et fonctionner de manière fiable dans une infinité de configurations. GM, qui vise d'abord la conduite autonome sur autoroute sans surveillance avant d'atteindre une autonomie totale, mise sur la simulation massive pour compenser l'impossibilité de collecter suffisamment de données réelles sur ces situations exceptionnelles.

RobotiqueActu
1 source
Nomadic lève 8,4 millions de dollars pour gérer les données des véhicules autonomes
3TechCrunch AI 

Nomadic lève 8,4 millions de dollars pour gérer les données des véhicules autonomes

Nomadic a levé 8,4 millions de dollars pour résoudre l'un des problèmes les plus concrets du secteur des véhicules autonomes : la masse de données brutes générées par les robots et véhicules en circulation reste largement inexploitable. La startup propose une solution qui transforme automatiquement les séquences vidéo et capteurs collectées par ces machines en jeux de données structurés et interrogeables, grâce à un modèle de deep learning développé en interne. L'enjeu est considérable pour les équipes d'ingénierie et de recherche : aujourd'hui, récupérer une situation précise dans des heures de footage — un piéton qui traverse hors clou, une manœuvre inhabituelle à un carrefour — nécessite un travail manuel chronophage. En rendant ces données indexables et recherchables, Nomadic permet aux développeurs de systèmes autonomes d'accélérer l'entraînement de leurs modèles et d'identifier plus rapidement les cas limites critiques pour la sécurité. Le marché des données pour la robotique et la conduite autonome est en pleine expansion, porté par des acteurs comme Waymo, Tesla ou les nombreuses startups de livraison autonome qui accumulent des pétaoctets de données de terrain. Ce financement de 8,4 millions place Nomadic dans la catégorie des infrastructures invisibles mais essentielles de l'IA embarquée — un segment où la valeur réside moins dans le véhicule lui-même que dans la capacité à exploiter intelligemment ce qu'il observe.

RobotiqueActu
1 source
OpenPodcar2 : un véhicule ROS2 robuste pour la recherche en conduite autonome
4arXiv cs.RO 

OpenPodcar2 : un véhicule ROS2 robuste pour la recherche en conduite autonome

Une équipe de chercheurs vient de publier les spécifications complètes d'OpenPodcar2, une plateforme de véhicule autonome open source construite à partir d'un scooter de mobilité électrique du commerce, équipé d'un toit rigide. Ce projet, qui fait suite à une première version baptisée OpenPodcar, intègre désormais une électronique renforcée et une interface complète avec ROS2, le système d'exploitation robotique de référence. La plateforme repose sur trois composants principaux : des instructions de montage détaillées accompagnées d'une liste complète de matériaux, une intégration avec la carte mécatronique généraliste OSH R4 ainsi qu'un environnement de simulation Gazebo, et enfin des implémentations logicielles de haut niveau incluant la pile nav2, qui assure la cartographie autonome (SLAM) et le pilotage du véhicule entre deux positions en évitant les obstacles. Le coût total de construction est estimé à environ 7 000 dollars avec des composants neufs, ou 2 000 dollars en réutilisant un scooter d'occasion. Le véhicule peut transporter un passager humain ou une charge équivalente à une vitesse maximale de 15 km/h. L'intérêt d'OpenPodcar2 réside dans l'équilibre qu'il propose entre utilité réelle, sécurité, coût et robustesse, un compromis rarement atteint dans ce domaine. Concrètement, le véhicule est suffisamment compact pour être garé dans un laboratoire de recherche standard, tout en étant assez solide pour envisager des cas de déploiement réels, comme un service de taxi autonome dit "dernier kilomètre" ou le transport de conteneurs de livraison dans des centres-villes. Cela ouvre des perspectives directes pour les chercheurs qui cherchent à tester des algorithmes de navigation sur un vrai véhicule sans investir des centaines de milliers de dollars. Le projet s'inscrit dans une tendance plus large de démocratisation des plateformes de recherche en véhicules autonomes. La montée en puissance de ROS2 comme standard dans la robotique mobile a rendu possible des intégrations logicielles plus stables et interopérables qu'avec la génération précédente. En abaissant drastiquement le seuil d'accès matériel et logiciel, OpenPodcar2 pourrait permettre à des laboratoires universitaires disposant de budgets limités de mener des travaux qui étaient jusqu'ici réservés à des acteurs industriels ou à de grands centres de recherche. La publication complète des plans et du code source favorise également la reproductibilité scientifique et la collaboration communautaire autour de ces systèmes.

UELes laboratoires universitaires européens à budget limité pourraient adopter cette plateforme open source pour conduire des recherches en navigation autonome sans investissement matériel prohibitif.

RobotiqueActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour