Aller au contenu principal
L'IA de conduite autonome entraînée 50 000 fois plus vite qu'en temps réel
RobotiqueIEEE Spectrum AI6sem

L'IA de conduite autonome entraînée 50 000 fois plus vite qu'en temps réel

Résumé IASource uniqueImpact UE
Source originale ↗·

General Motors franchit une nouvelle étape dans la course à la conduite autonome en dévoilant une approche d'entraînement de ses IA capable de simuler des scénarios de conduite 50 000 fois plus vite qu'en temps réel. L'enjeu : préparer les systèmes autonomes à gérer non pas les situations ordinaires, mais les cas limites rares et imprévisibles qui déterminent en définitive la fiabilité d'un véhicule sans conducteur.

Le défi fondamental de la conduite autonome n'est pas de gérer 99 % des situations courantes — celles-ci sont relativement bien résolues — mais ce que les ingénieurs appellent la "longue traîne" : un matelas sur la chaussée, une panne généralisée des feux de circulation, un agent de la circulation dont le geste manuel contredit un feu rouge. Ces événements sont rares, mais leur gestion incorrecte peut être fatale. Pour GM, c'est précisément sur ce terrain que se joue la bataille de l'autonomie réelle, notamment en vue du déploiement de la conduite "mains libres sur autoroute" et, à terme, de véhicules entièrement autonomes.

Pour y répondre, GM combine plusieurs technologies de pointe. D'abord, des modèles Vision Language Action (VLA) — des modèles de langage visuel adaptés à la conduite, capables de reconnaître des gestes policiers ou d'interpréter la signalétique improvisée d'un chantier. Pour contourner le problème de latence inhérent à ces grands modèles, GM a développé une architecture dite "Dual Frequency VLA" : un grand modèle tourne à basse fréquence pour les décisions sémantiques complexes ("est-ce une branche ou un parpaing ?"), tandis qu'un modèle léger et rapide gère en temps réel le contrôle physique du véhicule (direction, freinage). L'ensemble est entraîné via de la simulation haute-fidélité et du reinforcement learning à une échelle impossible à atteindre sur route réelle.

Cette approche positionne GM comme l'un des acteurs les plus méthodiques du secteur, à rebours des stratégies purement basées sur les kilomètres réels accumulés. En rendant les raisonnements du modèle explicables via des traces de déduction, l'entreprise mise aussi sur la validation réglementaire et la confiance des opérateurs de sécurité — un avantage stratégique non négligeable à mesure que les autorités durcissent leur regard sur les systèmes autonomes.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

SwarmDrive : coordination sémantique V2V pour la conduite autonome coopérative en temps contraint
1arXiv cs.RO 

SwarmDrive : coordination sémantique V2V pour la conduite autonome coopérative en temps contraint

Des chercheurs ont présenté SwarmDrive, un système de coordination sémantique véhicule-à-véhicule (V2V) pensé pour la conduite autonome sous contrainte de latence. Chaque véhicule du réseau embarque un petit modèle de langage local (SLM) et ne partage ses intentions avec les véhicules voisins que lorsque son niveau d'incertitude dépasse un seuil défini, limitant ainsi les échanges au strict nécessaire. Les données partagées sont fusionnées via un mécanisme de consensus déclenché par événement. Dans une étude en cinq configurations autour d'un scénario d'intersection obstruée, le système en mode 6G a porté le taux de succès de 68,9 % à 94,1 % par rapport à un SLM local seul. La latence chute dans le même temps de 510 ms (référence cloud) à 151,4 ms. Les performances optimales ont été mesurées avec un essaim de 4 véhicules actifs et un seuil d'entropie de 0,65 ; au-delà, la charge réseau et les pertes de paquets augmentent sensiblement. Ces résultats s'attaquent à un problème central de la conduite autonome : les modèles hébergés dans le cloud sont puissants mais introduisent des délais incompatibles avec des décisions de sécurité en temps réel, tandis que les modèles locaux peinent à raisonner correctement face aux angles morts physiques. SwarmDrive propose une troisième voie, coopérative, où plusieurs véhicules proches mutualisent leur intelligence de façon légère et ciblée, sans dépendre d'une connexion permanente à un serveur distant. Pour les constructeurs et les développeurs de systèmes ADAS, c'est une approche prometteuse pour naviguer dans des environnements urbains complexes où les occultations sont fréquentes. La coordination véhicule-à-véhicule n'est pas nouvelle, au coeur de standards comme le C-V2X, mais l'intégration de modèles de langage dans la boucle de décision embarquée en renouvelle les usages. SwarmDrive mise sur deux tendances convergentes : la miniaturisation des modèles IA et les promesses de la 6G en matière de latence ultra-faible. Les auteurs préviennent toutefois que l'étude reste un prototype sur un scénario unique, et non une validation de déploiement réel sur une infrastructure 6G opérationnelle. L'étape suivante sera de tester la robustesse du système dans des environnements plus variés et avec des flottes plus denses, où la scalabilité de la communication deviendra un obstacle critique.

UELes constructeurs automobiles européens (Renault, Stellantis) et les acteurs du standard C-V2X pourraient s'appuyer sur cette approche pour renforcer la coopération embarquée dans leurs prototypes de véhicules autonomes, notamment dans le cadre des programmes 6G européens.

RobotiquePaper
1 source
Kakao Mobility dévoile sa feuille de route pour la conduite autonome de niveau 4
2AI News 

Kakao Mobility dévoile sa feuille de route pour la conduite autonome de niveau 4

Kakao Mobility, la filiale mobilité du groupe sud-coréen Kakao, a présenté sa feuille de route pour le développement en interne de technologies de conduite autonome de niveau 4. Kim Jin-kyu, vice-président et directeur de la division Physical AI de l'entreprise, a détaillé ce plan lors du World IT Show 2026, organisé au centre de conférences COEX de Séoul, un événement réunissant 460 entreprises et organisations issues de 17 pays. La stratégie repose sur trois piliers technologiques : des modèles de machine learning capables de gérer la perception, la prise de décision et le contrôle du véhicule sans intervention humaine ; des architectures de véhicules avec systèmes redondants garantissant la continuité des fonctions critiques en cas de défaillance d'un composant ; et une plateforme de validation combinant simulations virtuelles et données de conduite réelle. En parallèle, Kakao Mobility développe un outil de visualisation 3D appelé Autonomous Vehicle Visualizer, qui retransmet en temps réel le champ de vision du véhicule aux passagers, ainsi qu'un centre de contrôle opérationnel 24h/24 et un système de détection d'anomalies basé sur des modèles vision-langage pour permettre une intervention à distance en cas d'urgence. La conduite autonome de niveau 4, telle que définie par la National Highway Traffic Safety Administration américaine, désigne des systèmes capables d'assurer l'intégralité de la conduite dans des zones de service délimitées sans que les passagers n'aient à surveiller la route ni reprendre le contrôle. Atteindre ce seuil représente un enjeu industriel majeur : c'est à ce stade que les services de taxi sans conducteur deviennent commercialement viables à grande échelle. Pour Kakao Mobility, qui opère déjà un service de véhicules autonomes en soirée dans le quartier de Gangnam à Séoul, cette feuille de route vise à transformer son infrastructure de mobilité existante en fondation pour des services entièrement autonomes, et à renforcer la compétitivité locale de la Corée du Sud face aux acteurs mondiaux du secteur. Le gouvernement sud-coréen a d'ailleurs positionné le World IT Show 2026 comme un signal fort de sa transition vers une économie d'IA physique, où l'intelligence artificielle s'intègre directement aux infrastructures industrielles et urbaines. Dans ce contexte, Kakao Mobility entend ne pas rester un utilisateur de technologies développées ailleurs : l'entreprise prévoit de partager avec des startups, fabricants et partenaires industriels ses jeux de données de conduite autonome à grande échelle, ses cartes haute définition et ses API de plateforme pour le covoiturage et la dispatch. Cette stratégie d'écosystème ouvert cherche à éviter que chaque acteur du secteur reconstruise seul l'infrastructure de base, tout en positionnant Kakao comme orchestrateur central du marché autonome coréen.

RobotiqueActu
1 source
OpenPodcar2 : un véhicule ROS2 robuste pour la recherche en conduite autonome
3arXiv cs.RO 

OpenPodcar2 : un véhicule ROS2 robuste pour la recherche en conduite autonome

Une équipe de chercheurs vient de publier les spécifications complètes d'OpenPodcar2, une plateforme de véhicule autonome open source construite à partir d'un scooter de mobilité électrique du commerce, équipé d'un toit rigide. Ce projet, qui fait suite à une première version baptisée OpenPodcar, intègre désormais une électronique renforcée et une interface complète avec ROS2, le système d'exploitation robotique de référence. La plateforme repose sur trois composants principaux : des instructions de montage détaillées accompagnées d'une liste complète de matériaux, une intégration avec la carte mécatronique généraliste OSH R4 ainsi qu'un environnement de simulation Gazebo, et enfin des implémentations logicielles de haut niveau incluant la pile nav2, qui assure la cartographie autonome (SLAM) et le pilotage du véhicule entre deux positions en évitant les obstacles. Le coût total de construction est estimé à environ 7 000 dollars avec des composants neufs, ou 2 000 dollars en réutilisant un scooter d'occasion. Le véhicule peut transporter un passager humain ou une charge équivalente à une vitesse maximale de 15 km/h. L'intérêt d'OpenPodcar2 réside dans l'équilibre qu'il propose entre utilité réelle, sécurité, coût et robustesse, un compromis rarement atteint dans ce domaine. Concrètement, le véhicule est suffisamment compact pour être garé dans un laboratoire de recherche standard, tout en étant assez solide pour envisager des cas de déploiement réels, comme un service de taxi autonome dit "dernier kilomètre" ou le transport de conteneurs de livraison dans des centres-villes. Cela ouvre des perspectives directes pour les chercheurs qui cherchent à tester des algorithmes de navigation sur un vrai véhicule sans investir des centaines de milliers de dollars. Le projet s'inscrit dans une tendance plus large de démocratisation des plateformes de recherche en véhicules autonomes. La montée en puissance de ROS2 comme standard dans la robotique mobile a rendu possible des intégrations logicielles plus stables et interopérables qu'avec la génération précédente. En abaissant drastiquement le seuil d'accès matériel et logiciel, OpenPodcar2 pourrait permettre à des laboratoires universitaires disposant de budgets limités de mener des travaux qui étaient jusqu'ici réservés à des acteurs industriels ou à de grands centres de recherche. La publication complète des plans et du code source favorise également la reproductibilité scientifique et la collaboration communautaire autour de ces systèmes.

UELes laboratoires universitaires européens à budget limité pourraient adopter cette plateforme open source pour conduire des recherches en navigation autonome sans investissement matériel prohibitif.

RobotiqueActu
1 source
Décision interactive pour la conduite autonome par grands modèles de langage
4arXiv cs.RO 

Décision interactive pour la conduite autonome par grands modèles de langage

Des chercheurs ont publié sur arXiv un nouveau cadre de prise de décision pour véhicules autonomes, conçu spécifiquement pour les situations de trafic mixte à forte densité où coexistent voitures humaines et autonomes. Le système exploite les grands modèles de langage non pour générer du texte, mais pour analyser dynamiquement la scène routière et inférer les intentions des autres usagers. Il repose sur l'Object-Process Methodology (OPM), qui traduit les données perceptuelles brutes en objets, processus et relations compréhensibles par le modèle. Celui-ci identifie ensuite les intentions explicites et implicites des véhicules voisins, génère des trajectoires candidates par échantillonnage Monte Carlo, et sélectionne la trajectoire optimale sous contraintes conjointes de sécurité et d'efficacité. La décision finale est retranscrite en langage naturel et diffusée aux autres usagers via une interface homme-machine externe (eHMI). Testé dans un simulateur de conduite en convoi, le système surpasse les approches traditionnelles sur les critères de sécurité, confort et fluidité, et un test de style Turing révèle une forte ressemblance avec les comportements humains au volant. Ce travail s'attaque à l'un des principaux freins à l'adoption des véhicules autonomes : leur tendance aux comportements excessivement prudents dans les situations conflictuelles, qui génèrent blocages et méfiance du public. En dotant le véhicule d'une capacité de lecture des intentions des autres conducteurs et d'une communication proactive en langage naturel, le cadre proposé change la nature de l'interaction : il ne s'agit plus seulement d'éviter les accidents, mais d'expliquer en temps réel les décisions du robot pour instaurer une confiance partagée avec les piétons, cyclistes et automobilistes environnants. La conduite autonome en environnement mixte reste l'un des défis les plus complexes du secteur, au croisement de la robotique, des sciences cognitives et de l'IA générative. Des acteurs comme Waymo ou Mobileye investissent massivement dans ces problèmes d'interaction homme-machine. L'intégration des LLMs dans la boucle de décision en temps réel représente une direction émergente : elle permet d'exploiter le raisonnement de sens commun de ces modèles sans avoir à coder explicitement chaque scénario possible. Encore limité à la simulation, le système devra prouver sa robustesse et sa faible latence en conditions réelles, mais les auteurs y voient une voie crédible vers une conduite autonome réellement interactive et digne de confiance dans un trafic dense.

RobotiquePaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour