Aller au contenu principal
RobotiqueIEEE Spectrum AI1h

L'IA de conduite autonome entraînée 50 000 fois plus vite qu'en temps réel

1 source couvre ce sujet·Source originale ↗·
Résumé IA

General Motors développe une infrastructure d'entraînement pour ses systèmes de conduite autonome capable de simuler des scénarios à 50 000 fois la vitesse réelle. L'entreprise combine simulation à grande échelle, apprentissage par renforcement et modèles de fondation pour préparer ses véhicules aux situations rares et imprévisibles — ce que les ingénieurs appellent la « longue traîne » : une panne généralisée de feux de signalisation à San Francisco, un matelas sur la chaussée, un chantier de construction guidé par des ouvriers qui font des gestes. Pour traiter ces scénarios complexes, GM développe des modèles Vision-Language-Action (VLA), issus des grands modèles de vision par langage, auxquels sont ajoutées des têtes de décodage spécialisées pour la conduite. Ces modèles permettent au véhicule de comprendre, par exemple, qu'un geste d'un policier a priorité sur un feu rouge, ou d'identifier visuellement une zone de chargement dans un aéroport. Face au problème de latence inhérent aux modèles de grande taille, GM a conçu une architecture dite « Dual Frequency VLA » : un grand modèle tourne à basse fréquence pour les décisions sémantiques de haut niveau (« cet objet est-il une branche ou un parpaing ? »), tandis qu'un modèle léger gère en temps réel le contrôle spatial — direction et freinage. Cette séparation permet de bénéficier du raisonnement profond sans compromettre les temps de réaction nécessaires à la sécurité. Les modèles génèrent également des traces de raisonnement lisibles par les ingénieurs, facilitant le débogage et la validation des comportements du véhicule. La conduite autonome reste l'un des défis les plus exigeants de l'intelligence artificielle physique : un système doit interpréter un environnement chaotique en temps réel, anticiper le comportement humain et fonctionner de manière fiable dans une infinité de configurations. GM, qui vise d'abord la conduite autonome sur autoroute sans surveillance avant d'atteindre une autonomie totale, mise sur la simulation massive pour compenser l'impossibilité de collecter suffisamment de données réelles sur ces situations exceptionnelles.

This is a sponsored article brought to you by General Motors. Autonomous driving is one of the most demanding problems in physical AI. An automated system must interpret a chaotic, ever-changing world in real time—navigating uncertainty, predicting human behavior, and operating safely across an immense range of environments and edge cases. At General Motors, we approach this problem from a simple premise: while most moments on the road are predictable, the rare, ambiguous, and unexpected events — the long tail — are what ultimately defines whether an autonomous system is safe, reliable, and ready for deployment at scale. (Note: While here we discuss research and emerging technologies to solve the long tail required for full general autonomy, we also discuss our current approach or solving 99% of everyday autonomous driving in a deep dive on Compound AI.) As GM advances toward eyes-off highway driving, and ultimately toward fully autonomous vehicles, solving the long tail becomes the central engineering challenge. It requires developing systems that can be counted on to behave sensibly in the most unexpected conditions. GM is building scalable driving AI to meet that challenge — combining large-scale simulation, reinforcement learning, and foundation-model-based reasoning to train autonomous systems at a scale and speed that would be impossible in the real world alone. Stress-testing for the long tail Long-tail scenarios of autonomous driving come in a few varieties. Some are notable for their rareness. There’s a mattress on the road. A fire hydrant bursts. A massive power outage in San Francisco that disabled traffic lights required driverless vehicles to navigate never-before experienced challenges. These rare system-level interactions, especially in dense urban environments, show how unexpected edge cases can cascade at scale. But long-tail challenges don’t just come in the form of once-in-a-lifetime rarities. They also manifest as everyday scenarios that require characteristically human courtesy or common sense. How do you queue up for a spot without blocking traffic in a crowded parking lot? Or navigate a construction zone, guided by gesturing workers and ad-hoc signs? These are simple challenges for a human driver but require inventive engineering to handle flawlessly with a machine. Autonomous driving scenario demand curve Deploying vision language models One tool GM is developing to tackle these nuanced scenarios is the use of Vision Language Action (VLA) models. Starting with a standard Vision Language Model, which leverages internet-scale knowledge to make sense of images, GM engineers use specialized decoding heads to fine-tune for distinct driving-related tasks. The resulting VLA can make sense of vehicle trajectories and detect 3D objects on top of its general image-recognition capabilities. These tuned models enable a vehicle to recognize that a police officer’s hand gesture overrides a red traffic light or to identify what a “loading zone” at a busy airport terminal might look like. These models can also generate reasoning traces that help engineers and safety operators understand why a maneuver occurred — an important tool for debugging, validation, and trust. Testing hazardous scenarios in high-fidelity simulations The trouble is: driving requires split-second reaction times so any excess latency poses an especially critical problem. To solve this, GM is developing a “Dual Frequency VLA.” This large-scale model runs at a lower frequency to make high-level semantic decisions (“Is that object in the road a branch or a cinder block?”), while a smaller, highly efficient model handles the immediate, high-frequency spatial control (steering and braking). This hybrid approach allows the vehicle to benefit from deep semantic reasoning without sacrificing the split-second reaction times required for safe driving. But dealing with an edge case safely requires that the model not only understand what it is looking at but also understand how to sensibly drive through the challenge it’s identified. For that, there is no substitute for experience. Which is why, each day, we run millions of high-fidelity closed loop simulations , equivalent to tens of thousands of human driving days, compressed into hours of simulation. We can replay actual events, modify real-world data to create new virtual scenarios, or design new ones entirely from scratch. This allows us to regularly test the system against hazardous scenarios that would be nearly impossible to encounter safely in the real world. Synthetic data for the hardest cases Where do these simulated scenarios come from? GM engineers employ a whole host of AI technologies to produce novel training data that can model extreme situations while remaining grounded in reality. GM’s “Seed-to-Seed Translation” research , for instance, leverages diffusion models to transform existing real-world data, allowing a researcher to turn a clear-day recording into a rainy or

À lire aussi

1TechCrunch AI2h

Melania Trump veut un robot pour instruire les enfants à domicile

Melania Trump a exprimé sa vision d'un système éducatif américain transformé par l'intelligence artificielle et la robotique, plaidant pour que ces technologies jouent un rôle central dans l'enseignement à domicile des enfants américains. Pour la Première Dame, l'IA et les robots ne seraient pas de simples outils pédagogiques, mais des acteurs à part entière de l'éducation, capables de remplacer ou de compléter les enseignants traditionnels dans le cadre de l'homeschooling — une pratique déjà en forte croissance aux États-Unis. Cette prise de position s'inscrit dans un contexte où l'administration Trump pousse à déréguler l'éducation publique et à élargir les alternatives privées, tandis que le débat sur la place de l'IA dans les écoles s'intensifie à l'échelle mondiale.

RobotiqueOpinion
1 source
2IEEE Spectrum AI2h

Il y a 30 ans, les robots ont appris à marcher sans tomber

En 1996, Honda a présenté le Prototype 2 (P2), le premier robot humanoïde autonome capable de marcher sans tomber. Mesurant 183 centimètres pour 210 kilogrammes, le P2 pouvait contrôler sa posture pour maintenir l'équilibre et actionner plusieurs articulations simultanément. Cette réalisation vient d'être reconnue comme un IEEE Milestone, avec une cérémonie de dédicace prévue le 28 avril au Honda Collection Hall, sur le circuit Mobility Resort Motegi au Japon. Derrière cette prouesse, quatre ingénieurs Honda : Kazuo Hirai, Masato Hirose, Yuji Haikawa et Toru Takenaka, qui avaient lancé le projet dès 1986 avec l'ambition de créer un robot domestique capable de monter des escaliers, contourner des obstacles et manipuler des outils. Cette avancée a redéfini les standards de la robotique mondiale. Avant le P2, aucun robot ne pouvait se déplacer de manière autonome sans perdre l'équilibre — le WABOT-1, construit en 1973 à l'Université Waseda de Tokyo, pouvait certes marcher et parler japonais, mais de façon instable et sans capacité à éviter les obstacles. L'équipe Honda a dû repenser entièrement la biomécanique humaine : analyser les mouvements du corps, adapter le nombre d'articulations (hanches, genoux, chevilles, épaules), et installer des moteurs DC avec des systèmes de réduction harmonique pour concilier compacité et couple élevé. Les premiers prototypes, comme le E0 — une simple paire de jambes — mettaient 15 secondes par pas. Chaque itération a permis de passer de la marche statique en ligne droite à une locomotion dynamique et autonome, ouvrant la voie aux robots humanoïdes modernes comme l'ASIMO ou ceux développés aujourd'hui par Boston Dynamics, Figure ou 1X. Quand C-3PO est apparu sur grand écran en 1977, l'idée d'un androïde marchant et interagissant comme un humain relevait de la science-fiction. Il aura fallu près de vingt ans à l'ingénierie réelle pour rattraper cette vision — et le P2 en a posé la première pierre concrète.

RobotiqueOpinion
1 source
3AI Business3h

Google s'associe à Agile Robots dans sa nouvelle offensive en robotique IA

Google s'est associé à Agile Robots dans le cadre d'un nouveau partenariat stratégique qui verra les modèles d'IA Gemini intégrés directement dans le matériel robotique du fabricant allemand. Cette collaboration marque une nouvelle étape dans la volonté de Google de déployer ses technologies d'intelligence artificielle dans des environnements physiques réels, au-delà des applications logicielles. En embarquant Gemini dans des robots capables d'agir dans le monde réel, Google franchit un cap important vers une IA incarnée et opérationnelle. La course à la robotique dopée à l'IA s'intensifie, avec des acteurs comme OpenAI, Microsoft et Amazon qui multiplient eux aussi leurs investissements dans ce secteur en pleine effervescence.

UEAgile Robots, fabricant allemand, se retrouve au cœur de la course mondiale à la robotique IA grâce à ce partenariat, renforçant potentiellement la compétitivité d'un acteur européen face aux géants américains et asiatiques.

RobotiqueActu
1 source
4AI Business7h

Amazon rachète Fauna, fabricant de robots « accessibles »

Amazon a acquis Fauna, une startup spécialisée dans la robotique humanoïde grand public, dans une opération dont les détails financiers n'ont pas été divulgués. Cette transaction marque l'entrée officielle du géant technologique sur le marché en pleine expansion des robots humanoïdes destinés aux consommateurs. Ce rachat est significatif car il signale qu'Amazon ne se contente plus de la robotique industrielle et logistique — domaine où il est déjà très actif via ses entrepôts automatisés. En ciblant un fabricant positionné sur l'accessibilité et l'aspect « approchable » des robots, Amazon vise directement le marché domestique, potentiellement pour des usages à domicile ou en interaction directe avec les clients. La robotique humanoïde grand public connaît une effervescence sans précédent, avec des acteurs comme Figure, 1X ou Boston Dynamics se disputant ce nouveau terrain. Amazon rejoint ainsi une course technologique qui s'intensifie rapidement.

UEL'entrée d'Amazon sur le marché des robots humanoïdes grand public pourrait accélérer leur déploiement dans les entrepôts et foyers européens, où Amazon est déjà fortement implanté.

RobotiqueActu
1 source