Aller au contenu principal
Embodied AI : le pari d’Alex Kendall et Wayve, faire de la voiture autonome le 1er terrain de la physical AI
RobotiqueFrenchWeb6sem

Embodied AI : le pari d’Alex Kendall et Wayve, faire de la voiture autonome le 1er terrain de la physical AI

Résumé IASource uniqueImpact UE
Source originale ↗·

Le contenu de l'article fourni est trop limité pour rédiger un résumé détaillé — il s'agit uniquement d'un chapeau d'introduction sans les informations factuelles de l'article (chiffres, citations, détails sur Wayve, Alex Kendall, leur approche de l'embodied AI, etc.).

Pour que je puisse rédiger le résumé demandé, merci de fournir le texte complet de l'article.

Impact France/UE

Wayve, startup britannique, représente un acteur européen dans la course mondiale à la conduite autonome et à la physical AI.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Lucid officialise sa voiture 100 % autonome secrète pour Uber face au Tesla Cyberca
1Frandroid 

Lucid officialise sa voiture 100 % autonome secrète pour Uber face au Tesla Cyberca

Lucid Motors annonce la Lucid Lunar, un véhicule électrique entièrement autonome développé en collaboration avec Uber pour concurrencer le futur Tesla Cybercab. Ce modèle fait partie de la stratégie de Lucid pour entrer sur le marché des robotaxis.

RobotiqueOutil
1 source
Des piétons jouent à faire peur à un véhicule autonome
2arXiv cs.RO 

Des piétons jouent à faire peur à un véhicule autonome

Des chercheurs ont publié en avril 2026 une étude sur arXiv (référence 2604.24384) présentant la première démonstration empirique d'une approche inspirée de la théorie des jeux pour résoudre les blocages entre véhicules autonomes et piétons. L'expérience a été conduite avec un véritable AV face à des sujets humains dans des conditions de sécurité contrôlées. Les résultats montrent que le comportement des piétons correspond précisément aux prédictions du modèle appelé "Sequential Chicken" : les participants calibraient instinctivement leur trajectoire en pesant le risque d'une légère intrusion dans leur espace personnel contre le temps perdu à laisser passer le véhicule. Le coeur du problème que cette étude cherche à résoudre est ce que les spécialistes appellent le "Freezing Robot Problem". Les véhicules autonomes sont aujourd'hui programmés pour céder systématiquement aux piétons, par souci de sécurité absolue. En pratique, cette règle crée un effet pervers : les piétons apprennent rapidement qu'ils peuvent s'imposer à chaque interaction puisque le véhicule s'arrêtera quoi qu'il arrive, paralysant ainsi la circulation. Les chercheurs démontrent qu'un AV capable d'émettre des signaux de négociation crédibles, comme un très faible risque de collision ou une légère invasion de l'espace proxémique, suffit à rétablir un équilibre similaire à celui qui s'opère naturellement entre conducteurs humains. Ce résultat a des implications directes sur la conception des algorithmes de décision en milieu urbain. La question de la paralysie des robots autonomes face aux piétons est documentée depuis plusieurs années dans la recherche en robotique et préoccupe activement des acteurs comme Waymo, Cruise ou Motional. Jusqu'ici, les propositions basées sur la théorie des jeux restaient cantonnées à des simulations. Cette étude franchit une étape importante en validant l'approche sur des humains réels, lui conférant une crédibilité nouvelle. Elle soulève néanmoins des questions délicates sur ce qu'un véhicule autonome est légalement et éthiquement autorisé à "risquer" pour progresser, un débat qui mobilisera régulateurs et constructeurs à mesure que les flottes autonomes s'étendent dans les villes mondiales.

UELes villes européennes déployant des flottes de véhicules autonomes pourraient s'appuyer sur ces travaux pour repenser leurs algorithmes de négociation piéton-AV en milieu urbain.

RobotiqueActu
1 source
CARLA-Air: infrastructure unifiée pour drones et agents autonomes aériens et terrestres dans CARLA
3arXiv cs.RO 

CARLA-Air: infrastructure unifiée pour drones et agents autonomes aériens et terrestres dans CARLA

Des chercheurs ont publié CARLA-Air, une plateforme de simulation open source qui permet, pour la première fois, de faire voler des drones multirotor directement dans l'environnement urbain de CARLA, le simulateur de référence pour la conduite autonome, développé initialement par Waymo et maintenu par la communauté. La plateforme tourne au sein d'un unique processus Unreal Engine, garantissant une cohérence spatiale et temporelle stricte entre les agents au sol et les drones, tout en capturant simultanément jusqu'à 18 modalités de capteurs à chaque pas de simulation. Elle préserve les API Python natives de CARLA et d'AirSim, ainsi que les interfaces ROS 2, ce qui permet de réutiliser du code existant sans aucune modification. L'enjeu est considérable pour les équipes qui travaillent sur les systèmes robotiques mixtes air-sol, un domaine en pleine expansion avec le développement des économies à basse altitude, livraisons par drone, inspection d'infrastructures, mobilité urbaine aérienne. Jusqu'ici, les simulateurs de conduite manquaient de dynamique aérienne réaliste, tandis que les simulateurs de drones proposaient des environnements urbains trop simplifiés. Les solutions de co-simulation par pont introduisaient des décalages temporels incompatibles avec l'entraînement de politiques de navigation ou de perception multi-modale. CARLA-Air supprime ces compromis en offrant un seul environnement avec trafic conforme aux règles de circulation, piétons à comportement social, et dynamique aérodynamique cohérente. Le projet répond aussi à une urgence pratique : Microsoft a archivé le développement d'AirSim, le simulateur de drones le plus utilisé dans la recherche académique, laissant orphelines de nombreuses équipes. CARLA-Air reprend cet héritage et l'intègre dans une infrastructure moderne et activement maintenue. La plateforme est déjà conçue pour accueillir des charges de travail avancées : coopération air-sol, navigation incarnée, actions guidées par le langage, construction de jeux de données et entraînement par renforcement. Le code source complet et des binaires précompilés sont disponibles sur GitHub, ce qui devrait faciliter son adoption rapide dans la communauté robotique et autonome.

UELes équipes de recherche européennes en robotique et mobilité urbaine aérienne disposent d'une alternative open source maintenue à AirSim pour développer et entraîner des systèmes autonomes mixtes air-sol.

RobotiqueOpinion
1 source
MiMo-Embodied : rapport technique du modèle de fondation X-Embodied
4arXiv cs.RO 

MiMo-Embodied : rapport technique du modèle de fondation X-Embodied

Xiaomi a publié en open source MiMo-Embodied, un modèle fondamental dit "cross-embodied" conçu pour unifier deux domaines jusqu'ici distincts : la conduite autonome et l'IA incarnée (robots, agents physiques). Selon le rapport technique associé, le modèle établit de nouveaux records sur 29 benchmarks au total, 17 en IA incarnée, couvrant la planification de tâches, la prédiction d'affordance et la compréhension spatiale, et 12 en conduite autonome, sur la perception environnementale, la prédiction d'état et la planification de trajectoire. Il surpasse à la fois les modèles open source, les modèles propriétaires et les systèmes spécialisés sur ces évaluations. Le code et les poids sont disponibles sur GitHub sous l'organisation XiaomiMiMo. Ce qui rend ce résultat notable, c'est que les deux domaines ont longtemps été traités séparément : un robot domestique et un véhicule autonome semblent peu comparables. Or MiMo-Embodied démontre qu'ils partagent suffisamment de structure sous-jacente, compréhension de l'espace, planification d'action, interaction avec un environnement physique, pour se renforcer mutuellement lors de l'entraînement. Cette synergie, appelée "transfert positif", signifie qu'apprendre à conduire rend le modèle meilleur pour manipuler des objets, et vice versa. Pour l'industrie, cela ouvre la voie à des modèles généraux capables de s'adapter à plusieurs types de corps ou de véhicules sans être réentraînés depuis zéro. L'approche repose sur un entraînement multi-étapes, une construction soigneuse des données d'entraînement, et un affinage par chain-of-thought (CoT) combiné à du reinforcement learning, des techniques popularisées par les grands modèles de langage mais ici appliquées à des agents physiques. Xiaomi s'inscrit ainsi dans une course internationale au modèle fondamental robotique, aux côtés de Google, Physical Intelligence ou Tesla pour Optimus. La publication en open source constitue un signal fort : l'entreprise mise sur la recherche communautaire pour accélérer le développement, tout en positionnant ses propres écosystèmes matériels, smartphones, robots, voitures connectées, comme terrain d'application naturel.

RobotiquePaper
1 source