Aller au contenu principal
Physical AI : l’intelligence artificielle incarne enfin le monde réel
RobotiqueLe Big Data55min

Physical AI : l’intelligence artificielle incarne enfin le monde réel

Résumé IASource uniqueImpact UE
Source originale ↗·

La Physical AI désigne une nouvelle génération de systèmes d'intelligence artificielle capables non plus de traiter des données textuelles ou visuelles, mais d'agir directement sur le monde matériel. Contrairement aux modèles de langage classiques qui prédisent des séquences de tokens, ces systèmes combinent des capteurs avancés, vision 3D, lidar, accéléromètres, avec des modèles de fondation pour percevoir leur environnement en temps réel, raisonner sur sa géométrie et produire des mouvements précis en termes de force et de couple. En 2026, l'arrivée de processeurs embarqués suffisamment puissants permet à ces architectures de fonctionner sans délai réseau, rendant la correction de trajectoire instantanée : un bras robotique qui heurte un obstacle recalcule son chemin seul, sans intervention humaine.

L'enjeu industriel est considérable. Là où la robotique classique imposait une programmation rigide adaptée à des environnements contrôlés, la Physical AI permet aux machines de s'adapter à l'imprévu, une pièce déplacée, une variation de surface, un collègue humain qui traverse l'espace de travail. La tolérance à l'erreur est radicalement différente de celle de l'IA générative : une hallucination dans un résumé de texte est embarrassante, une erreur de trajectoire dans un entrepôt logistique peut endommager du matériel coûteux ou blesser quelqu'un. Cela pousse les équipes d'ingénierie à exiger des niveaux de fiabilité proches de ceux de l'aéronautique, ce qui tire vers le haut l'ensemble de la chaîne de développement matériel et logiciel.

Ce mouvement s'inscrit dans une trajectoire plus longue. Depuis le milieu des années 2010, la robotique industrielle stagnait : les bras mécaniques étaient rapides mais aveugles, incapables de généraliser à de nouveaux contextes sans re-programmation. L'émergence des grands modèles de vision et de langage a ouvert la voie à un apprentissage par démonstration et par simulation physique ultra-réaliste, contournant le besoin de millions d'exemples réels difficiles à collecter. Des acteurs comme NVIDIA avec sa plateforme Isaac, Boston Dynamics ou encore Figure AI investissent massivement dans cette convergence numérique-physique. La prochaine étape sera de déterminer qui contrôle les couches logicielles fondamentales, et donc l'économie de la robotique généralisée, avant que le marché ne se consolide autour de deux ou trois plateformes dominantes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Drones : l'intelligence artificielle à l'offensive
1Sciences et Avenir Tech 

Drones : l'intelligence artificielle à l'offensive

Le conflit en Ukraine s'est imposé comme le premier théâtre de guerre à grande échelle où les drones autonomes jouent un rôle central et structurant. Des milliers d'appareils — aériens, terrestres et maritimes — sont déployés quotidiennement par les deux camps, transformant radicalement la nature des combats. L'intégration de l'intelligence artificielle dans ces systèmes permet désormais de coordonner plusieurs drones simultanément en essaim, leur donnant la capacité d'accomplir des missions complexes sans intervention humaine constante. Cette évolution remet en cause des décennies de doctrine militaire fondée sur des plateformes coûteuses et centralisées. Des drones peu onéreux, produits en masse et guidés par des algorithmes, peuvent saturer les défenses adverses ou effectuer des reconnaissances en temps réel, là où un char ou un avion de combat aurait auparavant été nécessaire. Pour les états-majors, cela impose des cycles d'innovation beaucoup plus rapides : une conception qui prenait dix ans doit désormais s'adapter en quelques mois face à un adversaire qui apprend et contre-adapte aussi vite. Ce basculement technologique ne concerne pas seulement l'Ukraine et la Russie. Les grandes puissances militaires — États-Unis, Chine, mais aussi les armées européennes — observent ce conflit comme un laboratoire en temps réel et accélèrent leurs propres programmes de drones autonomes. La modularité permise par l'IA ouvre la voie à des essaims hétérogènes capables de s'adapter dynamiquement à la mission, soulevant des questions juridiques et éthiques majeures sur le contrôle humain des décisions létales.

UELes armées européennes accélèrent leurs propres programmes de drones autonomes en s'appuyant sur les enseignements du conflit ukrainien, ce qui soulève des enjeux réglementaires et éthiques urgents sur le contrôle humain des systèmes létaux au sein de l'UE.

RobotiqueOpinion
1 source
Physical Intelligence présente un modèle robotique à généralisation similaire aux LLM, défauts compris
2The Decoder 

Physical Intelligence présente un modèle robotique à généralisation similaire aux LLM, défauts compris

La start-up américaine Physical Intelligence a présenté π0.7, un nouveau modèle de fondation pour robots capable de recombiner des compétences acquises lors de l'entraînement pour accomplir des tâches inédites. Le principe rappelle directement le fonctionnement des grands modèles de langage, qui assemblent des fragments de leur corpus d'entraînement pour générer du texte nouveau. Les chercheurs qualifient ce phénomène de premières traces de "généralisation compositionnelle" en robotique, une capacité jusqu'ici considérée comme l'un des grands verrous du domaine. L'enjeu est considérable : un robot capable de composer librement ses compétences peut théoriquement s'adapter à des environnements non prévus lors de l'entraînement, sans reprogrammation manuelle. C'est précisément ce qui distingue l'intelligence artificielle générale de la robotique traditionnelle, figée dans des séquences prédéfinies. Physical Intelligence reconnaît toutefois que le modèle présente encore des défauts notables, signe que cette généralisation reste fragile et partielle à ce stade. Physical Intelligence, fondée en 2023 par d'anciens chercheurs de Google, DeepMind et Berkeley, s'est imposée comme l'un des acteurs les plus ambitieux de la robotique dite "généraliste". La société avait déjà publié π0 en 2024, un premier modèle de fondation polyvalent entraîné sur une large variété de tâches physiques. L'annonce de π0.7 s'inscrit dans une course plus large impliquant Figure AI, Agility Robotics et Tesla, tous en quête du même Graal : un robot capable d'apprendre une fois et de s'adapter partout.

RobotiqueOpinion
1 source
L'IA physique qui transforme le monde : Qasar Younis et Peter Ludwig, Applied Intuition
3Latent Space 

L'IA physique qui transforme le monde : Qasar Younis et Peter Ludwig, Applied Intuition

Applied Intuition, valorisée à 15 milliards de dollars, s'est imposée comme l'un des acteurs centraux de ce que ses fondateurs Qasar Younis et Peter Ludwig appellent l'IA physique. Née à l'époque de Y Combinator, la société a progressivement élargi son périmètre bien au-delà des outils de simulation pour robotaxis, pour déployer aujourd'hui plus de 30 produits couvrant la simulation, les systèmes d'exploitation embarqués, l'autonomie et les modèles d'IA. Ses technologies équipent des voitures, camions, engins de chantier, matériel agricole et systèmes de défense. La preuve la plus concrète de cette montée en puissance : des camions de niveau 4, entièrement autonomes, roulent déjà commercialement au Japon. L'enjeu central que défend Applied Intuition est une distinction souvent mal comprise : l'IA physique n'est pas simplement un grand modèle de langage monté sur des roues. Contrairement aux applications de chat ou de code où une erreur reste acceptable, un camion autonome ou un engin minier opèrent dans des environnements où la fiabilité doit atteindre plusieurs "neuf" de disponibilité, soit un temps de panne mesuré en minutes par an. Le vrai goulot d'étranglement n'est plus la puissance des modèles, mais leur déploiement sur du matériel contraint : latence de l'ordre de la milliseconde, faible consommation électrique, mémoire réduite, et mises à jour sûres sans risque de rendre le véhicule inutilisable. Pour répondre à ces exigences, la société développe un véritable système d'exploitation temps réel pour machines mobiles, avec une ambition claire : devenir l'équivalent d'Android pour tout ce qui se déplace. Applied Intuition a émergé à une période où les outils pour développeurs semblaient peu valorisés. Qasar Younis admet lui-même qu'en 2016, parier sur le tooling relevait presque du contre-courant. Le boom de l'IA a depuis remis les workflows et les infrastructures au premier plan. La société s'appuie aussi sur les leçons douloureuses de l'industrie : les incidents de Cruise ont rappelé que les échecs de l'autonomie ne sont pas seulement des problèmes techniques, mais des crises de confiance publique. Waymo, cité en modèle, tire le niveau vers le haut. Les prochaines questions portent sur la validation statistique des systèmes, sur les modèles du monde capables de simuler des phénomènes complexes comme l'aquaplaning ou les chantiers de construction, et sur la capacité à rendre la simulation neurale suffisamment rapide et peu coûteuse pour que l'apprentissage par renforcement devienne viable à grande échelle.

RobotiqueOpinion
1 source
OmniUMI : vers un apprentissage robotique ancré dans le monde physique par interaction multimodale alignée sur l'humain
4arXiv cs.RO 

OmniUMI : vers un apprentissage robotique ancré dans le monde physique par interaction multimodale alignée sur l'humain

Des chercheurs ont présenté OmniUMI, un nouveau cadre d'apprentissage robotique conçu pour dépasser les limites des systèmes actuels en intégrant des données multimodales physiquement ancrées. Là où les interfaces de type UMI existantes se limitent à des observations visuelles RGB et des trajectoires, OmniUMI capture simultanément six types de données : images RGB, profondeur, trajectoire, retour tactile, force de préhension interne et couple d'interaction externe. Ce dispositif tient dans la main et maintient une cohérence entre la phase de collecte des démonstrations humaines et le déploiement sur le robot, grâce à une conception d'embodiment partagé. Les politiques apprises reposent sur une extension de la diffusion policy intégrant ces signaux visuels, tactiles et de force, déployée via une exécution à impédance pour réguler conjointement le mouvement et le contact. Les expériences valident le système sur des tâches comme le saisissement et le dépôt sensibles à la force, l'effacement de surface interactif, et le relâchement sélectif guidé par le toucher. La portée de cette avancée tient à un problème fondamental de la robotique : les tâches impliquant un contact physique riche, comme assembler des pièces fragiles, manipuler des objets déformables ou effectuer des gestes précis avec pression calibrée, restent hors de portée des systèmes purement visuels. La vision seule ne peut pas inférer la dynamique de contact, la force exercée, ni les micro-glissements tactiles. En permettant au démonstrateur humain de percevoir et moduler naturellement ces forces via un retour bilatéral du préhenseur, OmniUMI aligne la démonstration humaine sur la réalité physique du robot, rendant les données collectées directement exploitables. Le contexte est celui d'une course à la manipulation robotique généraliste, où des laboratoires et entreprises comme Google DeepMind, Physical Intelligence ou Boston Dynamics investissent massivement. Les interfaces UMI, popularisées ces dernières années pour leur facilité de collecte de données à grande échelle, butaient précisément sur ce mur du toucher et de la force. OmniUMI ouvre une voie vers des systèmes capables d'apprendre des tâches industrielles ou médicales où la précision physique est critique, tout en conservant le paradigme de démonstration humaine qui a fait le succès des approches d'imitation à grande échelle.

RobotiqueOpinion
1 source