Aller au contenu principal
L'IA physique soulève des questions de gouvernance pour les systèmes autonomes
RobotiqueAI News1h

L'IA physique soulève des questions de gouvernance pour les systèmes autonomes

Résumé IASource uniqueImpact UE
Source originale ↗·

La convergence de l'intelligence artificielle et des systèmes physiques pose des questions de gouvernance inédites pour les entreprises, les régulateurs et les ingénieurs. En 2024, la Fédération internationale de la robotique recensait 542 000 robots industriels installés dans le monde, soit plus du double du niveau enregistré dix ans plus tôt. Les projections tablent sur 575 000 unités en 2025 et plus de 700 000 d'ici 2028. Dans ce contexte, le marché de ce que les analystes appellent désormais la "Physical AI" -- robotique, edge computing et machines autonomes -- était estimé à 81,64 milliards de dollars en 2025 par Grand View Research, avec des projections atteignant 960,38 milliards en 2033. En mars 2025, Google DeepMind a franchi une étape concrète en lançant Gemini Robotics et Gemini Robotics-ER, deux modèles construits sur Gemini 2.0 et conçus pour le contrôle direct de robots et le raisonnement spatial. En avril 2026, une nouvelle version, Gemini Robotics-ER 1.6, a été mise en préversion via l'API Gemini, avec des capacités renforcées de planification de tâches, de détection de succès et de raisonnement par étapes intermédiaires.

L'enjeu dépasse largement celui de l'automatisation logicielle classique. Lorsqu'un modèle de langage produit une réponse incorrecte, l'erreur reste dans le domaine informationnel. Lorsqu'un modèle piloté un robot, une sortie erronée peut se traduire par un mouvement physique dans un environnement partagé avec des humains ou connecté à des équipements industriels critiques. Google DeepMind identifie trois propriétés fondamentales pour des robots véritablement utiles : la généralité (capacité à traiter des objets et environnements inconnus), l'interactivité (adaptation aux instructions humaines et aux conditions changeantes), et la dextérité (précision des gestes physiques). Des systèmes comme Gemini Robotics peuvent suivre des instructions en langage naturel et exécuter des séquences complexes -- plier du papier, emballer des objets, manipuler des éléments jamais vus à l'entraînement. Mais cette même flexibilité complique la définition de limites de sécurité claires et de procédures d'arrêt d'urgence.

Derrière la performance technique se profile un problème de gouvernance systémique encore non résolu. Contrairement aux logiciels, les systèmes physiques autonomes opèrent dans des espaces réels, soumis à des normes de sécurité industrielles, de responsabilité civile et de certification qui n'ont pas été conçues pour des agents capables de raisonner et de décider de façon autonome. La mise à disposition de Gemini Robotics-ER 1.6 via l'API Gemini rapproche le développement de ces systèmes des environnements de tests accessibles aux développeurs, mais transfère aussi une partie de la responsabilité vers les intégrateurs. Le secteur se retrouve face à une question centrale : qui valide, surveille et peut arrêter un agent physique lorsque son comportement s'écarte des limites prévues ? Les réponses réglementaires et industrielles à cette question seront déterminantes pour le déploiement à grande échelle de la Physical AI dans les prochaines années.

Impact France/UE

Les industriels et régulateurs européens devront réviser les cadres de responsabilité civile, de certification et de sécurité des machines pour couvrir des agents physiques autonomes capables de raisonner, un vide que l'AI Act actuel n'adresse pas encore directement.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GoZTASP : une plateforme zero-trust pour la gouvernance des systèmes autonomes à grande échelle
1IEEE Spectrum AI 

GoZTASP : une plateforme zero-trust pour la gouvernance des systèmes autonomes à grande échelle

GoZTASP est une plateforme de gouvernance et d'assurance conçue pour superviser des systèmes autonomes déployés à grande échelle dans des environnements réels. Elle intègre au sein d'une architecture zero-trust unifiée des équipements hétérogènes, drones, robots, capteurs et opérateurs humains, en s'appuyant sur deux modules clés : le Secure Runtime Assurance (SRTA), qui vérifie en continu l'intégrité des systèmes, et le Secure Spatio-Temporal Reasoning (SSTR), qui raisonne sur les données spatiales et temporelles pour maintenir la cohérence opérationnelle. La plateforme a franchi le niveau de maturité technologique TRL 7, validant son fonctionnement dans des environnements à haute criticité. Les composants centraux, notamment les contrôleurs de vol sécurisés Saluki, ont atteint le TRL 8 et sont d'ores et déjà déployés dans des systèmes clients en production. L'enjeu de ZTASP dépasse largement le cadre militaire dans lequel il a été initialement développé. La capacité à maintenir une opération résiliente même dans des conditions dégradées, pannes partielles, attaques, perte de connectivité, répond à un besoin critique dans des secteurs comme la santé, les transports autonomes et les infrastructures sensibles. En imposant une vérification permanente de chaque composant sans présupposer de confiance implicite entre les sous-systèmes, le modèle zero-trust apporte une couche de sécurité fondamentalement différente des approches périmètriques traditionnelles, particulièrement adaptée aux flottes de robots ou de véhicules autonomes où la surface d'attaque est distribuée et dynamique. Le concept de zero-trust, né dans la cybersécurité des réseaux d'entreprise dans les années 2010, connaît aujourd'hui une extension vers les systèmes cyber-physiques autonomes, où les conséquences d'une compromission sont directement matérielles. La prolifération des drones commerciaux et des robots industriels dans des environnements non contrôlés rend la question de la gouvernance à l'exécution de plus en plus pressante. ZTASP s'inscrit dans une tendance plus large où des acteurs de la défense et de l'industrie cherchent à formaliser des cadres d'assurance capables de répondre aux exigences réglementaires émergentes autour des systèmes autonomes, notamment en Europe et aux États-Unis, où plusieurs initiatives législatives sont en cours d'élaboration.

UELes initiatives législatives européennes sur les systèmes autonomes (drones, véhicules autonomes, robots industriels) pourraient s'appuyer sur ce type de cadre d'assurance zero-trust pour définir des exigences de conformité opérationnelle.

RobotiqueOpinion
1 source
Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
2arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

RobotiqueActu
1 source
Ce que les discussions entre LG et NVIDIA révèlent sur l'avenir de l'IA physique
3AI News 

Ce que les discussions entre LG et NVIDIA révèlent sur l'avenir de l'IA physique

LG et NVIDIA sont actuellement en discussions exploratoires portant sur l'IA physique, les centres de données et la mobilité. Une rencontre à Séoul entre Ryu Jae-cheol, PDG de LG, et Madison Huang, directeur senior marketing produit pour Omniverse et la robotique chez NVIDIA, a permis de poser les bases d'une coopération potentielle. Aucun montant ni calendrier n'a encore été formalisé, mais les deux entreprises ont des priorités matérielles qui se recoupent sur deux fronts distincts : l'infrastructure thermique des centres de données et la robotique domestique. Sur le premier point, LG a présenté au CES 2026 des solutions de climatisation et de gestion thermique haute efficacité spécifiquement conçues pour les fermes de serveurs IA. Sur le second, le groupe coréen a dévoilé CLOiD, un robot domestique doté de deux bras à sept degrés de liberté et de cinq doigts à actuation individuelle, fonctionnant sur sa plateforme maison baptisée "Affectionate Intelligence". En parallèle, NVIDIA vient de conclure un essai de deux semaines sur un site Siemens en janvier 2026, annoncé en avril à la foire de Hanovre, où un robot humanoïde HMND 01 Alpha a exécuté des opérations logistiques réelles sur une plage de huit heures. Ces discussions révèlent une dépendance structurelle croissante entre les fabricants d'équipements physiques et les fournisseurs de puissance de calcul. Les racks de serveurs NVIDIA génèrent des densités de chaleur que les systèmes de refroidissement conventionnels ne peuvent plus absorber sans dégrader les performances : lorsque les nœuds de calcul surchauffent, ils réduisent automatiquement leur cadence, détruisant le retour sur investissement des puces haut de gamme. Intégrer les solutions thermiques de LG directement dans l'écosystème NVIDIA permettrait aux opérateurs d'entasser plus de puissance de calcul dans moins d'espace physique. Du côté robotique, LG manque aujourd'hui des environnements de simulation, des modèles de manipulation pré-entraînés et de l'infrastructure de jumeaux numériques nécessaires pour déployer CLOiD en toute sécurité dans des logements réels. La pile Omniverse et Isaac de NVIDIA offre précisément cette architecture, optimisée pour l'inférence physique en temps réel, ce qui permettrait de comprimer drastiquement le délai entre prototype et production commerciale. L'enjeu central de ces négociations illustre une fracture fondamentale de l'IA physique : les environnements industriels, comme l'usine Siemens d'Erlangen, sont structurés et prévisibles, ce qui facilite le déploiement de robots. Les intérieurs domestiques, eux, présentent une variabilité extrême en termes d'éclairage, de disposition et de comportement humain imprévisible, rendant le passage à l'échelle bien plus complexe. LG mise sur NVIDIA pour combler cette lacune via la puissance de simulation et l'inférence en périphérie de réseau. Pour NVIDIA, dont les revenus du segment centres de données battent régulièrement des records, nouer des partenariats avec des constructeurs d'appareils grand public comme LG représente une voie pour ancrer sa plateforme Omniverse comme standard de l'industrie robotique, avant que la concurrence chinoise ou les acteurs spécialisés ne s'imposent.

UELe déploiement d'un robot humanoïde sur le site Siemens d'Erlangen (Allemagne) signale une accélération de l'IA physique dans l'industrie manufacturière européenne, avec des implications pour les équipementiers et intégrateurs du secteur.

RobotiqueOpinion
1 source
Les systèmes d'IA autonomes reposent sur la gouvernance des données
4AI News 

Les systèmes d'IA autonomes reposent sur la gouvernance des données

Alors que le débat sur la sécurité de l'IA s'est longtemps concentré sur les modèles eux-mêmes, un déplacement s'opère vers les données qui les alimentent. Les systèmes d'IA autonomes — capables d'exécuter des tâches, de récupérer des informations et de déclencher des actions dans des flux métiers avec peu ou pas de supervision humaine — dépendent d'un flux continu de données fiables. Lorsque ces données sont fragmentées, obsolètes ou mal contrôlées, le comportement du système devient imprévisible. C'est sur ce problème que se positionne Denodo, éditeur de logiciels spécialisé dans la gestion et l'accès aux données distribuées. Sa plateforme crée une vue unifiée des données issues de sources multiples — clouds, bases internes, services tiers — sans avoir à les centraliser physiquement. Elle permet d'appliquer des règles d'accès, des contraintes de conformité et des limites d'utilisation depuis un point unique, tout en journalisant chaque requête pour constituer une piste d'audit exploitable. L'enjeu dépasse la simple organisation informatique. Dans les secteurs réglementés — finance, santé, industrie —, des résultats imprévisibles issus d'un système autonome peuvent engendrer des risques de conformité sérieux. Pour les applications en contact direct avec les clients, cela se traduit par des décisions erronées ou des réponses incorrectes. En garantissant que plusieurs systèmes d'IA s'appuient sur la même couche de données gouvernée, Denodo réduit le risque de sorties contradictoires entre différents départements d'une même organisation. La capacité à monitorer en temps réel l'utilisation des données et à détecter les activités inhabituelles renforce également la capacité des équipes à comprendre comment un système autonome est parvenu à une décision donnée — un prérequis de plus en plus exigé par les régulateurs. Cette évolution s'inscrit dans une maturité croissante de l'industrie vis-à-vis de l'IA en entreprise. Les premières phases de déploiement se focalisaient sur les capacités des modèles : ce qu'ils pouvaient faire. La conversation actuelle porte sur la manière dont ils doivent être gérés une fois en production. La gouvernance des données, qui constitue la couche la plus basse de la pile — en dessous des modèles et des applications — est ainsi devenue un levier de contrôle à part entière. Denodo participait notamment aux discussions sur ce sujet lors de l'AI & Big Data Expo North America 2026. La prochaine étape de l'adoption de l'IA dépendra probablement moins des avancées des modèles que de la capacité des organisations à structurer les systèmes qui les entourent : la gouvernance n'est plus une option, mais une condition d'exploitation des systèmes autonomes.

UEL'AI Act européen impose traçabilité et auditabilité des systèmes d'IA en production, rendant les plateformes de gouvernance des données directement pertinentes pour les entreprises européennes des secteurs réglementés.

OutilsActu
1 source