Aller au contenu principal
NVIDIA GTC : l'Omniverse au service de l'IA physique
InfrastructureNVIDIA AI Blog6sem

NVIDIA GTC : l'Omniverse au service de l'IA physique

Résumé IASource uniqueImpact UE
Source originale ↗·

NVIDIA a profité de sa conférence GTC pour marquer un tournant dans l'IA physique : robots, véhicules autonomes et usines connectées passent d'expérimentations isolées à des déploiements industriels à grande échelle. Au cœur de cette transition, trois nouveaux modèles frontière — NVIDIA Cosmos 3, NVIDIA Isaac GR00T N1.7 et NVIDIA Alpamayo 1.5 — viennent élargir les capacités de simulation et d'apprentissage pour les systèmes autonomes.

L'enjeu est considérable : les données du monde réel, longtemps perçues comme un avantage concurrentiel dans l'IA physique, atteignent leurs limites. Imprévisibles, coûteuses à collecter et difficiles à traiter, elles ne suffisent plus pour entraîner des robots ou des véhicules autonomes face aux cas extrêmes. NVIDIA inverse la logique avec son Physical AI Data Factory Blueprint : transformer la puissance de calcul en données d'entraînement synthétiques, de haute qualité et à grande échelle.

Ce blueprint open source repose sur les modèles de monde NVIDIA Cosmos et l'opérateur NVIDIA OSMO, unifiant curation, augmentation et évaluation des données en un seul pipeline. Des acteurs comme FieldAI, Hexagon Robotics, Skild AI et Teradyne Robotics l'utilisent déjà. Microsoft Azure et Nebius sont les premiers clouds à le proposer en offre clé en main. Parallèlement, le Omniverse DSX Blueprint permet de simuler intégralement une usine IA — thermique, réseau, alimentation — avant même d'installer le premier rack. "Dans cette nouvelle ère, le calcul, c'est la donnée", a déclaré Rev Lebaredian, vice-président d'Omniverse chez NVIDIA.

Le standard ouvert OpenUSD joue un rôle structurant dans tout cet écosystème, servant de langage commun pour connecter données CAD, actifs de simulation et télémétrie réelle. Des frameworks agentiques open source comme OpenClaw complètent la pile logicielle en orchestrant des workflows autonomes de bout en bout, signalant une montée en maturité opérationnelle de l'IA physique que peu d'acteurs pouvaient anticiper il y a encore deux ans.

Impact France/UE

Les industriels et startups européens en robotique ou véhicules autonomes peuvent accéder via Microsoft Azure aux blueprints open source NVIDIA pour entraîner des modèles sur données synthétiques, réduisant leur dépendance coûteuse à la collecte terrain.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents
1NVIDIA AI Blog 

NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents

NVIDIA et Google Cloud ont annoncé cette semaine, lors de la conférence Google Cloud Next à Las Vegas, une nouvelle étape majeure dans leur partenariat vieux de plus de dix ans. Au cœur de l'annonce : le lancement des instances bare-metal A5X, alimentées par les systèmes rack NVIDIA Vera Rubin NVL72, qui promettent un coût d'inférence jusqu'à dix fois inférieur et un débit de tokens dix fois plus élevé par mégawatt par rapport à la génération précédente. Ces infrastructures s'appuient sur les interconnexions NVIDIA ConnectX-9 SuperNICs couplées au réseau Google Virgo de nouvelle génération, permettant de déployer des clusters allant jusqu'à 80 000 GPU Rubin sur un site unique, et jusqu'à 960 000 GPU dans une configuration multisite. Par ailleurs, Google Cloud met en préversion les modèles Gemini sur Google Distributed Cloud avec les GPU NVIDIA Blackwell et Blackwell Ultra, ainsi que des machines virtuelles confidentielles garantissant le chiffrement des données en cours d'utilisation. Des acteurs comme OpenAI et Thinking Machines Lab utilisent déjà ces infrastructures pour des charges d'inférence massives, notamment pour faire tourner ChatGPT. Ces annonces représentent un saut qualitatif significatif pour les entreprises qui cherchent à industrialiser l'IA agentique et l'IA physique, c'est-à-dire les systèmes capables d'agir de manière autonome dans des environnements réels, comme les robots ou les jumeaux numériques en usine. La réduction drastique des coûts d'inférence change concrètement l'équation économique pour les développeurs d'applications IA à grande échelle. La possibilité de déployer les modèles Gemini en environnement souverain, sur des données sensibles restant chiffrées y compris pendant leur traitement, répond à une exigence croissante des entreprises et des gouvernements en matière de conformité et de confidentialité. L'intégration de modèles ouverts NVIDIA Nemotron dans la plateforme Gemini Enterprise Agent Platform élargit également les options des équipes techniques qui souhaitent combiner modèles propriétaires et open source. Ce partenariat s'inscrit dans une compétition intense entre les grands fournisseurs de cloud pour capter les budgets d'infrastructure IA, qui se chiffrent désormais en dizaines de milliards de dollars annuellement. Google Cloud cherche à rattraper son retard sur AWS et Microsoft Azure, qui ont pris de l'avance sur l'hébergement des charges d'entraînement et d'inférence des grands modèles de langage. En s'associant étroitement à NVIDIA, dont les GPU dominent encore largement le marché de l'accélération IA, Google se positionne comme une plateforme de référence pour la prochaine vague, celle des agents autonomes et de la robotique industrielle. La feuille de route annoncée, avec la transition de Blackwell vers Vera Rubin, suggère que la cadence d'innovation s'accélère et que les entreprises devront adapter leur infrastructure régulièrement pour rester compétitives.

UELe déploiement souverain de Gemini sur Google Distributed Cloud avec chiffrement des données en cours d'utilisation répond aux exigences RGPD des entreprises européennes traitant des données sensibles.

InfrastructureOpinion
1 source
Nvidia mise sur l’IA physique : pourquoi les marchés d’Asie s’emballent déjà ?
2Le Big Data 

Nvidia mise sur l’IA physique : pourquoi les marchés d’Asie s’emballent déjà ?

L'Asie représente désormais 90 % des coûts de production de Nvidia, contre 65 % il y a tout juste un an. Ce basculement, documenté par Bloomberg, illustre une réorientation stratégique majeure du géant américain des puces graphiques. Nvidia ne se concentre plus uniquement sur les processeurs pour data centers : sous l'impulsion de son PDG Jensen Huang, l'entreprise accélère dans ce qu'elle appelle l'IA physique, un ensemble de technologies englobant la robotique, les systèmes autonomes et la production industrielle augmentée. Dans ce cadre, des partenariats se nouent à grande vitesse avec des acteurs asiatiques majeurs comme SK Hynix et Samsung Electronics pour la mémoire et les composants avancés, mais aussi avec des entreprises moins connues à l'international : LG Electronics sur un projet de robot domestique, Nanya Technology à Taïwan, et des fabricants chinois comme Huizhou Desay et Pateo Connect. Les marchés boursiers ont immédiatement réagi : LG Electronics a bondi jusqu'à 15 % après l'annonce de discussions avec Nvidia, Nanya Technology a progressé de 10 %, tandis que les titres chinois concernés enregistraient également des hausses marquées. L'impact de cette dynamique dépasse largement les seuls partenaires directs de Nvidia. Chaque annonce de collaboration est désormais perçue par les investisseurs comme un signal de croissance future, transformant des entreprises industrielles régionales en acteurs stratégiques mondiaux du jour au lendemain. Pour Ling Vey-Sern, analyste chez Union Bancaire Privée, cette dépendance croissante à l'égard des chaînes d'approvisionnement asiatiques est structurelle et inévitable : les géants technologiques n'ont d'autre choix que de s'appuyer sur des écosystèmes de fabrication très spécialisés. L'IA physique, contrairement à l'IA générative qui reposait essentiellement sur des infrastructures cloud pilotées par Microsoft, Amazon ou Alphabet, exige une base industrielle dense : capteurs, actionneurs, systèmes embarqués, assemblage de précision. C'est précisément là où l'Asie concentre ses compétences depuis des décennies. Ce virage s'inscrit dans un contexte d'investissements colossaux de la part des géants américains, certains annonçant jusqu'à 200 milliards de dollars de dépenses en infrastructures IA. Nvidia capte une part significative de ces budgets et entraîne dans son sillage l'ensemble de sa chaîne de fournisseurs. Samsung en a déjà tiré les bénéfices, ayant récemment multiplié ses résultats trimestriels. La part asiatique dans les coûts de production de Nvidia n'est pas une simple métrique de dépendance : c'est le reflet d'un cycle d'investissement qui se déplace vers le prochain goulot d'étranglement, après le calcul et la mémoire, désormais vers les composants et systèmes nécessaires à l'IA qui agit dans le monde réel. Les prochaines étapes dépendront de la vitesse à laquelle les robots, véhicules autonomes et usines intelligentes passeront du stade expérimental au déploiement industriel à grande échelle.

UELe basculement des chaînes d'approvisionnement vers l'Asie pour l'IA physique accentue la dépendance technologique de l'Europe vis-à-vis de fournisseurs non-européens, renforçant les enjeux de souveraineté industrielle déjà au cœur des débats sur l'autonomie stratégique de l'UE.

InfrastructureOpinion
1 source
3Le Big Data 

NVIDIA Vera : quand le CPU devient le cerveau de l’IA autonome

Le 16 mars 2026, lors de la conférence GTC 2026, Jensen Huang a présenté le processeur CPU Vera, une puce conçue spécifiquement pour l'intelligence artificielle agentique. Architecturé autour de la plateforme Olympus, Vera embarque 88 cœurs personnalisés basés sur la technologie ARM Neoverse, une mémoire SOCAMM en LPDDR6 atteignant une bande passante de 1,2 To/s, et une conception monolithique qui réduit la latence interne au minimum physiquement possible. Contrairement aux GPU Blackwell et Rubin qui gèrent le traitement parallèle massif, Vera prend en charge l'exécution séquentielle et logique : la planification, la vérification, l'enchaînement de décisions. Sa capacité à manipuler des contextes de plusieurs millions de tokens en temps réel en fait un composant radicalement différent des processeurs x86 traditionnels, jugés trop lents pour les exigences actuelles de l'IA. L'enjeu est fondamental pour toute entreprise qui cherche à déployer des agents IA dans des workflows réels. Jusqu'ici, les systèmes d'IA buttaient sur le goulot d'étranglement du raisonnement séquentiel : générer du texte rapidement ne suffit pas pour gérer du code complexe, de la logistique ou de la prise de décision multi-étapes. Vera permet à l'IA de passer d'un outil passif à un collaborateur capable d'orchestrer des tâches sur la durée, de corriger ses propres erreurs et d'enchaîner des raisonnements structurés sans latence perceptible. Pour les développeurs et les entreprises, cela ouvre concrètement la voie à des agents autonomes opérationnels dans des environnements de production exigeants, là où les solutions actuelles restent trop fragiles ou trop lentes. Cette annonce s'inscrit dans une accélération que NVIDIA pilote depuis plusieurs années en construisant une pile matérielle complète pour l'IA. Après avoir dominé l'entraînement des modèles avec ses GPU, puis l'inférence avec la gamme Blackwell, l'entreprise complète aujourd'hui l'architecture avec un CPU qui lui est propre, réduisant sa dépendance aux processeurs Intel et AMD pour les charges de travail IA. Le concept rappelle la distinction cognitive entre Système 1 (rapide, instinctif) et Système 2 (analytique, délibéré) : les GPU couvrent le premier, Vera prend en charge le second. Si l'adoption suit, NVIDIA pourrait imposer une architecture propriétaire de bout en bout pour les data centers orientés agents, ce qui renforcerait encore davantage sa position dominante dans l'infrastructure de l'IA mondiale au moment où la course aux systèmes autonomes s'intensifie chez Google, Microsoft et Meta.

UELes opérateurs de data centers européens déployant des agents IA devront évaluer une migration vers cette architecture propriétaire NVIDIA pour contourner les goulots d'étranglement du raisonnement séquentiel.

💬 Le goulot d'étranglement du raisonnement séquentiel, c'est le truc qui fait ramer les agents en prod depuis 2 ans, et Vera s'attaque frontalement à ça. La distinction Système 1/Système 2 appliquée au silicium, c'est bien vu, pas juste du marketing. Le revers, c'est que si t'as besoin de Vera pour que tes agents tournent vraiment, t'achètes le stack NVIDIA complet, de bout en bout, et ils le savent.

InfrastructureOpinion
1 source
Omniverse : l'industrie manufacturière entre dans l'ère de la simulation
4NVIDIA AI Blog 

Omniverse : l'industrie manufacturière entre dans l'ère de la simulation

NVIDIA a officiellement marqué un tournant dans l'industrie manufacturière avec la maturité de sa pile technologique Physical AI, combinant OpenUSD, NVIDIA Omniverse et des modèles de simulation haute-fidélité. L'idée centrale : remplacer les cycles traditionnels de conception-fabrication-test par une approche "simulation d'abord", où des environnements virtuels physiquement précis génèrent des données d'entraînement suffisamment fiables pour déployer de l'IA en production réelle. Le standard SimReady, construit sur OpenUSD, joue ici un rôle clé : il définit ce que doit contenir un asset 3D pour fonctionner de manière cohérente à travers les pipelines de rendu, simulation et entraînement IA, sans pertes de métadonnées ou de propriétés physiques à chaque transfert. Plusieurs grandes entreprises ont déjà mis cette infrastructure à l'épreuve avec des résultats mesurables. ABB Robotics a intégré les bibliothèques Omniverse dans son environnement RobotStudio HyperReality, utilisé par plus de 60 000 ingénieurs dans le monde. En représentant les stations robotiques sous forme de fichiers USD qui tournent avec le même firmware que leurs équivalents physiques, ABB atteint désormais 99 % de précision entre simulation et réalité, selon Craig McDonnell, directeur général des industries chez ABB Robotics. Les gains opérationnels sont concrets : jusqu'à 50 % de réduction des cycles d'introduction produit, 80 % de réduction du temps de mise en service, et 30 à 40 % d'économies sur le coût total du cycle de vie des équipements. De son côté, JLR a formé des modèles neuronaux sur plus de 20 000 simulations CFD corrélées à des essais en soufflerie, 95 % des charges de travail aérothermiques tournant désormais sur GPU NVIDIA. Résultat : ce qui prenait quatre heures de simulation aérodynamique se fait maintenant en une minute. Ces résultats illustrent un changement de paradigme profond pour l'industrie lourde. La simulation haute-fidélité cesse d'être un outil de validation en fin de cycle pour devenir le terrain principal de conception et d'entraînement des systèmes d'IA. Pour les constructeurs automobiles, les intégrateurs robotiques ou les équipementiers industriels, cela signifie des lignes de production validées avant même d'exister physiquement, des délais de mise sur le marché réduits de moitié et une réduction drastique des coûts de prototypage. L'enjeu est aussi concurrentiel : les entreprises qui maîtrisent ces outils gagnent une capacité d'itération que leurs concurrents ne peuvent pas égaler avec des approches physiques traditionnelles. Ce virage s'inscrit dans la stratégie à long terme de NVIDIA pour s'imposer comme infrastructure de l'IA industrielle, au-delà des datacenters. OpenUSD, originellement développé par Pixar pour la production 3D, s'est imposé comme standard d'interopérabilité industrielle sous l'impulsion de NVIDIA et d'un écosystème croissant de partenaires. La plateforme Metropolis VSS Blueprint, sur laquelle Tulip Interface a construit son outil Factory Playback pour le fabricant d'équipements Terex, montre que la couche d'intelligence ne s'arrête pas à la simulation pre-production : elle s'étend aux usines en exploitation, fusionnant flux vidéo, capteurs machines et données opérationnelles en une chronologie unifiée des événements réels. La prochaine frontière est l'agent autonome capable d'agir en temps réel dans ces environnements, ce que NVIDIA positionne comme le prochain stade de son écosystème Omniverse.

UELes industriels européens de l'automobile et de la robotique peuvent réduire leurs délais de mise sur le marché de moitié et leurs coûts de prototypage en adoptant la stack de simulation physique NVIDIA Omniverse, déjà déployée par des acteurs comme ABB (Suisse) et JLR (Royaume-Uni).

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour