Aller au contenu principal
GTC 2026 : Nvidia veut remplacer le problème de données en robotique par un problème de calcul
RobotiqueThe Decoder6sem

GTC 2026 : Nvidia veut remplacer le problème de données en robotique par un problème de calcul

Résumé IASource uniqueImpact UE
Source originale ↗·

Lors du GTC 2026, Nvidia a dévoilé une expansion massive de sa plateforme d'IA physique, confirmant sa stratégie de transformer la robotique en un problème de puissance de calcul plutôt qu'en un problème de données. L'ambition est claire : équiper de son intelligence aussi bien les véhicules autonomes que les robots industriels et humanoïdes, en faisant de ses puces le cerveau de la prochaine révolution industrielle.

L'enjeu est considérable pour le secteur. La robotique souffre historiquement d'un manque de données d'entraînement de qualité — un goulot d'étranglement qui ralentit le développement des systèmes autonomes. Nvidia propose une alternative : générer synthétiquement ces données via la simulation, en s'appuyant sur une infrastructure de calcul massive. Ce changement de paradigme pourrait accélérer drastiquement le déploiement de robots capables dans des environnements réels et imprévisibles.

Parmi les annonces concrètes, dès 2027, des véhicules autonomes circuleront dans Los Angeles en partenariat avec Uber. Côté industrie, les géants FANUC et ABB — deux des plus grands fabricants mondiaux de robots industriels — intégreront des cerveaux Nvidia dans leurs machines. De nouveaux modèles d'IA sont également présentés pour améliorer les capacités des robots humanoïdes, un segment en pleine effervescence.

Ces annonces positionnent Nvidia comme l'infrastructure centrale de l'IA physique, un marché que la société anticipe comme la prochaine vague après les grands modèles de langage. En s'associant à des acteurs établis comme FANUC, ABB et Uber, elle cherche à ancrer ses technologies dans des déploiements industriels réels avant que la concurrence ne consolide ses propres écosystèmes.

Impact France/UE

ABB, groupe suisse majeur en robotique industrielle, intégrera les puces Nvidia, ce qui pourrait accélérer l'automatisation dans les usines européennes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le directeur de la robotique de Nvidia : les agents IA vont provoquer un moment ChatGPT pour la robotique
1The Information AI 

Le directeur de la robotique de Nvidia : les agents IA vont provoquer un moment ChatGPT pour la robotique

Deepu Talla, vice-président de la robotique chez Nvidia, affirme que les agents IA représenteront pour la robotique ce que ChatGPT a été pour l'IA grand public. Un seul agent pourrait coordonner toute une flotte de robots, décomposant un objectif en tâches spécifiques assignées à chaque robot. Nvidia mise sur l'extension de ses systèmes d'IA agentique, d'abord conçus pour le numérique, vers des modèles physiques présentés lors de la conférence GTC à San José.

RobotiqueActu
1 source
Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents
2The Information AI 

Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents

Google DeepMind a publié cette semaine Gemini Robotics-ER-1.6, un nouveau modèle de vision et de langage conçu pour aider les robots à interpréter leur environnement. Pour illustrer ses capacités, Boston Dynamics, qui dispose d'un accord pour intégrer Gemini dans ses robots humanoïdes, a publié une vidéo de ses robots quadrupèdes utilisant le modèle pour lire un thermomètre lors d'une inspection dans une installation industrielle. Selon les benchmarks internes de Google, les gains restent modestes sur un seul flux caméra : le modèle n'améliore que marginalement la capacité du robot à détecter la fin d'une tâche par rapport aux versions précédentes. En revanche, les performances progressent nettement lorsque le robot exploite plusieurs flux caméra simultanément. C'est précisément là que réside l'enjeu pratique : la majorité des environnements robotiques industriels, qu'il s'agisse d'usines ou d'entrepôts, s'appuient sur plusieurs points de vue combinés, comme une caméra en hauteur et une caméra fixée sur le bras du robot. Le système doit être capable de fusionner ces perspectives pour construire une compréhension cohérente de ce qu'il accomplit et savoir quand la tâche est terminée. Ce lancement s'inscrit dans une course intense entre les grands laboratoires d'IA pour doter les robots d'une intelligence de perception plus robuste. Google DeepMind et Boston Dynamics ont formalisé leur partenariat autour de Gemini pour les robots humanoïdes, signalant une convergence entre les modèles de fondation et la robotique physique. Si les progrès annoncés restent incrémentaux, l'amélioration sur les configurations multi-caméras est directement applicable aux déploiements industriels existants, ce qui pourrait accélérer l'adoption de robots autonomes dans des environnements de travail réels. Les prochaines versions du modèle seront à surveiller pour évaluer si ces gains se traduisent en performances significatives sur des tâches complexes en conditions réelles.

RobotiqueActu
1 source
Nvidia lance Data Factory et des modèles robotiques dans son offensive pour l'IA physique
3AI Business 

Nvidia lance Data Factory et des modèles robotiques dans son offensive pour l'IA physique

Nvidia lance Data Factory et de nouveaux modèles de robotique dans le cadre de sa stratégie d'IA physique, visant à renforcer sa position dominante dans ce secteur en pleine expansion. Ces annonces s'inscrivent dans la volonté du géant des puces IA de s'imposer comme acteur incontournable au-delà du seul marché des GPU pour centres de données.

RobotiqueActu
1 source
Les modèles vision-langage-action en robotique : panorama des jeux de données, benchmarks et moteurs de données
4arXiv cs.RO 

Les modèles vision-langage-action en robotique : panorama des jeux de données, benchmarks et moteurs de données

Une équipe de chercheurs a publié sur arXiv (référence 2604.23001) une analyse exhaustive de l'état des données dans les modèles Vision-Langage-Action (VLA) appliqués à la robotique. Ces modèles, qui permettent à un robot de percevoir son environnement visuel, d'interpréter des instructions en langage naturel et d'exécuter des actions physiques, connaissent des progrès spectaculaires depuis deux ans. Pourtant, selon les auteurs, le vrai goulot d'étranglement n'est pas l'architecture des modèles : c'est l'infrastructure des données. L'étude passe en revue trois dimensions clés, les jeux de données, les benchmarks d'évaluation, et les moteurs de génération de données, en cartographiant systématiquement leurs forces et leurs lacunes. Ce travail met en lumière un problème fondamental qui freine toute la discipline : collecter des données robotiques de haute fidélité coûte extrêmement cher, ce qui pousse les équipes vers des données synthétiques moins réalistes. Les benchmarks actuels, censés mesurer les capacités des robots, peinent à évaluer deux compétences pourtant cruciales, la généralisation compositionnelle (combiner des tâches apprises pour en résoudre de nouvelles) et le raisonnement sur des séquences longues. Autrement dit, les robots paraissent performants dans les tests, mais restent fragiles face à des situations légèrement différentes de celles rencontrées lors de l'entraînement. Pour les industriels et les laboratoires qui investissent massivement dans la robotique autonome, ce décalage entre métriques et réalité représente un risque concret. Le domaine de l'IA incarnée (embodied AI) est aujourd'hui dominé par des acteurs comme Google DeepMind, Meta, Physical Intelligence ou encore des équipes universitaires qui rivalisent pour entraîner des robots généralistes. Les auteurs identifient quatre défis ouverts : aligner les représentations visuelles et textuelles, améliorer la supervision multimodale, mieux évaluer le raisonnement, et générer des données à grande échelle sans perdre en réalisme physique. Leur conclusion est nette : traiter l'infrastructure de données comme un objet de recherche à part entière, et non comme un arrière-plan technique, est la condition pour que les prochaines générations de VLA tiennent leurs promesses hors des laboratoires.

RobotiqueOpinion
1 source