Aller au contenu principal
Le directeur de la robotique de Nvidia : les agents IA vont provoquer un moment ChatGPT pour la robotique
RobotiqueThe Information AI6sem

Le directeur de la robotique de Nvidia : les agents IA vont provoquer un moment ChatGPT pour la robotique

Résumé IASource uniqueImpact UE
Source originale ↗·

Nvidia mise sur les agents IA pour déclencher une révolution dans la robotique comparable à l'émergence de ChatGPT. C'est le pari affiché par Deepu Talla, vice-président en charge de la robotique et de l'edge AI chez le géant des semi-conducteurs, lors de la conférence annuelle GTC à San Jose, en Californie.

Pour Talla, la convergence entre agents IA et robotique physique est inévitable : les systèmes agentiques sont d'abord conçus pour le monde numérique, mais leur extension au monde physique ne représente qu'une étape supplémentaire. Cette vision pourrait transformer en profondeur l'industrie robotique, en abaissant drastiquement les barrières à l'entrée pour déployer et piloter des flottes de machines autonomes.

Selon Deepu Talla, un seul agent IA pourrait coordonner une flotte entière de robots : il décomposerait un objectif global en tâches spécifiques, puis les distribuerait aux différents robots concernés. Plus significatif encore, cette approche agentique simplifierait et accélérerait l'intégration de nouveaux robots dans un système existant — avec la même fluidité qu'un utilisateur qui s'inscrit sur ChatGPT pour la première fois.

Nvidia positionne ainsi ses travaux en robotique comme le prolongement naturel de son infrastructure pour l'IA générative, capitalisant sur l'élan autour des agents autonomes pour conquérir un marché industriel à fort potentiel.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GTC 2026 : Nvidia veut remplacer le problème de données en robotique par un problème de calcul
1The Decoder 

GTC 2026 : Nvidia veut remplacer le problème de données en robotique par un problème de calcul

Lors du GTC 2026, Nvidia a annoncé une expansion majeure de sa plateforme pour l'IA physique. Dès 2027, des véhicules autonomes circuleront à Los Angeles en partenariat avec Uber, tandis que les robots industriels de FANUC et ABB seront équipés de puces Nvidia. De nouveaux modèles visent également à améliorer les capacités des robots humanoïdes, transformant le défi des données en robotique en un problème de puissance de calcul.

UEABB, groupe suisse majeur en robotique industrielle, intégrera les puces Nvidia, ce qui pourrait accélérer l'automatisation dans les usines européennes.

RobotiqueActu
1 source
Nvidia lance Data Factory et des modèles robotiques dans son offensive pour l'IA physique
2AI Business 

Nvidia lance Data Factory et des modèles robotiques dans son offensive pour l'IA physique

Nvidia lance Data Factory et de nouveaux modèles de robotique dans le cadre de sa stratégie d'IA physique, visant à renforcer sa position dominante dans ce secteur en pleine expansion. Ces annonces s'inscrivent dans la volonté du géant des puces IA de s'imposer comme acteur incontournable au-delà du seul marché des GPU pour centres de données.

RobotiqueActu
1 source
Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents
3The Information AI 

Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents

Google DeepMind a publié cette semaine Gemini Robotics-ER-1.6, un nouveau modèle de vision et de langage conçu pour aider les robots à interpréter leur environnement. Pour illustrer ses capacités, Boston Dynamics, qui dispose d'un accord pour intégrer Gemini dans ses robots humanoïdes, a publié une vidéo de ses robots quadrupèdes utilisant le modèle pour lire un thermomètre lors d'une inspection dans une installation industrielle. Selon les benchmarks internes de Google, les gains restent modestes sur un seul flux caméra : le modèle n'améliore que marginalement la capacité du robot à détecter la fin d'une tâche par rapport aux versions précédentes. En revanche, les performances progressent nettement lorsque le robot exploite plusieurs flux caméra simultanément. C'est précisément là que réside l'enjeu pratique : la majorité des environnements robotiques industriels, qu'il s'agisse d'usines ou d'entrepôts, s'appuient sur plusieurs points de vue combinés, comme une caméra en hauteur et une caméra fixée sur le bras du robot. Le système doit être capable de fusionner ces perspectives pour construire une compréhension cohérente de ce qu'il accomplit et savoir quand la tâche est terminée. Ce lancement s'inscrit dans une course intense entre les grands laboratoires d'IA pour doter les robots d'une intelligence de perception plus robuste. Google DeepMind et Boston Dynamics ont formalisé leur partenariat autour de Gemini pour les robots humanoïdes, signalant une convergence entre les modèles de fondation et la robotique physique. Si les progrès annoncés restent incrémentaux, l'amélioration sur les configurations multi-caméras est directement applicable aux déploiements industriels existants, ce qui pourrait accélérer l'adoption de robots autonomes dans des environnements de travail réels. Les prochaines versions du modèle seront à surveiller pour évaluer si ces gains se traduisent en performances significatives sur des tâches complexes en conditions réelles.

RobotiqueActu
1 source
Memories.ai développe une couche de mémoire visuelle pour les wearables et la robotique
4TechCrunch AI 

Memories.ai développe une couche de mémoire visuelle pour les wearables et la robotique

Memories.ai développe un grand modèle de mémoire visuelle capable d'indexer et de retrouver des souvenirs enregistrés en vidéo pour l'IA physique. Cette technologie vise à constituer la couche de mémoire visuelle pour les wearables et la robotique. L'objectif est de permettre aux appareils physiques dotés d'IA de mémoriser et rappeler des expériences visuelles de manière efficace.

RobotiqueActu
1 source