Aller au contenu principal
Nvidia avait finalement besoin de Groq
LLMsThe Information AI6sem

Nvidia avait finalement besoin de Groq

Résumé IASource uniqueImpact UE
Source originale ↗·

Nvidia vient d'annoncer lors de sa conférence annuelle GTC, au San Jose Convention Center, l'intégration de la technologie du fabricant de puces IA Groq dans ses systèmes de GPU. Cette collaboration vise spécifiquement à gérer des tâches d'inférence IA spécialisées, comme la génération de code — des tâches pour lesquelles les GPU de Nvidia ne s'avèrent pas suffisamment performants seuls.

C'est une admission tacite mais significative de la part du leader incontesté du marché des puces IA : ses GPU, malgré leur domination écrasante du secteur, présentent des limites sur certaines des charges de travail les plus critiques de l'IA moderne. L'inférence spécialisée est précisément le domaine où des architectures alternatives — comme celle de Groq avec ses LPU (Language Processing Units) — démontrent des avantages concurrentiels réels en termes de latence et de débit.

Ce qui rend l'annonce particulièrement frappante, c'est le contraste avec les déclarations passées du PDG Jensen Huang, qui avait tenu des propos ouvertement condescendants à l'égard de Groq en janvier dernier. Quelques semaines plus tard, Nvidia intègre officiellement sa technologie dans ses propres systèmes. La conférence elle-même illustre l'atmosphère de ferveur autour de l'entreprise : des robots humanoïdes accueillent les visiteurs, des sweaters à l'effigie de Jensen Huang s'arrachent, et le fournisseur cloud Nebius — spécialisé dans la location de GPU Nvidia — animait un bar avec des cocktails aux noms évocateurs comme le GPU Spritz ou le Ryes of the Machines.

Ce partenariat signal potentiellement un tournant dans la stratégie de Nvidia : plutôt que de prétendre à l'omnipotence de ses GPU, l'entreprise semble désormais prête à construire des systèmes hybrides pour répondre aux exigences croissantes et diversifiées des applications IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Nvidia : Jensen Huang déclare avoir atteint l'AGI
1The Verge AI 

Nvidia : Jensen Huang déclare avoir atteint l'AGI

Le PDG de Nvidia, Jensen Huang, a déclaré sur le podcast de Lex Fridman : "Je pense que nous avons atteint l'AGI." Cette affirmation relance le débat autour de l'intelligence artificielle générale (AGI), un terme désignant une IA égale ou supérieure à l'intelligence humaine. Alors que certains dirigeants tech tentent de remplacer ce terme jugé trop vague, Huang l'utilise ouvertement, soulignant que les systèmes actuels réussissent des tests qui, il y a cinq ans, auraient été considérés comme la définition même de l'AGI.

LLMsActu
1 source
« L’AGI est déjà là » : la phrase choc de NVIDIA qui fait l’effet d’un séisme
2Le Big Data 

« L’AGI est déjà là » : la phrase choc de NVIDIA qui fait l’effet d’un séisme

Lors d'un entretien avec Lex Fridman, Jensen Huang (PDG de Nvidia) a déclaré que « l'AGI est déjà là », en adoptant une définition purement économique : une IA capable de générer un milliard de dollars de valeur de manière autonome (influenceur virtuel viral, application à 50 centimes touchant des milliards d'utilisateurs). Cette vision ultra-capitaliste rompt avec le consensus scientifique — Yann LeCun (Meta) rappelle que les modèles actuels n'atteignent pas même l'intelligence d'un chat — mais Huang contourne le débat philosophique pour imposer un critère de performance économique comme nouvelle définition de l'AGI.

LLMsOpinion
1 source
Tout savoir sur NemoClaw, le futur concurrent d’OpenClaw signé Nvidia
3Frandroid 

Tout savoir sur NemoClaw, le futur concurrent d’OpenClaw signé Nvidia

Nvidia lance NemoClaw, son propre clone d'OpenClaw, après que Jensen Huang avait qualifié OpenClaw de logiciel « le plus important de l'histoire ». Le PDG de Nvidia confirme ainsi l'entrée directe de la firme en concurrence frontale avec OpenClaw. Aucun détail technique supplémentaire n'est disponible dans l'article.

LLMsActu
1 source
4AWS ML Blog 

Exécutez NVIDIA Nemotron 3 Super sur Amazon Bedrock

NVIDIA Nemotron 3 Super est désormais disponible sur Amazon Bedrock en tant que modèle entièrement géré et serverless. Ce modèle hybride Mixture of Experts (MoE) de 120 milliards de paramètres (12B actifs) offre jusqu'à 5x plus d'efficacité de calcul et 2x plus de précision que sa version précédente, avec un contexte allant jusqu'à 256K tokens. Conçu pour les applications multi-agents et les systèmes IA agentiques, il excelle sur des benchmarks clés comme AIME 2025, SWE Bench et RULER, tout en supportant sept langues dont le français.

UELe modèle inclut le français parmi ses sept langues supportées, ce qui peut intéresser les développeurs européens, mais l'impact direct sur la France/UE reste limité.

LLMsActu
1 source