Aller au contenu principal
Nvidia dévoile un système de puces basé sur Groq pour accélérer les tâches d'IA comme le codage
OutilsThe Information AI6sem

Nvidia dévoile un système de puces basé sur Groq pour accélérer les tâches d'IA comme le codage

Résumé IASource uniqueImpact UE
Source originale ↗·

Nvidia franchit une étape inédite en intégrant pour la première fois la technologie d'un concurrent dans ses serveurs IA. Le PDG Jensen Huang a annoncé un nouveau système de serveurs basé sur une architecture de puces développée par la startup Groq, dont Nvidia avait acquis la licence l'an dernier. L'objectif : rendre ses infrastructures IA plus performantes en termes de consommation énergétique et de coût, notamment pour des tâches comme le codage assisté par IA.

Ce partenariat inattendu illustre un tournant stratégique dans l'industrie des semi-conducteurs. Alors que la demande en inférence IA explose — portée par les agents de code, les assistants et les modèles de raisonnement —, l'efficacité énergétique devient un facteur concurrentiel aussi crucial que la puissance brute. Les opérateurs de centres de données cherchent à réduire leur TCO (coût total de possession), et Nvidia répond directement à cette pression.

Groq est connue pour son architecture LPU (Language Processing Unit), conçue spécifiquement pour l'inférence rapide à faible latence, là où les GPU traditionnels sont optimisés pour l'entraînement. En licenciant cette technologie dès l'an dernier et en l'intégrant désormais dans ses propres systèmes serveurs, Nvidia reconnaît implicitement que ses GPU seuls ne couvrent pas tous les cas d'usage de manière optimale — une admission rare de la part du leader du marché.

Cette annonce positionne Nvidia non plus uniquement comme fabricant de puces, mais comme architecte de systèmes IA hybrides, capable d'assembler les meilleures technologies disponibles. Pour Groq, c'est une validation industrielle majeure qui pourrait accélérer l'adoption de son approche auprès d'autres acteurs du secteur.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GTC : ce qu'il faut attendre de la puce Groq de Nvidia
1The Information AI 

GTC : ce qu'il faut attendre de la puce Groq de Nvidia

Nvidia ouvre aujourd'hui sa conférence annuelle GTC à San Jose, Californie, où le PDG Jensen Huang présentera demain sa keynote très attendue du secteur IA. L'annonce majeure attendue est un nouveau système de puces combinant la technologie Nvidia avec celle de Groq, une entreprise de puces indépendante dont Nvidia a acquis la licence pour environ 20 milliards de dollars fin 2024. C'est la première fois que Nvidia intègre le processeur IA d'une autre entreprise directement dans ses racks de serveurs.

OutilsOpinion
1 source
NVIDIA DSX Air accélère le temps de génération des tokens grâce à la simulation pour les usines d'IA
2NVIDIA AI Blog 

NVIDIA DSX Air accélère le temps de génération des tokens grâce à la simulation pour les usines d'IA

NVIDIA a lancé DSX Air lors du GTC 2026 à San Jose, présenté par Jensen Huang : une plateforme SaaS de simulation d'usines IA qui crée des jumeaux numériques haute-fidélité de l'infrastructure NVIDIA (GPU, SuperNICs, DPU, switches) avant même la livraison du matériel. Des entreprises comme CoreWeave l'utilisent déjà pour valider leurs environnements en simulation, réduisant le délai de mise en service de plusieurs semaines ou mois à quelques jours voire quelques heures. La plateforme réunit l'ensemble de l'écosystème — fabricants de serveurs, orchestration, stockage, sécurité — dans un environnement de test unifié via des API ouvertes.

OutilsActu
1 source
Nvidia dévoile NemoClaw, son logiciel pour agents IA
3The Information AI 

Nvidia dévoile NemoClaw, son logiciel pour agents IA

Nvidia a dévoilé NemoClaw, un nouveau logiciel open-source permettant aux entreprises de créer leurs propres agents IA. Le PDG Jensen Huang a annoncé ce lancement lundi, dans la lignée du succès d'OpenClaw, un outil similaire destiné aux agents personnels.

UELes entreprises européennes peuvent adopter NemoClaw pour développer leurs propres agents IA en interne, sans dépendre de solutions propriétaires tierces.

OutilsOutil
1 source
NVIDIA AI dévoile Nemotron-Terminal : un pipeline systématique d'ingénierie des données pour le passage à l'échelle des agents LLM en terminal
4MarkTechPost 

NVIDIA AI dévoile Nemotron-Terminal : un pipeline systématique d'ingénierie des données pour le passage à l'échelle des agents LLM en terminal

NVIDIA dévoile Nemotron-Terminal, un framework complet pour entraîner des agents IA autonomes en ligne de commande, incluant le pipeline Terminal-Task-Gen et le dataset Terminal-Corpus. La solution adopte une approche "coarse-to-fine" : adaptation de datasets existants (163 000 prompts mathématiques, 35 000 prompts code, 32 000 prompts SWE) combinée à une génération synthétique de tâches basée sur une taxonomie de compétences terminal couvrant 9 domaines (sécurité, data science, administration système, etc.). Ce framework vise à résoudre le manque criant de données d'entraînement pour les agents terminal, un problème qui freinait jusqu'ici des projets comme Claude Code ou Codex CLI.

OutilsPaper
1 source