Aller au contenu principal

Dossier NVIDIA — page 9

408 articles · page 9 sur 9

NVIDIA, l'arsenal de la course IA : Blackwell, Vera Rubin, Vera CPU, partenariats hyperscalers, Omniverse, et la rente CUDA face aux puces Huawei et Trainium.

401NVIDIA AI Blog InfrastructureActu

Repenser le coût total de l'IA : pourquoi le coût par token est la seule métrique qui compte

Les centres de données d'entreprise sont en train de vivre une mutation profonde : autrefois dédiés au stockage et au traitement de données, ils deviennent des usines à tokens, dont la production principale est l'intelligence artificielle générée à la demande. Cette transformation oblige les entreprises à repenser entièrement leur manière d'évaluer le coût total de possession (TCO) de leur infrastructure IA. Or, selon NVIDIA, la majorité des décideurs continuent de se focaliser sur des métriques obsolètes : le coût par GPU par heure ou les FLOPS par dollar, c'est-à-dire la puissance brute de calcul obtenue pour chaque dollar investi. Ces indicateurs mesurent des intrants, alors que les entreprises, elles, font tourner leur activité sur des extrants. La seule métrique qui compte réellement est le coût par million de tokens produits, soit le coût tout compris pour générer chaque unité d'intelligence délivrée à l'utilisateur final. Optimiser ce coût par token change fondamentalement l'équation économique de l'IA. Le numérateur de cette équation, le coût horaire du GPU, est visible et facile à comparer entre fournisseurs cloud ou solutions on-premise. Mais c'est le dénominateur, soit le volume de tokens effectivement délivrés par seconde, qui détermine la rentabilité réelle. Augmenter ce débit produit deux effets simultanés : il réduit le coût unitaire de chaque interaction servie, améliorant ainsi les marges, et il augmente le nombre de tokens par mégawatt consommé, ce qui permet de générer davantage de revenus à partir du même investissement infrastructurel. NVIDIA affirme proposer le coût par token le plus bas du secteur, notamment sur les modèles de raisonnement de type mixture-of-experts (MoE), qui représentent aujourd'hui la catégorie de modèles la plus largement déployée en production. Cette réévaluation des critères de choix s'inscrit dans un contexte de montée en puissance de l'IA agentique, où les systèmes autonomes enchaînent des séquences longues d'inférences, rendant le débit et la latence encore plus critiques. Des technologies comme le décodage spéculatif, la prédiction multi-token, le routage KV-aware ou encore le déchargement du cache KV permettent d'augmenter substantiellement le débit réel sans changer le matériel. La prise en charge de la précision FP4, la capacité de l'interconnexion à gérer le trafic all-to-all des modèles MoE, ou encore les optimisations de la couche de serving deviennent des critères de sélection déterminants. Pour les déploiements on-premise notamment, où l'engagement en capital sur le foncier, l'énergie et l'infrastructure est massif, maximiser l'intelligence produite par mégawatt n'est plus une option technique mais un impératif économique.

1 source
Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18
402Frandroid 

Comment Intel compte utiliser l’IA pour diviser le poids de vos jeux PC par 18

Intel a dévoilé une nouvelle technologie de compression neuronale baptisée TSNC (Texture Space Neural Compression), capable de réduire la taille des textures de jeux vidéo jusqu'à un facteur 18. Concrètement, un jeu qui occupe aujourd'hui 100 Go sur votre SSD pourrait n'en réclamer que quelques gigaoctets de données textures, tandis que la mémoire vidéo nécessaire au rendu en temps réel serait drastiquement allégée. La technologie repose sur des réseaux de neurones entraînés à compresser puis reconstruire les textures à la volée, à la manière d'un codec vidéo mais appliqué aux surfaces 3D. L'enjeu est considérable pour les joueurs PC, confrontés à une inflation galopante des tailles de jeux : certains titres récents dépassent les 150 à 200 Go, et les cartes graphiques milieu de gamme peinent à suivre avec leurs 8 à 12 Go de VRAM. Une compression neuronale efficace permettrait de démocratiser l'accès aux jeux les plus exigeants sans forcer les utilisateurs à investir dans du matériel haut de gamme, et soulagerait les SSD qui atteignent souvent leurs limites de capacité. Cette annonce s'inscrit dans une course technologique plus large entre les fabricants de GPU : Nvidia propose déjà des solutions similaires avec ses technologies de compression basées sur l'IA, et AMD travaille sur des approches comparables. Intel, dont l'arc GPU cherche encore à s'imposer sur le marché, mise sur le TSNC comme argument différenciant. La prochaine étape sera l'adoption par les studios de développement, qui devront intégrer ces outils dans leurs pipelines de création pour que la technologie tienne réellement ses promesses en conditions réelles.

InfrastructureActu
1 source
Semaine nationale de la robotique : dernières avancées en IA physique et ressources
403NVIDIA AI Blog 

Semaine nationale de la robotique : dernières avancées en IA physique et ressources

À l'occasion de la Semaine nationale de la robotique aux États-Unis, NVIDIA met en avant ses avancées dans le domaine de l'intelligence artificielle physique, c'est-à-dire l'IA appliquée à des robots capables d'agir dans le monde réel. L'entreprise présente cette semaine une série de technologies couvrant la simulation, la génération de données synthétiques et l'apprentissage automatique pour robots, destinées aux développeurs qui souhaitent concevoir des machines autonomes opérationnelles dans des environnements complexes. L'enjeu est considérable : ces outils permettent de réduire drastiquement le temps nécessaire pour passer de l'entraînement en environnement virtuel au déploiement sur le terrain. Concrètement, un robot peut aujourd'hui apprendre à naviguer, saisir des objets ou réagir à des imprévus dans un simulateur NVIDIA avant d'être testé dans une usine, une serre agricole ou une centrale énergétique. Ce raccourci entre simulation et réalité est l'un des verrous techniques les plus critiques de la robotique industrielle. NVIDIA se positionne comme la colonne vertébrale de cette transition, en proposant des plateformes intégrées qui couvrent l'ensemble de la chaîne de développement robotique. La compétition dans ce secteur s'intensifie, avec des acteurs comme Boston Dynamics, Figure AI ou Agility Robotics qui cherchent eux aussi à industrialiser leurs solutions. La Semaine de la robotique sert ici de vitrine stratégique pour NVIDIA, qui entend s'imposer comme fournisseur incontournable d'infrastructure IA pour la prochaine génération de robots autonomes dans l'industrie, l'agriculture et l'énergie.

UELes plateformes de simulation et d'entraînement robotique de NVIDIA sont accessibles aux développeurs et industriels européens, mais cet événement est centré sur le marché américain sans impact direct sur la France/UE.

💬 Le vrai sujet ici, c'est pas la Semaine de la robotique, c'est NVIDIA qui s'impose discrètement comme le AWS de la robotique industrielle. La réduction du gap sim-to-real, c'est le verrou qui bloquait tout depuis des années, et là ils ont une vraie réponse technique. Reste à voir si les industriels européens vont jouer le jeu ou rester dépendants d'une stack américaine de plus.

RobotiqueActu
1 source
Nouvel alliance pour offrir des robots intelligents dans des environnements à haut risque
404AI News 

Nouvel alliance pour offrir des robots intelligents dans des environnements à haut risque

ADLINK Technology et Under Control Robotics (derrière la startup Noble Machines) ont conclu un partenariat stratégique pour développer une nouvelle génération de robots humanoïdes bipèdes destinés aux environnements industriels dangereux. Leur solution combinera la plateforme edge AI DLAP d'ADLINK (basée sur NVIDIA Jetson Thor) avec le logiciel d'autonomie et de contrôle corporel de Noble Machines, pour des robots capables de percevoir, raisonner et manipuler des charges lourdes en conditions extrêmes. Les secteurs cibles initiaux incluent la construction, les mines, l'énergie et la pétrochimie — des industries confrontées à des pénuries de main-d'œuvre et à des risques élevés pour les travailleurs humains.

RobotiqueActu
1 source
OpenAI et Oracle abandonnent l'extension du campus Stargate au Texas
405Le Big Data 

OpenAI et Oracle abandonnent l'extension du campus Stargate au Texas

OpenAI et Oracle ont abandonné leur projet d'extension du campus Stargate d'Abilene (Texas), qui devait porter la capacité de 1,2 à 2 gigawatts. Cette décision fait suite à des obstacles de financement, des retards d'approvisionnement en électricité, une panne du système de refroidissement liée au froid hivernal, et des tensions avec le partenaire infrastructure Crusoe. Les deux groupes préfèrent désormais développer de nouveaux sites ailleurs aux États-Unis, potentiellement équipés de puces Nvidia Vera Rubin plus récentes, ce qui fragilise la crédibilité du projet Stargate estimé à 500 milliards de dollars.

BusinessActu
1 source
Andrej Karpathy publie « Autorecherche », un outil Python de 630 lignes permettant aux agents IA de mener des expériences de ML en autonomie sur un seul GPU
406MarkTechPost 

Andrej Karpathy publie « Autorecherche », un outil Python de 630 lignes permettant aux agents IA de mener des expériences de ML en autonomie sur un seul GPU

Andrej Karpathy a publié autoresearch, un outil Python minimaliste de 630 lignes permettant à des agents IA de mener des expériences de machine learning en totale autonomie sur un seul GPU NVIDIA. L'agent lit des instructions en Markdown, modifie le code d'entraînement (architecture, optimiseurs, hyperparamètres), exécute des runs de 5 minutes et ne conserve les changements que si le score bits-per-byte (BPB) s'améliore — Karpathy a ainsi démontré une réduction de la perte de validation de 1,0 à 0,97 BPB. Le PDG de Shopify, Tobi Lutke, a rapidement adapté le framework pour un projet interne, obtenant une amélioration de 19 % des scores de validation, avec un petit modèle optimisé par l'agent surpassant un modèle plus grand configuré manuellement.

OutilsOutil
1 source
Présentation de Stargate UK
407OpenAI Blog 

Présentation de Stargate UK

OpenAI, NVIDIA et Nscale ont lancé Stargate UK, un partenariat souverain en intelligence artificielle fournissant jusqu'à 50 000 GPU et le superordinateur le plus puissant du Royaume-Uni. Ce projet vise à accélérer l'innovation en IA, améliorer les services publics et stimuler la croissance économique du pays.

BusinessActu
1 source
Critiques de règles: Un modèle d'apprentissage automatique sous la loupe
408HuggingFace Blog 

Critiques de règles: Un modèle d'apprentissage automatique sous la loupe

Bienvenue à NVIDIA Llama Nemotron Nano VLM sur le Hugging Face Hub. NVIDIA présente une nouvelle version miniature de son modèle de traitement du langage, offrant des performances optimisées pour les appareils mobiles. Ce modèle, appelé Nemotron Nano, est maintenant disponible sur la plateforme Hugging Face Hub, permettant aux développeurs d'intégrer facilement ces capacités avancées dans leurs applications.

OutilsOutil
1 source