Aller au contenu principal

Dossier NVIDIA

296 articles

NVIDIA, l'arsenal de la course IA : Blackwell, Vera Rubin, Vera CPU, partenariats hyperscalers, Omniverse, et la rente CUDA face aux puces Huawei et Trainium.

Le GPT-5.5 d'OpenAI propulse Codex sur l'infrastructure NVIDIA, déjà utilisée en interne
1NVIDIA AI Blog LLMsActu

Le GPT-5.5 d'OpenAI propulse Codex sur l'infrastructure NVIDIA, déjà utilisée en interne

OpenAI a déployé GPT-5.5, son dernier modèle frontier, au coeur de Codex, son application de codage agentique. Ce modèle tourne sur les systèmes rack-scale NVIDIA GB200 NVL72, capables de délivrer un coût 35 fois inférieur par million de tokens et un débit 50 fois supérieur par seconde et par mégawatt par rapport à la génération précédente. Plus de 10 000 employés de NVIDIA, répartis dans tous les départements, ingénierie, juridique, marketing, finance, RH, ventes et opérations, utilisent déjà Codex propulsé par GPT-5.5 depuis quelques semaines. Les résultats sont concrets et mesurables : des cycles de débogage qui prenaient des jours se bouclent désormais en quelques heures, et des expérimentations qui nécessitaient des semaines aboutissent en une nuit sur des bases de code complexes et multi-fichiers. Des équipes livrent des fonctionnalités complètes à partir de simples instructions en langage naturel. L'impact dépasse le simple gain de productivité individuel. En rendant l'inférence de modèles frontier économiquement viable à l'échelle de l'entreprise, cette infrastructure change la donne pour toute organisation souhaitant intégrer des agents IA dans ses processus métier. Pour sécuriser ce déploiement, NVIDIA a doté chaque employé d'une machine virtuelle cloud dédiée connectée via SSH, dans laquelle l'agent Codex opère en sandbox avec une politique de rétention zéro donnée. Les agents n'accèdent aux systèmes de production qu'en lecture seule, garantissant auditabilité complète sans exposition des données internes. Jensen Huang, PDG et fondateur de NVIDIA, a incité l'ensemble de ses équipes à adopter l'outil dans un email interne : "Passons à la vitesse de la lumière. Bienvenue dans l'ère de l'IA." Ce lancement s'inscrit dans plus de dix ans de collaboration entre NVIDIA et OpenAI, une relation qui remonte à 2016 lorsque Jensen Huang avait livré en mains propres le premier supercalculateur DGX-1 au siège d'OpenAI à San Francisco. Depuis, les deux entreprises co-développent l'ensemble de la pile IA : NVIDIA était partenaire dès le premier jour pour le lancement du modèle open-weight gpt-oss d'OpenAI, en optimisant les poids du modèle pour TensorRT-LLM et des frameworks comme vLLM et Ollama. OpenAI s'est engagé à déployer plus de 10 gigawatts de systèmes NVIDIA pour sa prochaine infrastructure, mobilisant des millions de GPU pour l'entraînement et l'inférence dans les années à venir. Les deux sociétés sont également partenaires en co-conception matérielle, OpenAI contribuant au roadmap hardware de NVIDIA en échange d'un accès anticipé aux nouvelles architectures, ce qui a abouti à la mise en service commune du premier cluster de 100 000 GPU GB200 NVL72.

1 source
NVIDIA et Google réduisent les coûts d'inférence en IA
2AI News 

NVIDIA et Google réduisent les coûts d'inférence en IA

Lors de la conférence Google Cloud Next, Google et NVIDIA ont dévoilé une nouvelle génération d'infrastructure destinée à réduire drastiquement le coût de l'inférence IA à grande échelle. Les deux entreprises ont présenté les instances A5X bare-metal, reposant sur les systèmes rack NVIDIA Vera Rubin NVL72. Cette architecture promet une réduction jusqu'à dix fois du coût d'inférence par token par rapport aux générations précédentes, tout en multipliant par dix le débit de tokens par mégawatt. Pour atteindre ces performances, les instances A5X combinent les SuperNICs NVIDIA ConnectX-9 avec la technologie réseau Google Virgo, permettant de connecter jusqu'à 80 000 GPU NVIDIA Rubin au sein d'un même site, et jusqu'à 960 000 GPU dans un déploiement multi-sites. Mark Lohmeyer, VP et directeur général de l'infrastructure IA chez Google Cloud, a résumé l'enjeu : "La prochaine décennie de l'IA sera façonnée par la capacité des entreprises à faire tourner leurs charges de travail les plus exigeantes sur une infrastructure vraiment intégrée et optimisée pour l'IA." Ces annonces ont un impact direct sur les secteurs fortement réglementés, comme la finance et la santé, qui butent régulièrement sur des contraintes de souveraineté des données. Google et NVIDIA y répondent avec plusieurs initiatives concrètes : les modèles Gemini fonctionnant sur GPU NVIDIA Blackwell et Blackwell Ultra sont désormais disponibles en préversion sur Google Distributed Cloud, ce qui permet aux organisations de garder les modèles frontier entièrement dans leur environnement contrôlé, au plus près de leurs données sensibles. La sécurité est assurée par NVIDIA Confidential Computing, un protocole de chiffrement matériel qui protège les données d'entraînement et les prompts y compris vis-à-vis des opérateurs cloud eux-mêmes. Pour les environnements cloud public multi-tenant, des VM Confidential G4 équipées de GPU NVIDIA RTX PRO 6000 Blackwell sont également introduites en préversion, marquant la première offre de confidential computing cloud pour des GPU Blackwell. Cette collaboration s'inscrit dans une course plus large à l'optimisation de l'inférence, alors que les coûts opérationnels de l'IA générative restent un frein majeur à son adoption industrielle. Au-delà du matériel, le partenariat couvre aussi la couche logicielle : NVIDIA Nemotron 3 Super est désormais disponible sur la Gemini Enterprise Agent Platform, permettant aux développeurs de construire des systèmes agentiques complexes capables de raisonner, planifier et agir en chaîne. L'ensemble de la plateforme NVIDIA sur Google Cloud est optimisé pour les familles de modèles Gemini et Gemma. Avec des clusters dépassant le million de GPU et une ambition affichée de simplifier le déploiement d'IA souveraine, Google et NVIDIA repositionnent l'infrastructure cloud non plus comme un simple fournisseur de puissance de calcul, mais comme un levier stratégique pour les entreprises qui veulent industrialiser l'IA sans sacrifier performance, coût ou conformité réglementaire.

UELes entreprises européennes des secteurs réglementés (finance, santé) disposent désormais d'options d'infrastructure IA souveraine compatibles avec les exigences RGPD, réduisant un frein concret à l'industrialisation de l'IA en Europe.

InfrastructureActu
1 source
Google échappe à la taxe Nvidia grâce à ses nouveaux TPUs
3VentureBeat AI 

Google échappe à la taxe Nvidia grâce à ses nouveaux TPUs

Google a dévoilé mardi soir sa huitième génération de puces TPU (Tensor Processing Units) lors d'une présentation privée au F1 Plaza de Las Vegas. Contrairement aux générations précédentes, cette fois Google lance deux puces distinctes : le TPU 8t, conçu pour l'entraînement de grands modèles d'IA, et le TPU 8i, taillé pour l'inférence agentique à faible latence. Le TPU 8t affiche 2,8 fois les EFlops FP4 par pod par rapport à la génération précédente (121 contre 42,5), double la bande passante scale-up à 19,2 Tb/s par puce, et permet de relier plus d'un million de TPUs dans un seul job d'entraînement grâce à une nouvelle architecture réseau baptisée Virgo. Le TPU 8i, lui, multiplie par 9,8 les EFlops FP8 par pod (11,6 contre 1,2), par 6,8 la capacité HBM (331,8 To contre 49,2), et fait quadrupler la taille des pods (de 256 à 1 152 puces). Les deux chips doivent être disponibles courant 2025. L'enjeu pour Google est d'abord économique. En fabriquant ses propres puces, Google échappe aux marges d'Nvidia, qui a transformé sa position de quasi-monopole sur les accélérateurs IA en l'une des valorisations boursières les plus élevées au monde. Amin Vahdat, vice-président senior et chief technologist AI & Infrastructure chez Google, a insisté sur l'intégration verticale totale de la stack Google, du silicium au logiciel, comme levier de compétitivité sur le coût par token. Pour les clients enterprise qui entraînent des modèles ou déploient des agents en production sur Google Cloud et Vertex AI, cela se traduit concrètement : jusqu'à présent, les mêmes accélérateurs servaient à la fois pour l'entraînement et l'inférence, avec les inefficacités que cela implique. La génération v8 est la première à traiter ces deux charges de travail comme des problèmes distincts, avec deux siliciums dédiés. La décision de scinder la feuille de route en deux puces a été prise en 2024, soit un an avant que le reste de l'industrie ne pivote massivement vers les modèles de raisonnement, les agents et le reinforcement learning. "Deux ans avant tout le monde, nous avions compris qu'une puce par an ne suffirait plus", a résumé Vahdat. Pour le TPU 8i, Google a développé avec Google DeepMind une topologie réseau inédite appelée Boardfly, conçue pour réduire la latence plutôt que de maximiser le débit, un choix crucial pour les agents IA qui doivent répondre en temps réel. Le TPU 8t introduit également le TPU Direct Storage, qui achemine les données depuis le stockage directement dans la mémoire HBM sans passer par le CPU, réduisant le temps nécessaire à chaque epoch d'entraînement. Google positionne clairement cette génération comme une rupture technologique destinée à creuser l'écart avec ses concurrents sur le marché du cloud IA.

UELes entreprises européennes utilisant Google Cloud pour l'entraînement de modèles IA ou le déploiement d'agents en production pourraient bénéficier d'un coût par token réduit grâce à la spécialisation des puces TPU v8.

InfrastructureOpinion
1 source
NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents
4NVIDIA AI Blog 

NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents

NVIDIA et Google Cloud ont annoncé cette semaine, lors de la conférence Google Cloud Next à Las Vegas, une nouvelle étape majeure dans leur partenariat vieux de plus de dix ans. Au cœur de l'annonce : le lancement des instances bare-metal A5X, alimentées par les systèmes rack NVIDIA Vera Rubin NVL72, qui promettent un coût d'inférence jusqu'à dix fois inférieur et un débit de tokens dix fois plus élevé par mégawatt par rapport à la génération précédente. Ces infrastructures s'appuient sur les interconnexions NVIDIA ConnectX-9 SuperNICs couplées au réseau Google Virgo de nouvelle génération, permettant de déployer des clusters allant jusqu'à 80 000 GPU Rubin sur un site unique, et jusqu'à 960 000 GPU dans une configuration multisite. Par ailleurs, Google Cloud met en préversion les modèles Gemini sur Google Distributed Cloud avec les GPU NVIDIA Blackwell et Blackwell Ultra, ainsi que des machines virtuelles confidentielles garantissant le chiffrement des données en cours d'utilisation. Des acteurs comme OpenAI et Thinking Machines Lab utilisent déjà ces infrastructures pour des charges d'inférence massives, notamment pour faire tourner ChatGPT. Ces annonces représentent un saut qualitatif significatif pour les entreprises qui cherchent à industrialiser l'IA agentique et l'IA physique, c'est-à-dire les systèmes capables d'agir de manière autonome dans des environnements réels, comme les robots ou les jumeaux numériques en usine. La réduction drastique des coûts d'inférence change concrètement l'équation économique pour les développeurs d'applications IA à grande échelle. La possibilité de déployer les modèles Gemini en environnement souverain, sur des données sensibles restant chiffrées y compris pendant leur traitement, répond à une exigence croissante des entreprises et des gouvernements en matière de conformité et de confidentialité. L'intégration de modèles ouverts NVIDIA Nemotron dans la plateforme Gemini Enterprise Agent Platform élargit également les options des équipes techniques qui souhaitent combiner modèles propriétaires et open source. Ce partenariat s'inscrit dans une compétition intense entre les grands fournisseurs de cloud pour capter les budgets d'infrastructure IA, qui se chiffrent désormais en dizaines de milliards de dollars annuellement. Google Cloud cherche à rattraper son retard sur AWS et Microsoft Azure, qui ont pris de l'avance sur l'hébergement des charges d'entraînement et d'inférence des grands modèles de langage. En s'associant étroitement à NVIDIA, dont les GPU dominent encore largement le marché de l'accélération IA, Google se positionne comme une plateforme de référence pour la prochaine vague, celle des agents autonomes et de la robotique industrielle. La feuille de route annoncée, avec la transition de Blackwell vers Vera Rubin, suggère que la cadence d'innovation s'accélère et que les entreprises devront adapter leur infrastructure régulièrement pour rester compétitives.

UELe déploiement souverain de Gemini sur Google Distributed Cloud avec chiffrement des données en cours d'utilisation répond aux exigences RGPD des entreprises européennes traitant des données sensibles.

InfrastructureOpinion
1 source
Nvidia Rubin Ultra : le GPU qui transformera les AI Factories en 2027
5Le Big Data 

Nvidia Rubin Ultra : le GPU qui transformera les AI Factories en 2027

Nvidia a officiellement confirmé le lancement de son prochain GPU phare, le Rubin Ultra, prévu pour 2027. Successeur du Blackwell Ultra, cette puce repose sur une architecture en chiplets de type MCM (Multi-Chip Module) assemblant quatre dies gravés en nœud N2 chez TSMC, pour un total d'environ 336 milliards de transistors. Elle s'intègre dans la plateforme Vera, un écosystème complet où le GPU collabore avec le processeur Vera, doté de 88 cœurs, via une interconnexion NVLink-C2C sans latence. Le tout est relié par le nouveau commutateur NVLink 6, conçu pour des vitesses de transfert inédites à l'échelle des racks de serveurs. La mémoire intégrée atteint 1 To de HBM4e répartis sur 12 stacks, avec une bande passante annoncée à 22 To/s, soit un bond considérable par rapport aux générations précédentes. Ce niveau de performance change concrètement la donne pour les entreprises qui entraînent ou déploient des grands modèles de langage. Avec 1 To de mémoire embarquée sur une seule puce, il devient possible de charger des modèles entiers sans recourir à des échanges lents entre composants, l'un des goulots d'étranglement structurels des infrastructures actuelles. L'architecture en chiplets apporte par ailleurs une modularité absente des puces monolithiques : la montée en charge des clusters de serveurs devient plus fluide, et chaque unité de calcul peut fonctionner en coordination étroite avec les autres. Pour les opérateurs de data centers et les hyperscalers, le Rubin Ultra ne représente pas un simple upgrade de performance, mais une refonte de ce que l'on appelle désormais les "AI Factories", ces infrastructures entièrement conçues autour des besoins du calcul IA. Nvidia accélère son calendrier de manière visible : le Rubin Ultra arrivera en 2027, mais son architecture est déjà documentée et ses partenariats hardware (TSMC N2, HBM4e) sont scellés, signalant une volonté de garder plusieurs générations d'avance sur ses concurrents AMD et Intel, ainsi que sur les puces maison développées par Google (TPU), Amazon (Trainium) et Microsoft (Maia). La transition vers les chiplets, longtemps réservée aux CPU, marque un tournant pour les GPU de datacenter. L'intégration verticale de la plateforme Vera, qui lie hardware et software de façon indissociable, rappelle la stratégie d'Apple avec ses puces M, mais appliquée à l'échelle des supercalculateurs industriels. Les entreprises qui visent ces infrastructures devront consentir des investissements massifs, mais la dépendance à l'écosystème Nvidia, déjà forte via CUDA, ne fera que s'approfondir avec cette nouvelle génération.

UELes opérateurs européens de data centers et les hyperscalers devront planifier dès maintenant des investissements massifs pour 2027, tout en s'enfermant davantage dans l'écosystème Nvidia via CUDA et la plateforme Vera.

InfrastructureOpinion
1 source
Un robot humanoïde Nvidia tient un poste de 8 heures en usine Siemens à 60 bacs par heure
6Interesting Engineering 

Un robot humanoïde Nvidia tient un poste de 8 heures en usine Siemens à 60 bacs par heure

En janvier 2026, le robot humanoïde HMND 01 Alpha du startup britannique Humanoid a réalisé un déploiement de deux semaines dans l'usine électronique de Siemens à Erlangen, en Allemagne. Les résultats, annoncés à la Hannover Messe 2026 en partenariat avec Nvidia, ont dépassé tous les objectifs fixés : le robot à roues a opéré en continu pendant plus de huit heures, déplaçant 60 bacs de stockage par heure avec un taux de réussite supérieur à 90 %. Sa mission consistait à saisir des bacs, les transporter à travers l'usine et les déposer sur des convoyeurs aux points de transfert désignés pour les opérateurs humains, dans un environnement de production réel où ses performances avaient un impact direct sur les opérations. Stephan Schlauss, directeur mondial de la motion control chez Siemens, a qualifié l'usine d'Erlangen de "customer zero" : Siemens s'est volontairement positionné comme premier client payant et validateur de la technologie, avant de la proposer à d'autres industriels. Ce déploiement est significatif parce qu'il franchit la frontière entre démonstration contrôlée et production industrielle réelle. Le robot a travaillé aux côtés d'humains et de systèmes automatisés existants, coordonnant ses actions en temps réel avec des véhicules à guidage autonome et les systèmes de l'usine via la plateforme Siemens Xcelerator, qui a fourni des capacités de jumeau numérique, de perception par IA, d'interfaces PLC-robot et de gestion de flotte. C'est précisément ce niveau d'intégration enterprise qui distingue un vrai déploiement industriel d'une simple preuve de concept. Deepu Talla, vice-président robotique et edge AI chez Nvidia, a affirmé que ce déploiement ouvre la voie aux robots humanoïdes pour atteindre des objectifs de production réels sur des lignes actives. Humanoid, fondée en 2024 par Artem Sokolov et dont le siège est à Londres avec des bureaux à Boston et Vancouver, emploie plus de 200 ingénieurs issus d'Apple, Tesla, Google et Boston Dynamics. L'entreprise a développé le HMND 01 Alpha en environ sept mois, là où le cycle habituel dépasse 18 à 24 mois, grâce à une approche "simulation d'abord" utilisant Nvidia Isaac Lab pour l'apprentissage par renforcement et Nvidia Isaac Sim pour la validation virtuelle avant tout déploiement physique. La version bipède du robot dispose de 29 degrés de liberté et d'une suite complète de capteurs. Siemens et Humanoid présentent le déploiement d'Erlangen non comme une expérimentation isolée mais comme une architecture de référence reproductible par d'autres fabricants, dans un contexte où la pénurie de main-d'oeuvre dans l'industrie manufacturière et les contraintes de flexibilité rendent les lignes entièrement automatisées souvent inadaptées.

UEL'usine Siemens d'Erlangen (Allemagne) est positionnée comme architecture de référence reproductible pour les industriels européens confrontés à la pénurie de main-d'œuvre manufacturière.

💬 60 bacs par heure, 8 heures sans s'arrêter, en production réelle, pas dans un labo avec les caméras bien placées. Le positionnement de Siemens en "customer zero" dit tout : ils testent sur leur propre usine avant de revendre l'architecture à leurs clients industriels, c'est une stratégie commerciale autant qu'une validation technique. Sept mois de dev au lieu de deux ans grâce à la simulation, bon, faut confirmer ça sur 50 usines et pas une.

RobotiqueOpinion
1 source
Adobe déploie des agents IA autonomes à grande échelle avec NVIDIA et WPP pour booster la créativité
7NVIDIA AI Blog 

Adobe déploie des agents IA autonomes à grande échelle avec NVIDIA et WPP pour booster la créativité

Adobe, NVIDIA et WPP ont annoncé un renforcement de leur collaboration stratégique pour déployer des agents IA au cœur des opérations marketing d'entreprise, une annonce faite à l'occasion de l'Adobe Summit, dont la keynote du deuxième jour est prévue le 21 avril 2026. Le dispositif repose sur trois briques complémentaires : les plateformes créatives d'Adobe, dont le nouvel Adobe CX Enterprise Coworker, le runtime sécurisé NVIDIA OpenShell combiné aux modèles ouverts Nemotron et au NVIDIA Agent Toolkit, et l'expertise mondiale de WPP en conseil marketing. Concrètement, ces agents sont capables de générer, adapter et versionner des visuels, du texte et des offres commerciales à travers des millions de combinaisons de produits, d'audiences et de canaux, en quelques minutes plutôt qu'en plusieurs mois. L'enjeu central de cette collaboration est le contrôle. Quand des agents IA orchestrent des flux de travail en plusieurs étapes, accèdent à des données sensibles et déclenchent des actions automatisées à grande échelle, la question de la gouvernance devient critique pour les grandes entreprises. NVIDIA OpenShell répond à ce problème en faisant tourner chaque agent dans un environnement conteneurisé, isolé et auditable, avec une gestion de politiques vérifiable qui définit précisément ce que l'agent est autorisé à faire, et pas seulement quelles règles sont théoriquement en place. Adobe Firefly Foundry, accéléré par l'infrastructure NVIDIA, permet par ailleurs aux organisations d'entraîner des modèles personnalisés sur leurs propres actifs pour produire du contenu commercialement sûr, aligné sur l'identité de marque. Cette annonce s'inscrit dans une course industrielle à l'automatisation du marketing de masse personnalisé, portée par la demande explosive d'expériences client sur mesure à travers tous les canaux numériques. Adobe complète son offre avec une solution de jumeaux numériques 3D désormais disponible en général, construite sur les bibliothèques NVIDIA Omniverse et le standard OpenUSD : ces répliques virtuelles de produits servent d'identités persistantes que les agents exploitent pour automatiser la production de contenus haute fidélité dans différents formats et marchés. La convergence entre Adobe, spécialiste du creative cloud et de l'expérience client, NVIDIA, fournisseur d'infrastructure d'accélération et de couches logicielles agentiques, et WPP, premier groupe mondial de communication, dessine un modèle où les grandes marques pourraient déléguer l'essentiel de leur production créative à des systèmes autonomes, tout en conservant un contrôle granulaire sur chaque action déclenchée.

UEWPP, premier groupe mondial de communication avec une forte présence en Europe, est au cœur de ce déploiement, ce qui pourrait accélérer l'adoption d'agents IA dans les agences marketing européennes travaillant sur des campagnes multicanal à grande échelle.

OutilsOutil
1 source
NVIDIA et ses partenaires présentent l'avenir de la fabrication pilotée par l'IA à Hannover Messe 2026
8NVIDIA AI Blog 

NVIDIA et ses partenaires présentent l'avenir de la fabrication pilotée par l'IA à Hannover Messe 2026

NVIDIA et ses partenaires industriels investissent Hannover Messe 2026, le salon phare de l'industrie manufacturière qui se tient du 20 au 24 avril à Hanovre, en Allemagne, pour y présenter ce qu'ils considèrent comme la prochaine révolution de la production : l'usine pilotée par l'intelligence artificielle. Au programme, des démonstrations concrètes couvrant l'informatique accélérée, la simulation physique en temps réel, les agents autonomes et les robots humanoïdes opérant en environnement industriel. Parmi les temps forts, l'annonce de l'Industrial AI Cloud, l'un des plus grands centres d'IA d'Europe, construit en Allemagne par Deutsche Telekom sur infrastructure NVIDIA. Des géants comme SAP, Siemens, ABB, Dassault Systèmes, Cadence ou encore Synopsys y participent, aux côtés d'acteurs spécialisés comme Agile Robots, Wandelbots et PhysicsX. EDAG, prestataire indépendant d'ingénierie, a par ailleurs annoncé le déploiement de sa plateforme de métavers industriel "metys" sur ce cloud souverain, ciblant l'automobile et l'ingénierie lourde. L'enjeu est considérable : l'industrie manufacturière mondiale fait face à une pression simultanée sur les cycles de conception, les coûts opérationnels et la disponibilité de main-d'œuvre qualifiée. L'IA n'est plus une option expérimentale mais un levier de compétitivité immédiat. Les jumeaux numériques à l'échelle d'une usine entière, construits sur les bibliothèques Omniverse de NVIDIA et le standard ouvert OpenUSD, permettent désormais de simuler, tester et optimiser des lignes de production en continu, sans interruption physique. ABB, par exemple, intègre ces outils dans sa suite Genix pour analyser la performance des équipements et accélérer la recherche de causes de pannes via des agents IA. Pour les ingénieurs, la simulation physique en temps réel change radicalement le processus de conception : là où des heures de calcul étaient nécessaires, des résultats apparaissent en secondes. Cette offensive de NVIDIA dans l'industrie s'inscrit dans une stratégie plus large visant à faire de l'informatique accélérée le socle de la transformation industrielle européenne. Le concept de "souveraineté numérique" est central : face aux craintes européennes de dépendance aux clouds américains, l'Industrial AI Cloud positionné en Allemagne répond à une demande politique autant qu'économique. CUDA-X, Omniverse, les modèles ouverts Nemotron et les puces NVIDIA équipent désormais les logiciels des éditeurs les plus influents du secteur, de Siemens à Dassault Systèmes, créant un écosystème interdépendant difficile à contourner. Dell, IBM, Lenovo et PNY complètent l'offre avec des systèmes accélérés déployables de la périphérie jusqu'aux datacenters. La prochaine étape, déjà visible à Hanovre, est l'intégration de robots humanoïdes dans les chaînes de production, un marché où NVIDIA entend jouer un rôle d'infrastructure aussi structurant que dans l'IA générative.

UEL'Industrial AI Cloud inauguré en Allemagne par Deutsche Telekom sur infrastructure NVIDIA, avec la participation de Dassault Systèmes et Siemens, offre aux industriels européens une infrastructure cloud souveraine pour déployer l'IA en production.

InfrastructureActu
1 source
NVIDIA Vera : quand le CPU devient le cerveau de l’IA autonome
9Le Big Data 

NVIDIA Vera : quand le CPU devient le cerveau de l’IA autonome

Le 16 mars 2026, lors de la conférence GTC 2026, Jensen Huang a présenté le processeur CPU Vera, une puce conçue spécifiquement pour l'intelligence artificielle agentique. Architecturé autour de la plateforme Olympus, Vera embarque 88 cœurs personnalisés basés sur la technologie ARM Neoverse, une mémoire SOCAMM en LPDDR6 atteignant une bande passante de 1,2 To/s, et une conception monolithique qui réduit la latence interne au minimum physiquement possible. Contrairement aux GPU Blackwell et Rubin qui gèrent le traitement parallèle massif, Vera prend en charge l'exécution séquentielle et logique : la planification, la vérification, l'enchaînement de décisions. Sa capacité à manipuler des contextes de plusieurs millions de tokens en temps réel en fait un composant radicalement différent des processeurs x86 traditionnels, jugés trop lents pour les exigences actuelles de l'IA. L'enjeu est fondamental pour toute entreprise qui cherche à déployer des agents IA dans des workflows réels. Jusqu'ici, les systèmes d'IA buttaient sur le goulot d'étranglement du raisonnement séquentiel : générer du texte rapidement ne suffit pas pour gérer du code complexe, de la logistique ou de la prise de décision multi-étapes. Vera permet à l'IA de passer d'un outil passif à un collaborateur capable d'orchestrer des tâches sur la durée, de corriger ses propres erreurs et d'enchaîner des raisonnements structurés sans latence perceptible. Pour les développeurs et les entreprises, cela ouvre concrètement la voie à des agents autonomes opérationnels dans des environnements de production exigeants, là où les solutions actuelles restent trop fragiles ou trop lentes. Cette annonce s'inscrit dans une accélération que NVIDIA pilote depuis plusieurs années en construisant une pile matérielle complète pour l'IA. Après avoir dominé l'entraînement des modèles avec ses GPU, puis l'inférence avec la gamme Blackwell, l'entreprise complète aujourd'hui l'architecture avec un CPU qui lui est propre, réduisant sa dépendance aux processeurs Intel et AMD pour les charges de travail IA. Le concept rappelle la distinction cognitive entre Système 1 (rapide, instinctif) et Système 2 (analytique, délibéré) : les GPU couvrent le premier, Vera prend en charge le second. Si l'adoption suit, NVIDIA pourrait imposer une architecture propriétaire de bout en bout pour les data centers orientés agents, ce qui renforcerait encore davantage sa position dominante dans l'infrastructure de l'IA mondiale au moment où la course aux systèmes autonomes s'intensifie chez Google, Microsoft et Meta.

UELes opérateurs de data centers européens déployant des agents IA devront évaluer une migration vers cette architecture propriétaire NVIDIA pour contourner les goulots d'étranglement du raisonnement séquentiel.

💬 Le goulot d'étranglement du raisonnement séquentiel, c'est le truc qui fait ramer les agents en prod depuis 2 ans, et Vera s'attaque frontalement à ça. La distinction Système 1/Système 2 appliquée au silicium, c'est bien vu, pas juste du marketing. Le revers, c'est que si t'as besoin de Vera pour que tes agents tournent vraiment, t'achètes le stack NVIDIA complet, de bout en bout, et ils le savent.

InfrastructureOpinion
1 source
Cadence étend ses partenariats en IA et robotique avec Nvidia et Google Cloud
10AI News 

Cadence étend ses partenariats en IA et robotique avec Nvidia et Google Cloud

Cadence Design Systems a annoncé cette semaine, lors de son événement CadenceLIVE, deux nouvelles collaborations dans le domaine de l'intelligence artificielle : un approfondissement de son partenariat avec Nvidia, et une intégration inédite avec Google Cloud. Avec Nvidia, l'objectif est de combiner la simulation physique, le calcul accéléré et l'IA pour concevoir et déployer des systèmes robotiques et des infrastructures à grande échelle. Concrètement, Cadence intègre ses outils de simulation multiphysique avec les bibliothèques CUDA-X de Nvidia, ses modèles d'IA et son environnement de simulation basé sur Omniverse. Ces outils modélisent les interactions thermiques, électriques et mécaniques pour permettre aux ingénieurs d'évaluer le comportement des systèmes dans des conditions réelles, avant tout déploiement physique. Le PDG de Nvidia, Jensen Huang, présent à l'événement, a résumé l'ambition commune : "Nous travaillons avec vous sur l'ensemble des systèmes robotiques." Côté Google Cloud, Cadence a présenté un nouvel agent IA dédié à l'automatisation des étapes avancées de conception de puces, notamment la traduction des circuits en implantations physiques sur silicium. Cet agent s'appuie sur les modèles Gemini de Google et sera déployé directement dans le cloud. La plateforme ChipStack AI Super Agent de Cadence affiche des gains de productivité allant jusqu'à dix fois dans les premiers déploiements, sur des tâches de conception et de vérification. Ces annonces ont des implications directes pour plusieurs secteurs industriels. Dans la robotique, la simulation physique précise permet de générer des jeux de données d'entraînement sans avoir à collecter de données dans le monde réel, ce qui réduit considérablement les coûts et les délais. Comme l'a souligné le PDG de Cadence, Anirudh Devgan : "Plus les données générées sont précises, meilleur sera le modèle." Des géants de l'automatisation industrielle tels qu'ABB Robotics, FANUC, YASKAWA et KUKA intègrent déjà ces outils dans leurs flux de mise en service virtuelle pour tester des lignes de production entières avant leur déploiement physique. Pour la conception de semi-conducteurs, le passage à des agents IA capables d'automatiser les étapes de layout promet d'accélérer des cycles de développement qui comptent parmi les plus longs et coûteux de l'industrie technologique. Ces partenariats s'inscrivent dans une tendance de fond : la convergence entre conception électronique assistée par ordinateur, IA générative et jumeaux numériques. Cadence, acteur historique de l'EDA (Electronic Design Automation) aux côtés de Synopsys et Mentor, cherche à se repositionner comme une plateforme d'ingénierie systémique intégrant l'IA à chaque étape du cycle de conception. Nvidia, de son côté, poursuit l'expansion de son écosystème Omniverse au-delà du jeu et de la visualisation, vers l'industrie lourde et la robotique physique. L'utilisation de Google Cloud comme vecteur de déploiement des outils de Cadence signale également une montée en puissance du cloud dans des workflows traditionnellement dominés par des infrastructures locales. Les prochaines étapes attendues incluent des annonces de clients utilisant la plateforme ChipStack ainsi qu'une généralisation des agents IA à d'autres étapes du design de puces.

UELes industriels européens KUKA (Allemagne) et ABB (Suisse), déjà utilisateurs de ces outils de simulation, bénéficieront directement des avancées en jumeaux numériques et en automatisation de la conception de puces.

InfrastructureActu
1 source
NVIDIA vient de tuer le rendu 3D classique : découvrez Lyra 2.0 !
11Le Big Data 

NVIDIA vient de tuer le rendu 3D classique : découvrez Lyra 2.0 !

NVIDIA a publié le 15 avril 2026 Lyra 2.0, un nouveau framework de recherche capable de générer des environnements 3D persistants et explorables à grande échelle. Développé par NVIDIA Research, cet outil repose sur une génération vidéo 3D guidée par une caméra virtuelle : le système reconstruit progressivement la structure volumétrique d'une scène à partir de séquences d'images, transformant chaque mouvement de caméra en matière tridimensionnelle exploitable. La particularité centrale est la persistance géométrique, chaque zone visitée est mémorisée par image, ce qui permet de revenir en arrière sans que le système réinvente les détails disparus de son champ de vue. Lyra 2.0 intègre également un mécanisme de correction de la dérive temporelle, un phénomène qui dégradait les scènes générées sur la durée dans les approches précédentes. Les scènes produites peuvent être exportées en Gaussian Splatting, une technique de rendu rapide basée sur des points lumineux, et intégrées à des simulateurs comme Isaac Sim. L'impact concret de Lyra 2.0 touche plusieurs industries simultanément. Pour les studios de jeu vidéo et les équipes de production 3D, la technologie court-circuite une partie du pipeline traditionnel de modélisation : au lieu de construire manuellement des environnements, on les traverse pendant leur génération automatique. Pour la robotique et l'IA embarquée, les environnements générés deviennent des terrains d'entraînement réalistes, permettant de tester des agents intelligents dans des conditions proches du monde réel sans coûteuses captures physiques. La reconstruction feed-forward, qui transforme une vidéo en structure 3D sans étape manuelle lourde, ouvre la voie à une production de données synthétiques à une échelle difficile à atteindre jusqu'ici. C'est ce double usage, création visuelle et simulation opérationnelle, qui distingue Lyra 2.0 des outils de génération vidéo classiques. La sortie de Lyra 2.0 intervient dans un contexte de compétition intense autour des mondes 3D génératifs. NVIDIA a publié le code source le 15 avril 2026, soit un jour seulement après que World Labs a lancé Spark 2.0, son propre système concurrent. Ce calendrier serré illustre la course que se livrent les grands acteurs de l'IA pour imposer leurs standards dans ce segment émergent. NVIDIA part avec un avantage structurel : son écosystème logiciel, Isaac Sim, Gaussian Splatting, les GPU omniprésents dans les datacenters, lui permet d'intégrer Lyra 2.0 dans des workflows industriels existants dès le départ. Les prochaines étapes attendues concernent l'amélioration de la résolution des scènes générées, la gestion des environnements extérieurs complexes, et l'intégration plus poussée avec les pipelines de simulation robotique où NVIDIA investit massivement depuis plusieurs années.

UELes studios de jeux vidéo et équipes de robotique européens peuvent adopter ce framework open source pour accélérer leur pipeline de création 3D et générer des données d'entraînement synthétiques sans captures physiques coûteuses.

OutilsPaper
1 source
MIT, NVIDIA et Zhejiang University proposent TriAttention, une compression du cache KV à débit 2,5 fois supérieur
12MarkTechPost 

MIT, NVIDIA et Zhejiang University proposent TriAttention, une compression du cache KV à débit 2,5 fois supérieur

Des chercheurs du MIT, de NVIDIA et de l'université du Zhejiang ont présenté TriAttention, une nouvelle méthode de compression du cache KV qui résout l'un des goulots d'étranglement les plus critiques des grands modèles de langage actuels. Publiés dans un article disponible sur arXiv (référence 2504.04921), leurs travaux montrent que TriAttention atteint la même précision que l'attention complète sur le benchmark de raisonnement mathématique AIME25 avec des séquences de 32 000 tokens, tout en offrant un débit 2,5 fois supérieur ou une réduction de la mémoire KV d'un facteur 10,7. Les meilleures méthodes concurrentes, comme SnapKV, H2O ou R-KV, n'atteignent qu'environ la moitié de cette précision pour un niveau d'efficacité équivalent. L'enjeu est considérable pour tous ceux qui déploient des modèles de raisonnement avancés comme DeepSeek-R1 ou Qwen3. Ces modèles peuvent générer des dizaines de milliers de tokens avant de produire une réponse, et chaque token doit être stocké dans le cache KV, une structure mémoire qui grossit jusqu'à saturer complètement la mémoire GPU sur du matériel grand public. Les méthodes existantes tentent de compresser ce cache en évictant les tokens jugés peu importants, mais elles opèrent dans l'espace post-RoPE, après application du schéma d'encodage positionnel rotatif utilisé par la quasi-totalité des LLM modernes (Llama, Qwen, Mistral). Ce mécanisme fait pivoter les vecteurs Query et Key selon la position, rendant les requêtes anciennes inutilisables pour estimer l'importance des tokens récents. La fenêtre d'observation efficace se réduit alors à environ 25 requêtes, ce qui conduit à l'éviction définitive de tokens qui deviendront pourtant essentiels plus tard dans la chaîne de raisonnement. L'innovation de TriAttention repose sur une observation faite dans l'espace pré-RoPE, avant que la rotation positionnelle ne soit appliquée. Les chercheurs ont constaté que sur Qwen3-8B, environ 90 % des têtes d'attention présentent un indice de concentration R supérieur à 0,95, signifiant que leurs vecteurs Query et Key se regroupent de façon quasi parfaite autour de centres fixes et stables, indépendants de la position ou de la séquence d'entrée. Cette propriété, qu'ils appellent concentration Q/K, permet d'estimer la pertinence des tokens sans être perturbé par l'encodage positionnel. Le résultat est particulièrement important pour les têtes de récupération, ces composants spécialisés dans l'extraction d'informations factuelles précises depuis de longs contextes, qui étaient les premières victimes des méthodes post-RoPE. En préservant les tokens réellement utiles sur l'ensemble de la fenêtre de contexte, TriAttention maintient l'intégrité des longues chaînes de pensée là où les approches précédentes échouaient.

RecherchePaper
1 source
Nvidia vs Meta : qui contrôle vraiment l’IA en 2026 ?
13Le Big Data 

Nvidia vs Meta : qui contrôle vraiment l’IA en 2026 ?

En 2026, deux géants se livrent une bataille ouverte pour le contrôle de l'infrastructure de l'intelligence artificielle mondiale. D'un côté, Nvidia capte entre 80 et 90 % du marché des GPU pour centres de données, enchaînant les trimestres records grâce à une demande pour ses puces Blackwell qui dépasse toutes les prévisions. De l'autre, Meta, dirigé par Mark Zuckerberg, a décidé de rompre sa dépendance à ce fournisseur unique en annonçant jusqu'à 135 milliards de dollars d'investissements en capital pour 2026, dont un contrat historique de 6 gigawatts de puces AMD. Le marché mondial de l'IA générative devrait franchir 100 milliards de dollars d'ici fin 2026, porté par une adoption professionnelle massive : près de 80 % des entreprises prévoient d'intégrer des API d'IA ou de déployer des modèles personnalisés dans leurs processus. Les revenus issus des applications mobiles boostées à l'IA devraient doubler entre 2024 et 2026, avec une répartition géographique marquée : 37,3 milliards de dollars pour les États-Unis (+60 %), 14,7 milliards pour la Chine (+72 %), et une projection de 20 milliards pour la France à horizon 2030. L'enjeu dépasse la simple guerre commerciale entre deux entreprises. Ce que Meta cherche à construire, c'est une souveraineté technologique sur sa propre pile IA, de l'infrastructure physique jusqu'aux modèles. Tant que Nvidia reste le passage obligé pour tout acteur sérieux de l'IA, le géant de Menlo Park reste exposé à des pénuries, des hausses de prix et des délais de livraison qu'il ne contrôle pas. La diversification vers AMD n'est pas un choix technique anodin : c'est un signal politique adressé à toute l'industrie. En parallèle, les joueurs grand public risquent de subir les conséquences de cette course aux serveurs IA, Nvidia orientant clairement sa production vers les centres de données au détriment du segment gaming. La véritable forteresse de Nvidia ne réside pas dans ses puces mais dans son écosystème logiciel CUDA, standard industriel dominant depuis plus de quinze ans, que la concurrence peine à détrôner malgré des investissements considérables. L'architecture Rubin, attendue en succession des Blackwell, devrait creuser encore l'écart en termes de performances brutes. Meta n'est pas seul dans cette tentative de diversification : Google avec ses TPU, Amazon avec ses Trainium, et Microsoft via ses investissements dans OpenAI cherchent tous à réduire leur exposition à un seul fournisseur. La question qui structure désormais toute la filière est celle des infrastructures : les réseaux électriques, les capacités de refroidissement et les chaînes d'approvisionnement en semi-conducteurs peuvent-ils absorber une demande qui double tous les dix-huit mois ? C'est sur ce terrain physique, autant que logiciel, que se jouera la prochaine phase de la course à l'IA.

UELes entreprises européennes restent structurellement dépendantes de l'écosystème Nvidia/CUDA pour leurs projets IA, rendant leur accès à l'infrastructure coûteux et soumis aux arbitrages de production d'acteurs hors UE.

InfrastructureOpinion
1 source
Nebius en discussions pour racheter la startup israélienne AI21 après l'échec des négociations avec Nvidia
14The Information AI 

Nebius en discussions pour racheter la startup israélienne AI21 après l'échec des négociations avec Nvidia

Nebius, fournisseur cloud soutenu par Nvidia et valorisé à 32 milliards de dollars, est en discussions pour racheter la startup israélienne AI21 Labs, selon des sources proches du dossier. La société, basée à Amsterdam, cherche à élargir ses services d'intelligence artificielle au-delà de son activité principale de location de serveurs GPU. AI21 Labs, dont la dernière valorisation connue était de 1,4 milliard de dollars en 2023, développe des grands modèles de langage et des systèmes d'agents pour les entreprises. Ce rachat potentiel permettrait à Nebius de monter dans la chaîne de valeur de l'IA, en passant de simple infrastructure à fournisseur de solutions logicielles complètes. Pour ses clients, cela signifierait un accès intégré à des modèles et outils d'IA directement via la plateforme cloud, sans passer par des tiers. Pour AI21 Labs, une acquisition représente une issue après l'échec d'une précédente tentative de vente à Nvidia, qui ne s'était pas concrétisée. AI21 Labs fait partie de la première vague de startups israéliennes spécialisées en IA générative, concurrente directe d'OpenAI et Anthropic sur le segment entreprise. La startup avait levé des fonds auprès d'investisseurs majeurs dont Google, Intel Capital et Nvidia lui-même. Le secteur cloud connaît une consolidation accélérée, les fournisseurs d'infrastructure cherchant à intégrer verticalement des capacités IA pour fidéliser leurs clients face à la concurrence d'AWS, Azure et Google Cloud.

UENebius étant basée à Amsterdam, ce rachat potentiel renforcerait la position d'un acteur cloud ancré en Europe dans la chaîne de valeur de l'IA générative enterprise.

BusinessActu
1 source
TensorWave peut-il dépasser l'avantage concurrentiel de Nvidia ?
15The Information AI 

TensorWave peut-il dépasser l'avantage concurrentiel de Nvidia ?

Nick Tatarchuk, fondateur de la startup TensorWave, a organisé mercredi à San Francisco un événement intitulé Beyond Summit, anciennement appelé Beyond CUDA. Ce changement de nom n'est pas anodin : l'édition précédente, tenue à San Jose en 2025 lors de la conférence GTC de Nvidia, avait attiré des centaines de participants désireux de discuter des alternatives au logiciel de Nvidia. Cette année, des sponsors et participants potentiels ont exprimé des réticences à s'associer à un événement aussi explicitement positionné contre le géant des puces. Tatarchuk lui-même reconnaît cette pression, d'autant que sa salle habituelle à San Jose avait été réservée pour plusieurs années... par Nvidia. L'événement réunit des startups qui développent des compilateurs, des noyaux et des couches d'optimisation pour concurrencer l'écosystème logiciel de Nvidia, dont plusieurs ont figuré dans les classements Top 50 Startups de 2024 et 2025. L'enjeu central est CUDA, la plateforme logicielle de Nvidia considérée comme son véritable fossé concurrentiel : elle simplifie radicalement l'utilisation du matériel Nvidia pour l'entraînement et l'inférence de modèles d'IA. Mais ce monopole commence à se fissurer. OpenAI et Meta ont récemment annoncé des accords importants avec AMD, rival direct de Nvidia, pour utiliser ses puces dans leurs infrastructures d'IA. Tatarchuk affirme que des laboratoires d'IA commencent désormais à réaliser des entraînements à grande échelle sur du matériel AMD, une pratique qui était à peine évoquée publiquement il y a encore peu. Pour la première fois depuis des années, des clients seraient prêts à envisager sérieusement des alternatives à CUDA, estime-t-il : "Il y a tellement d'entreprises sophistiquées qui n'ont pas besoin de CUDA." Ce mouvement s'inscrit dans un contexte de transformation profonde de l'industrie du calcul pour l'IA. La domination de Nvidia, dont les GPU représentent l'essentiel du marché de l'entraînement des grands modèles, est contestée à la fois par des fabricants de puces alternatifs et par un écosystème logiciel naissant. En parallèle, une autre initiative illustre l'effervescence du secteur : à l'université Stanford, un cours universitaire de premier cycle sur l'infrastructure IA est devenu un événement majeur, surnommé le "Compute Coachella". Le cours, complet, réunit cette semaine Jensen Huang (Nvidia), Lisa Su (AMD), Sam Altman (OpenAI), Satya Nadella (Microsoft) et Andrej Karpathy comme intervenants. Il est enseigné par Anjney Midha, ancien associé d'Andreessen Horowitz et investisseur précoce d'Anthropic, et Michael Abbott, ancien responsable ingénierie chez Apple, tous deux impliqués dans AMP, une initiative visant à faciliter l'accès aux ressources de calcul pour les entreprises.

UEL'émergence d'alternatives viables à CUDA pourrait à terme réduire la dépendance des entreprises et laboratoires européens envers Nvidia pour leurs infrastructures d'entraînement IA.

InfrastructureActu
1 source
Nvidia lance une plateforme d'agents IA pour entreprises avec Adobe, Salesforce et SAP parmi 17 adopteurs à GTC 2026
16VentureBeat AI 

Nvidia lance une plateforme d'agents IA pour entreprises avec Adobe, Salesforce et SAP parmi 17 adopteurs à GTC 2026

Lors de la conférence GTC 2026, Jensen Huang a présenté lundi l'Agent Toolkit de Nvidia, une plateforme open source destinée à la création d'agents d'IA autonomes en entreprise. Dix-sept géants du logiciel ont immédiatement annoncé leur adoption : Adobe, Salesforce, SAP, ServiceNow, Siemens, CrowdStrike, Atlassian, Cadence, Synopsys, IQVIA, Palantir, Box, Cohesity, Dassault Systèmes, Red Hat, Cisco et Amdocs. La plateforme regroupe quatre composants clés : Nemotron, une famille de modèles ouverts optimisés pour le raisonnement agentique ; AI-Q, un blueprint permettant aux agents de percevoir, raisonner et agir sur les données d'entreprise ; OpenShell, un environnement d'exécution open source imposant des garde-fous de sécurité, de réseau et de confidentialité ; et cuOpt, une bibliothèque d'optimisation. Ces agents peuvent traiter des tickets de support client, concevoir des semi-conducteurs, gérer des essais cliniques ou piloter des campagnes marketing, le tout de façon autonome. L'enjeu commercial est considérable. En faisant adopter cette pile logicielle par des entreprises présentes dans pratiquement chaque secteur du Fortune 500, Nvidia ne vend pas directement ses GPU — il conçoit un écosystème logiciel qui les rend indispensables. Le composant AI-Q promet par ailleurs de réduire les coûts de traitement de plus de 50 % en routant les tâches complexes vers des modèles frontier et les tâches de recherche vers les modèles Nemotron moins coûteux. Nvidia revendique également que son agent basé sur AI-Q se classe en tête des benchmarks DeepResearch Bench et DeepResearch Bench II, ce qui, si validé indépendamment, rendrait la plateforme non seulement pratique mais compétitivement incontournable. La confiance des entreprises, obstacle historique au déploiement d'agents autonomes, est adressée via OpenShell, développé en collaboration avec Cisco, CrowdStrike, Google, Microsoft Security et TrendAI. Cette annonce s'inscrit dans une stratégie plus large de Nvidia pour étendre son emprise au-delà du matériel. Jusqu'ici, construire un agent d'IA d'entreprise nécessitait d'assembler des briques disparates — modèle de langage, système de récupération d'information, couche de sécurité, orchestrateur — issues de fournisseurs différents jamais conçus pour fonctionner ensemble. Nvidia résout ce problème de fragmentation en proposant une fondation unifiée, open source dans sa licence mais optimisée pour ses propres puces. La stratégie rappelle celle d'une infrastructure de péage : ouverte à tous, mais dont Nvidia contrôle l'architecture. Alors que les entreprises s'apprêtent à déployer massivement des agents autonomes dans leurs systèmes informatiques, la question n'est plus tant de savoir si elles adopteront ces outils, mais si une alternative crédible à l'écosystème Nvidia pourra émerger avant que la dépendance ne soit totale.

UESAP, Siemens et Dassault Systèmes figurent parmi les 17 premiers adopteurs, exposant les grandes entreprises européennes à une dépendance croissante envers l'écosystème logiciel et matériel de Nvidia pour leurs déploiements d'agents IA.

OutilsOpinion
1 source
Google Gemma 4, NVIDIA et OpenClaw s'attaquent au coût des tokens pour les agents IA en local, du RTX au DGX Spark
17MarkTechPost 

Google Gemma 4, NVIDIA et OpenClaw s'attaquent au coût des tokens pour les agents IA en local, du RTX au DGX Spark

Google a lancé la famille de modèles Gemma 4, une nouvelle génération de modèles d'intelligence artificielle open source conçus pour fonctionner localement sur du matériel grand public. Développés en collaboration avec NVIDIA, ces modèles se déclinent en quatre variantes — E2B, E4B, 26B et 31B paramètres — et couvrent un spectre allant des modules embarqués Jetson Orin Nano aux stations de travail RTX, en passant par le DGX Spark, le superordinateur personnel d'IA récemment annoncé par NVIDIA. Ils supportent nativement l'appel de fonctions pour les agents autonomes et acceptent des entrées multimodales mêlant texte et images dans un même prompt. Sur un RTX 5090, les gains de performance atteignent 2,7 fois ceux obtenus sur un Mac M3 Ultra avec llama.cpp, selon les mesures publiées par NVIDIA. L'enjeu central de cette annonce est ce que les développeurs appellent la "token tax" — le coût financier cumulatif engendré par chaque requête envoyée à un modèle cloud comme GPT-4o ou Gemini. Pour une application d'IA toujours active, qui traite en continu des fichiers, des fenêtres d'applications ou des flux de capteurs, ces coûts deviennent rapidement prohibitifs. En exécutant Gemma 4 localement sur un GPU NVIDIA, le coût marginal par inférence tombe à zéro. Des plateformes comme OpenClaw, qui permettent de construire des assistants IA personnels fonctionnant en permanence sur des PC RTX, bénéficient directement de cette combinaison : débit élevé, latence faible, et aucune dépendance à une connexion ou à un abonnement cloud. Cette évolution s'inscrit dans une tendance de fond qui voit les grands laboratoires — Google, Meta, Mistral — publier des modèles compacts capables de rivaliser avec des systèmes bien plus lourds, à mesure que les techniques de distillation et de quantification progressent. NVIDIA, dont la domination sur les GPU d'entraînement est bien établie, cherche à étendre son emprise sur le marché de l'inférence locale, notamment avec le DGX Spark positionné comme outil de développement personnel haut de gamme. La disponibilité de modèles comme Gemma 4 optimisés pour son écosystème renforce cette stratégie. Les prochains mois verront probablement une multiplication d'applications agentiques locales, portées par cette convergence entre modèles ouverts performants et matériel grand public suffisamment puissant pour les faire tourner sans compromis.

UELa disponibilité de modèles open source performants réduit la dépendance des entreprises et développeurs européens aux API cloud payantes, facilitant la conformité RGPD via le traitement local des données.

LLMsOpinion
1 source
NVIDIA optimise Gemma 4 pour les agents autonomes locaux, des GPU RTX aux serveurs Spark
18NVIDIA AI Blog 

NVIDIA optimise Gemma 4 pour les agents autonomes locaux, des GPU RTX aux serveurs Spark

Google et NVIDIA ont annoncé cette semaine une collaboration pour optimiser la nouvelle famille de modèles Gemma 4 sur les GPU NVIDIA, couvrant un spectre matériel allant des modules embarqués Jetson Orin Nano aux PC et stations de travail RTX, en passant par le superordinateur personnel DGX Spark. La gamme comprend quatre variantes — E2B, E4B, 26B et 31B — chacune ciblant un segment précis : les modèles E2B et E4B sont conçus pour une inférence ultra-rapide et hors-ligne sur des appareils à faible consommation, tandis que les 26B et 31B visent des cas d'usage plus exigeants comme le raisonnement complexe et les workflows de développement. Ces modèles multimodaux prennent en charge le texte, les images, la vidéo et l'audio, acceptent des entrées mixtes dans un même prompt, et couvrent nativement plus de 35 langues, avec un préentraînement sur plus de 140. Ils intègrent également un support natif pour les appels de fonctions structurés, fondement des architectures agentiques. L'enjeu principal est de rendre l'IA agentique accessible localement, sans dépendance au cloud. Jusqu'ici, faire tourner un assistant IA capable de raisonner, coder et interagir avec des fichiers personnels nécessitait soit une connexion internet, soit du matériel serveur coûteux. Avec Gemma 4 optimisé pour les Tensor Cores NVIDIA via CUDA, des machines grand public comme un PC équipé d'une RTX 5090 peuvent exécuter le modèle 31B avec des performances compétitives — les benchmarks réalisés avec llama.cpp (b7789) montrent un débit de génération de tokens mesurable à ISL 4096 et OSL 128. Des applications comme OpenClaw, déjà compatible avec ces nouveaux modèles, permettent de construire des agents locaux qui accèdent aux fichiers, applications et workflows de l'utilisateur en temps réel, sans que les données quittent la machine. Ce lancement s'inscrit dans une dynamique plus large d'ouverture des modèles de frontier, portée par Google DeepMind avec la famille Gemma depuis 2024. La collaboration avec NVIDIA vise à réduire le fossé entre les performances des modèles propriétaires cloud et ce qu'un développeur peut faire tourner chez lui. NVIDIA s'est associé à Ollama et llama.cpp pour simplifier le déploiement local, tandis qu'Unsloth propose dès le premier jour des versions quantifiées et optimisées pour le fine-tuning via Unsloth Studio. À mesure que la course aux modèles locaux s'intensifie — face à des acteurs comme Meta avec LLaMA ou Mistral AI — la capacité de Google à distribuer des modèles performants sur du matériel NVIDIA grand public représente un levier stratégique pour étendre l'écosystème Gemma bien au-delà des serveurs de données.

UELa concurrence directe de Gemma 4 avec les modèles de Mistral AI accentue la pression sur l'écosystème open source européen, tandis que les développeurs français bénéficient d'un accès immédiat à des modèles multimodaux performants exécutables localement via des outils déjà disponibles (Ollama, llama.cpp, Unsloth).

💬 Un 31B qui tourne sur une RTX sans toucher au cloud, c'est le verrou qui lâche enfin. Ce qui me convainc surtout, c'est l'écosystème autour (Ollama, Unsloth, llama.cpp dès J1) : si tu as du matériel NVIDIA chez toi, tu peux tester ça ce soir. Reste à voir si les perfs tiennent en conditions réelles, les benchmarks à contexte fixe c'est pas toujours très révélateur.

LLMsOpinion
1 source
NVIDIA et Marvell s’unissent pour révolutionner les infrastructures IA
19Le Big Data 

NVIDIA et Marvell s’unissent pour révolutionner les infrastructures IA

NVIDIA et Marvell Technology ont annoncé un partenariat stratégique majeur, scellé par un investissement de 2 milliards de dollars de NVIDIA dans Marvell. L'accord s'articule autour de NVLink Fusion, une plateforme modulaire permettant de construire des infrastructures d'IA semi-personnalisées. Concrètement, Marvell apportera des XPU (processeurs accélérés sur mesure) et un réseau évolutif compatible, tandis que NVIDIA fournit l'ensemble de son arsenal matériel : processeurs Vera, cartes réseau ConnectX, DPU BlueField, interconnexion NVLink, commutateurs Spectrum-X et capacité de calcul déployable en rack. Le titre Marvell a bondi de 11 % dès l'annonce mardi, signe que les marchés ont immédiatement perçu la portée de l'accord. Le partenariat couvre également les réseaux télécoms, via NVIDIA Aerial AI-RAN, avec des ambitions sur la 5G et la future 6G, ainsi que sur des technologies d'interconnexion optique et de photonique sur silicium pour améliorer les performances et réduire la consommation énergétique. Pour les entreprises qui développent leurs propres puces d'accélération, NVLink Fusion ouvre la voie à des architectures hybrides entièrement compatibles avec l'écosystème NVIDIA — GPU, réseau et stockage compris. C'est un changement structurel : jusqu'ici, intégrer des composants tiers dans une infrastructure NVIDIA relevait du casse-tête d'interopérabilité. Désormais, les hyperscalers, opérateurs télécom et acteurs du cloud pourront combiner des XPU Marvell avec la stack NVIDIA sans friction. Pour les utilisateurs finaux, l'impact est indirect mais réel : des modèles d'IA générative plus complexes pourront tourner à moindre latence, ce qui se traduit par des services de recommandation, de création de contenu ou de simulation plus réactifs. Dans les télécoms, l'alliance prépare le terrain pour des réseaux 5G/6G capables de supporter des usages exigeants comme la télémédecine en temps réel ou les véhicules autonomes. Ce rapprochement s'inscrit dans un contexte de demande explosive en capacité de calcul, portée par la généralisation de l'IA générative et l'explosion des volumes de données. Jensen Huang, PDG de NVIDIA, parle lui-même d'une "ère de supercalcul" en cours d'avènement. Face à cette pression, les grandes entreprises technologiques mondiales s'engagent dans une course à la construction de centres de calcul dédiés, et NVIDIA cherche à s'imposer comme la colonne vertébrale incontournable de ces infrastructures. Marvell, de son côté, se repositionne comme fournisseur clé de silicium personnalisé pour l'IA — un marché en pleine effervescence où Amazon, Google et Microsoft développent déjà leurs propres puces. L'investissement de 2 milliards de dollars de NVIDIA dans Marvell est autant un signal industriel qu'une manœuvre défensive : consolider l'écosystème avant que les alternatives ne s'imposent.

UELes opérateurs télécom et fournisseurs cloud européens pourront intégrer des architectures hybrides XPU Marvell / stack NVIDIA sans friction, accélérant leurs déploiements 5G/6G et d'IA générative.

💬 NVIDIA ne se contente plus de vendre des GPU, il construit le système nerveux de toute l'infrastructure IA. NVLink Fusion, c'est le genre de coup qu'on voit venir mais dont on mesure mal l'ampleur : permettre à Marvell (et demain à d'autres) de brancher leurs puces custom directement dans l'écosystème NVIDIA, c'est verrouiller le marché de façon beaucoup plus subtile qu'un simple rachat. Les 2 milliards d'investissement, c'est pas de la philanthropie, c'est de la consolidation défensive avant qu'AMD ou les hyperscalers in-house ne s'imposent.

InfrastructureOpinion
1 source
ThinkLabs AI, soutenue par Nvidia, lève 28 millions de dollars pour répondre à la crise du réseau électrique
20VentureBeat AI 

ThinkLabs AI, soutenue par Nvidia, lève 28 millions de dollars pour répondre à la crise du réseau électrique

ThinkLabs AI, une startup américaine spécialisée dans la modélisation par intelligence artificielle des réseaux électriques, a annoncé la clôture d'un tour de table de 28 millions de dollars en Série A. Le tour a été mené par Energy Impact Partners (EIP), l'un des plus grands fonds d'investissement dans la transition énergétique, avec la participation de NVentures — le bras capital-risque de Nvidia — et d'Edison International, maison mère de Southern California Edison. Parmi les investisseurs récurrents figurent GE Vernova, Powerhouse Ventures, Blackhorn Ventures et Amplify Capital, ainsi qu'une grande utility nord-américaine non nommée. Le montant final a dépassé l'objectif initial : le tour était sursouscrit, selon le PDG Josh Wong, en raison de la forte demande des partenaires stratégiques. La technologie de ThinkLabs s'attaque à un goulot d'étranglement critique dans l'ingénierie des réseaux électriques. Lorsqu'un opérateur doit évaluer l'impact du raccordement d'un datacenter ou d'un cluster de bornes de recharge sur un sous-réseau, il doit lancer des simulations de flux de puissance — des calculs complexes qui prennent traditionnellement plusieurs semaines avec les outils hérités de Siemens, GE ou Schneider Electric. ThinkLabs remplace ce processus par des modèles d'IA dits « physics-informed », entraînés sur les sorties de simulateurs physiques de référence. Résultat : une étude qui prenait un mois est compressée en moins de trois minutes, et 10 millions de scénarios peuvent être simulés en 10 minutes, avec une précision supérieure à 99,7 % sur les calculs de flux de puissance. Wong insiste sur la rigueur de l'approche : « Ce n'est pas de l'IA générative qui hallucine — c'est du calcul d'ingénierie, comparable à la dynamique des fluides ou aux modèles climatiques. » L'enjeu est considérable. Selon le cabinet ICF International, la demande électrique américaine devrait croître de 25 % d'ici 2030, tirée par les datacenters d'IA, l'électrification des transports et du bâtiment. Cette montée en charge percute de plein fouet une infrastructure conçue il y a plusieurs décennies pour des usages radicalement différents. Les utilities peinent à suivre : les files d'attente pour raccorder de nouveaux équipements au réseau de transport s'allongent, faute de capacité à modéliser rapidement les impacts. La participation de Nvidia au tour n'est pas anodine : le géant des puces graphiques est à la fois bénéficiaire et contributeur de cette explosion de la demande énergétique liée à l'IA, et a tout intérêt à ce que les infrastructures électriques tiennent la cadence. ThinkLabs se positionne ainsi à l'intersection de deux des grandes transitions de la décennie — numérique et énergétique — avec une application de l'IA qui touche directement à la fiabilité des réseaux physiques.

UELa multiplication des datacenters IA et l'électrification accélérée posent des défis similaires aux gestionnaires de réseaux européens comme RTE ou Elia, qui pourraient bénéficier d'approches comparables pour réduire les délais de raccordement.

💬 Un mois de calcul en trois minutes. Sur le papier ça sonne pitch deck, mais l'approche physics-informed c'est du concret : on accélère de la simulation physique réelle, on ne demande pas à un LLM de deviner des flux de puissance. Nvidia dans le tour, c'est presque logique, ils créent le problème de consommation et financent la solution pour que les réseaux tiennent.

InfrastructureActu
1 source
Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA
21Next INpact 

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral AI a finalisé lundi 30 mars un emprunt de 830 millions de dollars (722 millions d'euros) auprès d'un pool de sept banques pour équiper son datacenter de Bruyères-le-Châtel, au sud de Paris. Cet argent servira à acquérir 13 800 puces GB300 de NVIDIA, les processeurs de dernière génération destinés aux charges d'IA intensives. Une fois déployée, cette infrastructure portera la puissance informatique disponible pour la startup à 44 mégawatts. Le financement mobilise une majorité d'acteurs français — Bpifrance, BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis — ainsi que la banque japonaise MUFG (groupe Mitsubishi). La mise en service est annoncée pour le deuxième trimestre 2026. Cet investissement positionne Mistral comme le premier opérateur d'infrastructure IA souveraine en Europe capable d'offrir à ses clients institutionnels une puissance de calcul hors de toute juridiction extraterritoriale américaine. C'est l'enjeu central de l'offre Mistral Compute, lancée en juin 2025 et déjà contractualisée avec le ministère des Armées français en janvier 2026. Pour les gouvernements, administrations et grandes entreprises qui cherchent à déployer des modèles IA sans dépendre d'AWS, Azure ou Google Cloud, cette infrastructure représente une alternative concrète et européenne — un argument commercial de poids dans un contexte de tensions géopolitiques et de débats sur la souveraineté numérique. Le projet avait été annoncé en février 2025, avec Eclairion — spécialiste français des datacenters haute densité — comme partenaire de construction. À l'époque, l'intégrateur britannique devenu américain Fluidstack était également associé au projet, mais Bloomberg indique qu'il a depuis réorienté ses investissements vers les États-Unis, laissant le champ plus libre à une configuration franco-française. En décembre 2025, le CEO d'Eclairion évoquait encore un cluster de puces GB200 comme « la plus grosse machine d'IA de France » sur le point d'entrer en production pour Mistral — les cartes semblent avoir été rebattues depuis, avec une transition vers les GB300, génération supérieure. En parallèle, Mistral a annoncé en février 2026 un second investissement de 1,2 milliard d'euros dans un autre projet de datacenter, confirmant une stratégie d'expansion infrastructure qui va bien au-delà du seul développement de modèles de langage. La startup cofondée par Arthur Mensch se construit désormais en fournisseur de cloud souverain à part entière.

UEMistral installe à Bruyères-le-Châtel la première infrastructure IA souveraine d'Europe hors juridiction américaine, déjà contractualisée avec le ministère des Armées français, offrant aux institutions et entreprises européennes une alternative concrète aux hyperscalers américains.

💬 722 millions d'euros de dette pour acheter des GPU, c'est pas anodin comme pari. Bon, sur le papier le timing est parfait : les gouvernements européens cherchent désespérément une sortie des hyperscalers américains, et Mistral vient d'arriver avec 13 800 GB300 et un contrat Armées déjà dans la poche. Ce qui me frappe surtout, c'est le pivot : on parle plus d'une boîte de modèles, mais d'un vrai fournisseur de cloud souverain.

InfrastructureOpinion
1 source
NVIDIA GTC : l'Omniverse au service de l'IA physique
22NVIDIA AI Blog 

NVIDIA GTC : l'Omniverse au service de l'IA physique

Lors de la conférence GTC la semaine dernière, NVIDIA a présenté plusieurs avancées majeures pour ce que l'entreprise appelle l'« ère de l'IA physique » — une phase où robots, véhicules autonomes et usines intelligentes passent de déploiements isolés à des systèmes industriels à grande échelle. Au cœur de ces annonces figurent trois nouveaux modèles de frontière : Cosmos 3 pour la modélisation du monde réel, Isaac GR00T N1.7 dédié aux compétences des robots humanoïdes, et Alpamayo 1.5 pour la conduite autonome. NVIDIA a également lancé deux blueprints open source : le Physical AI Data Factory Blueprint, destiné à produire des données d'entraînement à partir de simulations, et l'Omniverse DSX Blueprint, une architecture de référence pour créer des jumeaux numériques d'usines d'IA complètes. Des partenaires comme FieldAI, Hexagon Robotics, Skild AI et Teradyne Robotics utilisent déjà ces outils, tandis que Microsoft Azure et Nebius sont les premiers clouds à proposer le blueprint en mode clé en main. L'enjeu central de ces annonces est de résoudre un problème structurel de l'IA physique : les données réelles ne suffisent plus. Le monde réel est imprévisible, les cas limites sont innombrables, et les pipelines de collecte restent fragmentés. NVIDIA positionne donc la puissance de calcul elle-même comme une fabrique de données — transformant des scènes simulées en datasets massifs, diversifiés et hautement qualifiés. Pour les développeurs de robots et de véhicules autonomes, cela signifie pouvoir entraîner des modèles sur des millions de situations synthétiques sans dépendre d'une collecte terrain coûteuse. Parallèlement, l'Omniverse DSX Blueprint permet aux opérateurs d'usines d'IA de simuler thermiques, réseaux électriques et charges réseau avant même d'installer le premier serveur — réduisant les délais et les dépassements de budget sur des infrastructures qui coûtent des centaines de millions de dollars. Ces développements s'inscrivent dans une stratégie plus large de NVIDIA pour imposer son écosystème comme couche universelle de l'IA industrielle. Le format OpenUSD — langage de description de scènes 3D initialement développé par Pixar — joue un rôle clé en permettant de convertir des fichiers CAO d'ingénierie en environnements de simulation directement exploitables. Des frameworks open source comme OpenClaw viennent compléter la pile en orchestrant des agents autonomes capables de gérer des workflows complexes sur des machines dédiées. Avec l'intégration de partenaires cloud majeurs et d'une dizaine d'acteurs industriels, NVIDIA consolide une position de plateforme incontournable à un moment où la compétition pour contrôler l'infrastructure de l'IA physique — robots, voitures, usines — s'intensifie face à des concurrents comme Google DeepMind, Boston Dynamics et les constructeurs automobiles investissant massivement dans leurs propres systèmes embarqués.

UELes industriels et startups européens en robotique ou véhicules autonomes peuvent accéder via Microsoft Azure aux blueprints open source NVIDIA pour entraîner des modèles sur données synthétiques, réduisant leur dépendance coûteuse à la collecte terrain.

InfrastructureOpinion
1 source
Agents IA : CrowdStrike et NVIDIA accélèrent la cyberdéfense
23Le Big Data 

Agents IA : CrowdStrike et NVIDIA accélèrent la cyberdéfense

CrowdStrike et NVIDIA ont annoncé lors de la conférence GTC un partenariat renforcé pour sécuriser les agents IA autonomes, en intégrant la sécurité directement dans la pile IA via NVIDIA OpenShell et les solutions CrowdStrike Falcon. Leur agent Charlotte AI AgentWorks, boosté par Nemotron 3 Super, et le service Falcon Complete Next-Gen MDR permettent d'automatiser les enquêtes de cybersécurité avec des investigations jusqu'à 5 fois plus rapides. Ce partenariat répond à une crise des SOC traditionnels, où une étude Vectra AI (2024) révèle que 62 % des alertes sont ignorées faute de ressources humaines suffisantes.

UELes équipes SOC européennes pourraient adopter ces outils pour réduire la surcharge d'alertes, mais le partenariat ne cible pas spécifiquement le marché français ni les réglementations européennes.

OutilsOutil
1 source
Le nouveau rack serveur de Nvidia accueillera des puces IA de ses concurrents
24The Information AI 

Le nouveau rack serveur de Nvidia accueillera des puces IA de ses concurrents

Nvidia a dévoilé lors de sa conférence GTC un nouveau rack serveur capable d'héberger aussi bien ses propres puces que celles de ses concurrents. Ces racks intègrent une technologie réseau qui assure une communication rapide et fiable entre les chips. Nvidia transforme ainsi la concurrence en opportunité commerciale en monétisant l'infrastructure même qui fait tourner les puces rivales.

UELes entreprises européennes qui achètent des infrastructures IA pourront bénéficier de racks interopérables, réduisant potentiellement la dépendance à un seul fournisseur de puces.

InfrastructureActu
1 source
Nvidia Earth-2 : l’IA qui va révolutionner la prédiction météo dans le monde entier
25Le Big Data 

Nvidia Earth-2 : l’IA qui va révolutionner la prédiction météo dans le monde entier

En janvier 2026, Nvidia a lancé Earth-2, une plateforme de jumeau numérique de la Terre utilisant l'IA pour simuler le climat en temps réel, jusqu'à 1000 fois plus rapide que les supercalculateurs traditionnels. Les modèles agrègent des données de satellites, radars et stations météo pour générer des prévisions globales jusqu'à 14 jours en quelques secondes, sur une simple machine équipée de deux GPU RTX Pro 6000. Développée en collaboration avec la NOAA et MITRE, la plateforme sera open source pour démocratiser l'accès aux prévisions avancées, notamment dans les pays en développement.

UELes agences météorologiques européennes comme Météo-France ou l'ECMWF pourraient adopter cette plateforme open source pour améliorer leurs prévisions climatiques à moindre coût infrastructurel.

OutilsActu
1 source
NVIDIA publie Nemotron-Cascade 2 : un MoE open source de 30 milliards de paramètres avec 3 milliards actifs, offrant un meilleur raisonnement et de solides capacités agentiques
26MarkTechPost 

NVIDIA publie Nemotron-Cascade 2 : un MoE open source de 30 milliards de paramètres avec 3 milliards actifs, offrant un meilleur raisonnement et de solides capacités agentiques

NVIDIA lance Nemotron-Cascade 2, un modèle open-weight de type Mixture-of-Experts (MoE) avec 30 milliards de paramètres totaux dont seulement 3B actifs, conçu pour maximiser la densité d'intelligence. Il devient le deuxième LLM open-weight à atteindre le niveau médaille d'or à l'Olympiade Internationale de Mathématiques (IMO) 2025, à l'IOI et aux ICPC World Finals. Le modèle surpasse notamment le Qwen3.5-35B-A3B sur les benchmarks de raisonnement mathématique (AIME 2025 : 92,4 vs 91,9), de code (LiveCodeBench v6 : 87,2 vs 74,6) et d'instruction following (ArenaHard v2 : 83,5 vs 65,4), grâce à une pipeline d'entraînement combinant SFT, Cascade RL et distillation multi-domaine (MOPD).

UEModèle open-weight librement accessible aux développeurs et entreprises européens pour des cas d'usage de raisonnement avancé et d'agents IA.

LLMsActu
1 source
Nvidia a une stratégie OpenClaw. Et vous ?
27TechCrunch AI 

Nvidia a une stratégie OpenClaw. Et vous ?

Le PDG Jensen Huang a présenté la keynote de la conférence GTC de Nvidia cette semaine, projetant 1 000 milliards de dollars de ventes de puces IA d'ici 2027. Il a affirmé que toutes les entreprises ont besoin d'une "stratégie OpenClaw" et a clôturé avec une démonstration du robot Olaf. Le message central : Nvidia se positionne comme infrastructure incontournable de l'IA.

UELes entreprises européennes devront intégrer une dépendance croissante à l'infrastructure Nvidia dans leur stratégie IA, en l'absence d'alternative compétitive européenne sur le marché des puces.

BusinessOpinion
1 source
Le marché des serveurs IA change d’ère : Vera Rubin place NVIDIA au centre du jeu
28ZDNET FR 

Le marché des serveurs IA change d’ère : Vera Rubin place NVIDIA au centre du jeu

NVIDIA a dévoilé l'architecture Vera Rubin lors de la GTC 2026, marquant un tournant dans le marché des serveurs IA. Cette nouvelle génération positionne NVIDIA au cœur d'une transition vers des infrastructures intégrées, conçues comme de véritables « usines à IA ».

InfrastructureOpinion
1 source
NVIDIA veut rendre les agents IA d'entreprise suffisamment sûrs pour être vraiment déployés
29AI News 

NVIDIA veut rendre les agents IA d'entreprise suffisamment sûrs pour être vraiment déployés

NVIDIA a présenté l'Agent Toolkit lors du GTC 2026 (San Jose, 16 mars), une suite open source permettant aux entreprises de déployer des agents IA autonomes avec des garde-fous de sécurité intégrés via OpenShell, développé en partenariat avec Cisco, CrowdStrike, Google, Microsoft Security et TrendAI. Le toolkit inclut NVIDIA AI-Q, un moteur de recherche agentique basé sur LangChain combinant des modèles frontier et les modèles open Nemotron, réduisant les coûts de requêtes de plus de 50 % tout en atteignant les meilleures performances sur le DeepResearch Bench. Des partenaires majeurs comme Adobe, SAP, Salesforce, ServiceNow et Siemens adoptent déjà la solution, Salesforce intégrant notamment Agentforce dans Slack comme couche d'orchestration.

UELes entreprises européennes utilisant SAP ou Siemens pourraient adopter ce toolkit pour déployer des agents IA sécurisés en conformité avec l'AI Act.

OutilsOutil
1 source
OpenClaw est le nouveau ChatGPT selon NVIDIA : mais c’est quoi ?
30Le Big Data 

OpenClaw est le nouveau ChatGPT selon NVIDIA : mais c’est quoi ?

OpenClaw est un agent IA open source qui, contrairement à ChatGPT, ne répond pas à des questions mais exécute des tâches de manière autonome — navigation web, manipulation de fichiers, exécution de commandes. Jensen Huang (NVIDIA) le compare au lancement de ChatGPT en 2022, y voyant un basculement majeur vers une IA qui agit plutôt que qui discute. Son architecture repose sur un LLM augmenté de modules ("skills") lui permettant d'enchaîner des actions en boucle pour atteindre un objectif donné sans intervention humaine à chaque étape.

OutilsOutil
1 source
Pékin approuve les ventes de la puce H200 de Nvidia, qui prépare une version adaptée au marché chinois de sa puce d'inférence Groq
31The Decoder 

Pékin approuve les ventes de la puce H200 de Nvidia, qui prépare une version adaptée au marché chinois de sa puce d'inférence Groq

Pékin a accordé à Nvidia l'autorisation de vendre sa puce IA H200 — la deuxième plus puissante de sa gamme — aux clients chinois, selon Reuters. La production avait été suspendue l'an dernier en raison d'obstacles réglementaires des deux côtés du Pacifique. Parallèlement, Nvidia travaillerait sur une version adaptée au marché chinois de sa puce d'inférence Groq.

UELa réautorisation des puces H200 en Chine modifie l'équilibre géopolitique des semi-conducteurs IA, renforçant la pression sur l'UE pour définir sa propre politique d'exportation de composants stratégiques.

BusinessReglementation
1 source
GTC 2026 : IBM et NVIDIA accélèrent l’IA en entreprise avec une nouvelle stratégie
32Le Big Data 

GTC 2026 : IBM et NVIDIA accélèrent l’IA en entreprise avec une nouvelle stratégie

Lors du GTC 2026, IBM et NVIDIA ont renforcé leur partenariat pour aider les entreprises à passer de l'expérimentation à un déploiement massif de l'IA, en s'attaquant aux freins liés aux données dispersées, aux infrastructures inadaptées et aux contraintes réglementaires. La collaboration intègre les GPU NVIDIA dans le moteur watsonx.data d'IBM via l'accélération SQL Presto, avec des résultats concrets : chez Nestlé, le temps de traitement des commandes est passé de 15 à 3 minutes (−83 %, performances ×30 dans 186 pays). L'offre couvre toute la chaîne IA — données structurées et non structurées (via Docling et les modèles Nemotron), infrastructure (IBM Storage Scale System 6000 certifié NVIDIA DGX) — pour une solution bout-en-bout en entreprise.

UENestlé, groupe suisse opérant dans 186 pays, a réduit son temps de traitement des commandes de 83% grâce à ce partenariat, démontrant un impact concret pour les grandes entreprises européennes qui cherchent à industrialiser leurs déploiements IA tout en respectant les contraintes réglementaires.

BusinessActu
1 source
DLSS 5 : la technologie graphique IA de Nvidia est-elle allée trop loin ?
33The Verge AI 

DLSS 5 : la technologie graphique IA de Nvidia est-elle allée trop loin ?

Nvidia a dévoilé DLSS 5, un nouveau modèle de rendu neuronal 3D capable de modifier en temps réel l'éclairage et les matériaux dans les jeux vidéo. La technologie a suscité une vague de critiques de la part des joueurs, notamment après des démonstrations jugées trop éloignées du style visuel original sur des personnages de Resident Evil Requiem. Jensen Huang a balayé les critiques d'un revers de main : « Ils ont complètement tort. »

OutilsOutil
1 source
GTC 2026 : avec le Groq 3 LPX, Nvidia ajoute pour la première fois du matériel d'inférence dédié à sa plateforme
34The Decoder 

GTC 2026 : avec le Groq 3 LPX, Nvidia ajoute pour la première fois du matériel d'inférence dédié à sa plateforme

Lors de la GTC 2026, Nvidia a élargi sa plateforme Vera Rubin — présentée au CES — en y ajoutant pour la première fois des puces dédiées à l'inférence (Groq 3 LPX), des racks CPU personnalisés et une nouvelle architecture de stockage. La société a également annoncé un système d'exploitation dédié à l'inférence, des alliances autour de modèles ouverts et un logiciel de sécurité pour agents IA.

UELes entreprises européennes exploitant des infrastructures Nvidia pour l'inférence IA pourront bénéficier de puces dédiées plus performantes, réduisant potentiellement les coûts et la latence des déploiements de modèles à grande échelle.

OutilsActu
1 source
Nvidia avait finalement besoin de Groq
35The Information AI 

Nvidia avait finalement besoin de Groq

Nvidia a annoncé lors de sa conférence annuelle GTC à San Jose l'intégration de la technologie de la startup Groq dans ses systèmes de puces GPU, notamment pour les tâches d'inférence IA spécialisées comme le codage. C'est une admission implicite mais majeure que les GPU Nvidia seuls ne suffisent pas pour certaines des tâches de calcul IA les plus importantes aujourd'hui. Un revirement notable, étant donné que le PDG Jensen Huang avait tenu des propos plutôt dismissifs sur Groq en janvier dernier.

LLMsOpinion
1 source
GTC met en avant les PC NVIDIA RTX et DGX Sparks pour faire tourner les derniers modèles open source et agents IA en local
36NVIDIA AI Blog 

GTC met en avant les PC NVIDIA RTX et DGX Sparks pour faire tourner les derniers modèles open source et agents IA en local

Au GTC de NVIDIA, plusieurs nouveaux modèles open source pour agents IA locaux ont été annoncés : Nemotron 3 Nano 4B, Nemotron 3 Super 120B (85,6% sur PinchBench), ainsi que Mistral Small 4 (119 milliards de paramètres). Ces modèles sont optimisés pour tourner localement sur le DGX Spark — superordinateur de bureau avec 128 Go de mémoire unifiée — et les PC RTX, sans dépendance au cloud. NVIDIA présente également NemoClaw, une pile open source pour sécuriser et optimiser les expériences d'agents IA sur ses appareils.

UEMistral Small 4, développé par la startup française Mistral AI, est mis en avant comme modèle phare pour les agents IA locaux sur les appareils NVIDIA, renforçant la visibilité d'un acteur européen face aux géants américains.

LLMsActu
1 source
[AINews] NVIDIA GTC : Jensen met le paquet sur OpenClaw et Vera CPU et annonce 1 000 milliards de dollars de commandes pour 2027
37Latent Space 

[AINews] NVIDIA GTC : Jensen met le paquet sur OpenClaw et Vera CPU et annonce 1 000 milliards de dollars de commandes pour 2027

Au GTC de NVIDIA, Jensen Huang a présenté les architectures Blackwell et Rubin en forte croissance, dévoilé le CPU Vera, et annoncé un carnet de commandes estimé à 1 000 milliards de dollars pour 2027, tout en lançant NemoClaw comme réponse aux failles de sécurité d'OpenClaw. En parallèle, Moonshot (Kimi) a publié un papier sur les "Attention Residuals" promettant un avantage de calcul de 1,25x avec moins de 2 % de surcoût à l'inférence, validé sur le modèle Kimi Linear 48B, bien que la nouveauté de l'approche soit débattue. Du côté d'OpenAI, Codex dépasse 2 millions d'utilisateurs actifs hebdomadaires (+4x depuis janvier), tandis que GPT-5.4 a atteint 5 000 milliards de tokens par jour et un milliard de dollars de revenus annualisés en une semaine.

UELes laboratoires et entreprises européens déployant des infrastructures IA devront intégrer les nouvelles architectures NVIDIA (Vera CPU, Rubin) dans leur feuille de route hardware, avec des implications budgétaires majeures sur les prochains cycles d'investissement.

LLMsActu
1 source
Nvidia dévoile NemoClaw, son logiciel pour agents IA
38The Information AI 

Nvidia dévoile NemoClaw, son logiciel pour agents IA

Nvidia a dévoilé NemoClaw, un nouveau logiciel open-source permettant aux entreprises de créer leurs propres agents IA. Le PDG Jensen Huang a annoncé ce lancement lundi, dans la lignée du succès d'OpenClaw, un outil similaire destiné aux agents personnels.

UELes entreprises européennes peuvent adopter NemoClaw pour développer leurs propres agents IA en interne, sans dépendre de solutions propriétaires tierces.

OutilsOutil
1 source
Jensen propulse les projections de ventes Blackwell et Vera Rubin de Nvidia dans la stratosphère des 1 000 milliards de dollars
39TechCrunch AI 

Jensen propulse les projections de ventes Blackwell et Vera Rubin de Nvidia dans la stratosphère des 1 000 milliards de dollars

Jensen Huang, PDG de Nvidia, prévoit 1 000 milliards de dollars de commandes pour ses puces Blackwell et Vera Rubin. Ces projections astronomiques positionnent Nvidia au sommet du marché des semi-conducteurs IA, avec une demande mondiale qui ne montre aucun signe de ralentissement.

UELes entreprises et clouds européens dépendant des GPU Nvidia pour leurs infrastructures IA pourraient faire face à des délais d'approvisionnement prolongés et des coûts élevés face à cette demande mondiale record.

BusinessActu
1 source
Nvidia dévoile un système de puces basé sur Groq pour accélérer les tâches d'IA comme le codage
40The Information AI 

Nvidia dévoile un système de puces basé sur Groq pour accélérer les tâches d'IA comme le codage

Nvidia a dévoilé un nouveau système de serveurs IA intégrant la technologie du fabricant de puces Groq, dont la licence a été acquise l'an dernier. Annoncé par le PDG Jensen Huang, ce système vise à rendre les serveurs IA plus économes en énergie et moins coûteux pour des tâches comme la génération de code. Il s'agit de la première fois que Nvidia intègre la technologie d'une autre entreprise dans ses puces.

OutilsActu
1 source
GTC 2026 : Nvidia veut remplacer le problème de données en robotique par un problème de calcul
41The Decoder 

GTC 2026 : Nvidia veut remplacer le problème de données en robotique par un problème de calcul

Lors du GTC 2026, Nvidia a annoncé une expansion majeure de sa plateforme pour l'IA physique. Dès 2027, des véhicules autonomes circuleront à Los Angeles en partenariat avec Uber, tandis que les robots industriels de FANUC et ABB seront équipés de puces Nvidia. De nouveaux modèles visent également à améliorer les capacités des robots humanoïdes, transformant le défi des données en robotique en un problème de puissance de calcul.

UEABB, groupe suisse majeur en robotique industrielle, intégrera les puces Nvidia, ce qui pourrait accélérer l'automatisation dans les usines européennes.

RobotiqueActu
1 source
GTC : ce qu'il faut attendre de la puce Groq de Nvidia
42The Information AI 

GTC : ce qu'il faut attendre de la puce Groq de Nvidia

Nvidia ouvre aujourd'hui sa conférence annuelle GTC à San Jose, Californie, où le PDG Jensen Huang présentera demain sa keynote très attendue du secteur IA. L'annonce majeure attendue est un nouveau système de puces combinant la technologie Nvidia avec celle de Groq, une entreprise de puces indépendante dont Nvidia a acquis la licence pour environ 20 milliards de dollars fin 2024. C'est la première fois que Nvidia intègre le processeur IA d'une autre entreprise directement dans ses racks de serveurs.

OutilsOpinion
1 source
43The Information AI 

Nvidia et son partenaire cloud Nscale en négociations pour acquérir un grand site de data center aux États-Unis avant son introduction en bourse

Nscale, un fournisseur cloud britannique soutenu par Nvidia dont les clients incluent OpenAI et Microsoft, est en négociation pour acquérir l'un des plus grands sites disponibles pour les centres de données IA aux États-Unis. Le site, situé dans le comté de Mason en Virginie-Occidentale, est particulièrement stratégique car il a déjà obtenu les autorisations réglementaires locales et sécurisé les équipements électriques pour les premières phases du projet. Cette acquisition ferait de Nscale, qui prépare une introduction en bourse, un acteur majeur de l'infrastructure IA américaine presque du jour au lendemain.

BusinessActu
1 source
44The Decoder 

Nvidia s'engouffre dans le vide open source laissé par OpenAI, Meta et Anthropic

Nvidia prévoit d'investir 26 milliards de dollars sur cinq ans dans des modèles d'IA open-weight, selon un document déposé auprès de la SEC. Cette stratégie répond à la montée en puissance des modèles open-source chinois tout en maintenant les développeurs dans l'écosystème matériel de Nvidia. OpenAI, Meta et Anthropic ayant délaissé ce créneau, Nvidia s'y engouffre pour conserver son influence sur l'ensemble de la chaîne IA.

UEL'investissement massif de Nvidia dans les modèles open-weight menace directement la position de Mistral AI, principale licorne française de l'IA open-source, en introduisant un concurrent aux ressources quasi-illimitées sur ce créneau stratégique.

BusinessActu
1 source
45The Information AI 

Nvidia et des startups s'affrontent pour rendre OpenClaw plus sûr

Nvidia, des startups comme Perplexity et Genspark s'activent pour proposer des versions sécurisées d'OpenClaw, le logiciel open-source populaire pour agents IA personnels, après plusieurs incidents de sécurité embarrassants — dont la suppression massive d'e-mails de la directrice d'alignement de Meta, Summer Yue. En Chine, des agences gouvernementales ont déjà interdit l'installation d'OpenClaw sur les appareils professionnels. Genspark lance notamment Genspark Claw, qui isole l'agent dans une machine virtuelle cloud (Microsoft Azure) pour contenir les dommages potentiels, à 80 ou 140 $/mois selon Wen Sang, co-fondateur et COO.

SécuritéActu
1 source
46Le Big Data 

Nvidia investit 2 milliards dans Nebius : tout ce qu’il faut savoir

Nvidia a conclu un accord de 2 milliards de dollars avec Nebius, société cloud IA basée à Amsterdam, dont l'action a bondi de plus de 10 % à l'annonce. Nebius prévoit de déployer d'ici 2030 une infrastructure de 5 gigawatts reposant sur la technologie Nvidia, avec notamment une installation de 1,2 gigawatt dans le Missouri. Le partenariat inclut la conception d'« usines à IA », le développement d'une plateforme d'inférence pour l'IA agentique, et s'inscrit dans une série d'investissements récents de Nvidia (Thinking Machines, Nscale).

UEL'investissement de 2 milliards de dollars de Nvidia dans Nebius, société cloud IA basée à Amsterdam, renforce la capacité de l'Union Européenne à déployer une infrastructure d'IA à grande échelle sur son territoire.

BusinessActu
1 source
47The Information AI 

Nvidia arrose de cash ; le président de la FCC défend SpaceX

Nvidia et son PDG Jensen Huang multiplient les investissements massifs dans leurs partenaires : 2 milliards de dollars dans Nebius (datacenter européen IA), 2 milliards dans Coherent et 2 milliards dans Lumentum (composants laser pour datacenters), ainsi qu'un investissement significatif dans la startup Thinking Machines Lab. Ce sont quatre annonces de ce type en l'espace d'une seule semaine, illustrant la stratégie d'Nvidia de consolider son écosystème via des prises de participation directes.

UEL'investissement de 2 milliards de dollars de Nvidia dans Nebius, acteur européen des datacenters IA basé aux Pays-Bas, renforce les capacités d'infrastructure cloud IA disponibles pour les entreprises et chercheurs de l'UE.

BusinessActu
1 source
48Wired AI 

Nvidia va investir 26 milliards de dollars dans des modèles d'IA open-weight, selon des documents officiels

Nvidia prévoit d'investir 26 milliards de dollars dans le développement de modèles d'IA open-weight, selon des documents officiels. Cette initiative positionnerait le géant de l'infrastructure IA pour concurrencer directement OpenAI, Anthropic et DeepSeek. Ce pivot stratégique marque une entrée significative de Nvidia dans la course aux modèles de fondation.

UEL'entrée de Nvidia dans le segment des modèles open-weight intensifie la concurrence pour Mistral, acteur français de référence dans ce domaine.

BusinessActu
1 source
49The Information AI 

Nebius, entreprise cloud IA, reçoit un investissement de 2 milliards de dollars de Nvidia

Nvidia investit 2 milliards de dollars dans Nebius Group, société cloud IA basée à Amsterdam. Les deux entreprises collaboreront pour construire des centres de données atteignant 5 gigawatts de capacité énergétique d'ici la fin de la décennie.

UENebius Group, acteur cloud IA européen basé à Amsterdam, bénéficie d'un investissement massif de 2 milliards de dollars pour déployer des centres de données à grande échelle, renforçant la capacité d'infrastructure IA souveraine de l'Union Européenne.

BusinessActu
1 source
50Ars Technica AI 

Nvidia prépare apparemment son propre concurrent open source à OpenClaw

Nvidia prépare le lancement de NemoClaw, une plateforme open source d'agents IA destinée à concurrencer OpenClaw, selon un rapport de Wired. La société aurait déjà approché plusieurs partenaires corporate — dont Salesforce, Cisco, Google, Adobe et CrowdStrike — avant sa conférence développeurs annuelle. NemoClaw s'attaque directement à OpenClaw, le système d'agents "toujours actifs" dont le créateur Peter Steinberger a été recruté par OpenAI le mois dernier.

OutilsActu
1 source