Aller au contenu principal
InfrastructureNVIDIA AI Blog1h

Propulser le siècle américain : Chris Wright et Ian Buck de NVIDIA sur la mission Genesis

Résumé IASource uniqueImpact UE
Source originale ↗·

Le secrétaire américain à l'Énergie Chris Wright et Ian Buck, vice-président d'NVIDIA chargé du HPC et de l'hyperscale, se sont exprimés jeudi lors de l'AI+ Expo organisée par le SCSP à Washington. Leur message central : la compétitivité américaine dans l'intelligence artificielle passe par la maîtrise de l'énergie. Au coeur du dispositif figure la Genesis Mission, programme du Département de l'Énergie (DOE) visant à appliquer l'IA à la découverte scientifique. NVIDIA en est l'un des partenaires industriels clés, fort selon Buck de vingt ans de collaboration avec les laboratoires nationaux américains. Concrètement, NVIDIA et le DOE construisent ensemble deux supercalculateurs à l'Argonne National Laboratory : le premier, baptisé Equinox, est actuellement en cours d'installation avec 10 000 GPU Grace Blackwell ; le second, Solstice, mobilisera 100 000 GPU de la prochaine génération Vera Rubin, pour une puissance de 5 000 exaflops, soit cinq fois la capacité cumulée de l'ensemble du classement TOP500 des supercalculateurs mondiaux. NVIDIA a également entraîné un modèle open source sur 1,5 million d'articles de physique, puis affiné sur 100 000 publications dédiées à la fusion nucléaire, pour produire un agent IA interrogeable par les chercheurs du DOE.

L'enjeu est double : accélérer la recherche scientifique fondamentale et résoudre, par la même occasion, le problème énergétique que l'IA elle-même crée. Wright a souligné que si les États-Unis ont triplé leur production pétrolière et doublé leur production de gaz naturel au cours des vingt dernières années, la production d'électricité, elle, a à peine progressé. Or l'électricité est précisément le vecteur énergétique dont dépend l'IA. Sans une infrastructure électrique capable de croître rapidement, ce sont les progrès de l'IA eux-mêmes qui pourraient être freinés, a prévenu le secrétaire.

Pour répondre à cette contrainte, le DOE s'appuie sur les trois piliers du réseau électrique américain : gaz naturel, nucléaire et charbon. Wright a annoncé que trois petits réacteurs modulaires (SMR) entreront en service avant le 4 juillet prochain, avec de nouveaux grands réacteurs et des SMR supplémentaires attendus dans la foulée. Un bureau stratégique dédié à la fusion nucléaire a également été créé au sein du département, avec des programmes de recherche que Wright décrit comme "hyperchargés" grâce aux capacités de calcul que l'IA apporte désormais. Jensen Huang, PDG de NVIDIA, a lui résumé la chaîne de valeur de l'IA comme un gâteau à cinq couches, dont l'énergie constitue la base. La Genesis Mission incarne cette logique de boucle vertueuse : l'IA finance et accélère les sciences de l'énergie, qui à leur tour alimentent l'infrastructure dont l'IA a besoin pour continuer à progresser.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1NVIDIA AI Blog 

NVIDIA et ses partenaires présentent l'avenir de la fabrication pilotée par l'IA à Hannover Messe 2026

NVIDIA et ses partenaires industriels investissent Hannover Messe 2026, le salon phare de l'industrie manufacturière qui se tient du 20 au 24 avril à Hanovre, en Allemagne, pour y présenter ce qu'ils considèrent comme la prochaine révolution de la production : l'usine pilotée par l'intelligence artificielle. Au programme, des démonstrations concrètes couvrant l'informatique accélérée, la simulation physique en temps réel, les agents autonomes et les robots humanoïdes opérant en environnement industriel. Parmi les temps forts, l'annonce de l'Industrial AI Cloud, l'un des plus grands centres d'IA d'Europe, construit en Allemagne par Deutsche Telekom sur infrastructure NVIDIA. Des géants comme SAP, Siemens, ABB, Dassault Systèmes, Cadence ou encore Synopsys y participent, aux côtés d'acteurs spécialisés comme Agile Robots, Wandelbots et PhysicsX. EDAG, prestataire indépendant d'ingénierie, a par ailleurs annoncé le déploiement de sa plateforme de métavers industriel "metys" sur ce cloud souverain, ciblant l'automobile et l'ingénierie lourde. L'enjeu est considérable : l'industrie manufacturière mondiale fait face à une pression simultanée sur les cycles de conception, les coûts opérationnels et la disponibilité de main-d'œuvre qualifiée. L'IA n'est plus une option expérimentale mais un levier de compétitivité immédiat. Les jumeaux numériques à l'échelle d'une usine entière, construits sur les bibliothèques Omniverse de NVIDIA et le standard ouvert OpenUSD, permettent désormais de simuler, tester et optimiser des lignes de production en continu, sans interruption physique. ABB, par exemple, intègre ces outils dans sa suite Genix pour analyser la performance des équipements et accélérer la recherche de causes de pannes via des agents IA. Pour les ingénieurs, la simulation physique en temps réel change radicalement le processus de conception : là où des heures de calcul étaient nécessaires, des résultats apparaissent en secondes. Cette offensive de NVIDIA dans l'industrie s'inscrit dans une stratégie plus large visant à faire de l'informatique accélérée le socle de la transformation industrielle européenne. Le concept de "souveraineté numérique" est central : face aux craintes européennes de dépendance aux clouds américains, l'Industrial AI Cloud positionné en Allemagne répond à une demande politique autant qu'économique. CUDA-X, Omniverse, les modèles ouverts Nemotron et les puces NVIDIA équipent désormais les logiciels des éditeurs les plus influents du secteur, de Siemens à Dassault Systèmes, créant un écosystème interdépendant difficile à contourner. Dell, IBM, Lenovo et PNY complètent l'offre avec des systèmes accélérés déployables de la périphérie jusqu'aux datacenters. La prochaine étape, déjà visible à Hanovre, est l'intégration de robots humanoïdes dans les chaînes de production, un marché où NVIDIA entend jouer un rôle d'infrastructure aussi structurant que dans l'IA générative.

UEL'Industrial AI Cloud inauguré en Allemagne par Deutsche Telekom sur infrastructure NVIDIA, avec la participation de Dassault Systèmes et Siemens, offre aux industriels européens une infrastructure cloud souveraine pour déployer l'IA en production.

InfrastructureActu
1 source
IA et souveraineté numérique : la France choisit AMD pour son infrastructure ?
2Le Big Data 

IA et souveraineté numérique : la France choisit AMD pour son infrastructure ?

La France a officialisé un partenariat pluriannuel avec AMD, le fabricant américain de semi-conducteurs, pour accélérer son infrastructure nationale en intelligence artificielle. L'accord a été signé au ministère de l'Économie et des Finances à Paris, en présence de trois ministres : Philippe Baptiste (Enseignement supérieur et Recherche), Sébastien Martin (Industrie) et Anne Le Hénanff (Numérique), ainsi que Keith Strier, vice-président senior d'AMD pour les marchés IA. Au coeur du dispositif figure le supercalculateur Alice Recoque, développé avec le GENCI, le CEA et le consortium Jules Verne, et dont la puissance visée atteint un exaflop, soit un milliard de milliards d'opérations par seconde. AMD fournira les briques technologiques aux côtés de Bull, désormais sous contrôle de l'État français, et un centre d'excellence sera chargé d'optimiser l'exploitation de cette infrastructure. Le partenariat inclut également un accès élargi aux programmes de formation du fabricant américain : AMD University Program, AMD AI Developer Program et AMD AI Academy. Ce partenariat représente une tentative concrète de combler le fossé entre excellence académique française et industrialisation de l'IA à grande échelle, un manque chroniquement identifié en Europe. En donnant aux chercheurs, start-up et ingénieurs français un accès direct aux technologies qui alimentent déjà les systèmes d'IA les plus avancés au monde, l'accord vise à accélérer le passage de la recherche au déploiement en production. L'infrastructure Alice Recoque ouvrira par ailleurs des capacités de calcul jusqu'ici inaccessibles à l'échelle nationale, couvrant des domaines aussi variés que la simulation climatique, la recherche scientifique avancée ou les applications à usage militaire. Elle alimentera aussi la future AI Factory France, destinée à structurer l'ensemble de la filière industrielle de l'IA dans le pays. Cette collaboration s'inscrit dans un contexte de course mondiale au calcul haute performance, où la France, comme le reste de l'Europe, peine à peser face aux États-Unis et à la Chine. Le choix d'AMD soulève néanmoins une question de fond sur la souveraineté numérique : peut-on revendiquer une autonomie stratégique en matière d'IA lorsque l'infrastructure repose sur un acteur américain ? La réalité industrielle laisse peu de marges de manoeuvre, les technologies de pointe en semi-conducteurs et en calcul étant aujourd'hui quasi exclusivement détenues par des entreprises non européennes. La France semble avoir arbitré en faveur de la performance immédiate, tout en espérant que cet écosystème d'excellence, de formation et de recherche posera les bases d'une plus grande autonomie technologique à moyen terme.

UELe partenariat engage directement la souveraineté numérique de la France en confiant à AMD les briques technologiques du supercalculateur Alice Recoque (1 exaflop) et de la future AI Factory France, pilier de la filière IA nationale.

💬 AMD pour "souveraineté numérique", c'est un oxymore qui fait mal à lire. Bon, sur le papier, un exaflop avec Alice Recoque et l'accès aux programmes de formation AMD, c'est du concret pour les chercheurs et les startups qui galèrent à avoir du compute. Mais confier les fondations de ta filière IA nationale à un acteur américain en appelant ça de l'autonomie stratégique, faut avoir un sacré sens de l'humour.

InfrastructureOpinion
1 source
NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents
3NVIDIA AI Blog 

NVIDIA et Google Cloud s'associent pour faire avancer l'IA physique et à base d'agents

NVIDIA et Google Cloud ont annoncé cette semaine, lors de la conférence Google Cloud Next à Las Vegas, une nouvelle étape majeure dans leur partenariat vieux de plus de dix ans. Au cœur de l'annonce : le lancement des instances bare-metal A5X, alimentées par les systèmes rack NVIDIA Vera Rubin NVL72, qui promettent un coût d'inférence jusqu'à dix fois inférieur et un débit de tokens dix fois plus élevé par mégawatt par rapport à la génération précédente. Ces infrastructures s'appuient sur les interconnexions NVIDIA ConnectX-9 SuperNICs couplées au réseau Google Virgo de nouvelle génération, permettant de déployer des clusters allant jusqu'à 80 000 GPU Rubin sur un site unique, et jusqu'à 960 000 GPU dans une configuration multisite. Par ailleurs, Google Cloud met en préversion les modèles Gemini sur Google Distributed Cloud avec les GPU NVIDIA Blackwell et Blackwell Ultra, ainsi que des machines virtuelles confidentielles garantissant le chiffrement des données en cours d'utilisation. Des acteurs comme OpenAI et Thinking Machines Lab utilisent déjà ces infrastructures pour des charges d'inférence massives, notamment pour faire tourner ChatGPT. Ces annonces représentent un saut qualitatif significatif pour les entreprises qui cherchent à industrialiser l'IA agentique et l'IA physique, c'est-à-dire les systèmes capables d'agir de manière autonome dans des environnements réels, comme les robots ou les jumeaux numériques en usine. La réduction drastique des coûts d'inférence change concrètement l'équation économique pour les développeurs d'applications IA à grande échelle. La possibilité de déployer les modèles Gemini en environnement souverain, sur des données sensibles restant chiffrées y compris pendant leur traitement, répond à une exigence croissante des entreprises et des gouvernements en matière de conformité et de confidentialité. L'intégration de modèles ouverts NVIDIA Nemotron dans la plateforme Gemini Enterprise Agent Platform élargit également les options des équipes techniques qui souhaitent combiner modèles propriétaires et open source. Ce partenariat s'inscrit dans une compétition intense entre les grands fournisseurs de cloud pour capter les budgets d'infrastructure IA, qui se chiffrent désormais en dizaines de milliards de dollars annuellement. Google Cloud cherche à rattraper son retard sur AWS et Microsoft Azure, qui ont pris de l'avance sur l'hébergement des charges d'entraînement et d'inférence des grands modèles de langage. En s'associant étroitement à NVIDIA, dont les GPU dominent encore largement le marché de l'accélération IA, Google se positionne comme une plateforme de référence pour la prochaine vague, celle des agents autonomes et de la robotique industrielle. La feuille de route annoncée, avec la transition de Blackwell vers Vera Rubin, suggère que la cadence d'innovation s'accélère et que les entreprises devront adapter leur infrastructure régulièrement pour rester compétitives.

UELe déploiement souverain de Gemini sur Google Distributed Cloud avec chiffrement des données en cours d'utilisation répond aux exigences RGPD des entreprises européennes traitant des données sensibles.

InfrastructureOpinion
1 source
Guide pratique : utiliser le Transformer Engine NVIDIA avec précision mixte, vérifications FP8 et exécution de secours
4MarkTechPost 

Guide pratique : utiliser le Transformer Engine NVIDIA avec précision mixte, vérifications FP8 et exécution de secours

Le Transformer Engine de NVIDIA s'impose progressivement comme un outil de référence pour accélérer l'entraînement des modèles de deep learning en entreprise. Un tutoriel technique publié récemment propose une implémentation complète en Python, couvrant l'installation des composants, la vérification de la compatibilité GPU et CUDA, ainsi que la comparaison directe entre un pipeline PyTorch standard et un pipeline optimisé via le Transformer Engine. La démonstration construit deux réseaux neuronaux (enseignant et élève), les entraîne en parallèle, mesure leurs performances respectives en termes de vitesse d'exécution et de consommation mémoire, et produit des visualisations comparatives. Le tutoriel prend soin de gérer les échecs d'installation silencieusement, de manière à ce que le notebook reste exécutable même lorsque l'extension native ne peut pas être compilée, via un mode de repli automatique. Ce type d'outillage répond à un besoin concret des équipes d'IA cherchant à réduire les coûts d'entraînement sans changer d'architecture. Le Transformer Engine exploite la précision FP8 (8 bits flottants), disponible sur les GPU NVIDIA à partir de l'architecture Hopper (H100), pour effectuer les calculs matriciels les plus lourds avec une empreinte mémoire réduite et un débit augmenté, tout en maintenant la précision finale du modèle grâce à la gestion automatique des facteurs d'échelle. En pratique, cela peut se traduire par des gains de vitesse significatifs sur les passes avant et arrière des transformers, réduisant directement le temps et le coût des runs d'entraînement à grande échelle. L'approche intéresse aussi bien les laboratoires de recherche que les équipes MLOps en production. NVIDIA a développé le Transformer Engine en réponse à la montée en puissance des modèles de langage et de vision nécessitant des milliards de paramètres, pour lesquels la précision FP32 ou même FP16 devient un goulot d'étranglement. Introduit officiellement avec les GPU H100 et le framework TransformerEngine open source, il s'intègre à PyTorch et JAX via des couches drop-in comme te.Linear et te.TransformerLayer. La complexité d'installation, notamment la nécessité d'un compilateur NVCC et des headers cuDNN présents sur la machine, freine encore son adoption hors des environnements cloud spécialisés. Le tutoriel aborde précisément ce point de friction en proposant une détection automatique de l'environnement et un fallback propre, ce qui devrait abaisser la barrière d'entrée pour les équipes souhaitant expérimenter avant de migrer leurs pipelines de production vers cette technologie.

InfrastructureTuto
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour