Aller au contenu principal
Présentation du Cluster d'Entraînement en tant que Service : une nouvelle collaboration avec NVIDIA
BusinessHuggingFace Blog47sem

Présentation du Cluster d'Entraînement en tant que Service : une nouvelle collaboration avec NVIDIA

Résumé IASource uniqueImpact UE
Source originale ↗·

Le Cluster d'Entraînement en tant que Service (CTS) est le résultat d'une collaboration entre une entité non identifiée et NVIDIA, visant à fournir un accès flexible et évolutif aux ressources de calcul pour l'entraînement des modèles d'IA. Cette initiative offre une solution pour répondre aux besoins croissants en matière de deep learning et de machine learning.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GTC 2026 : IBM et NVIDIA accélèrent l’IA en entreprise avec une nouvelle stratégie
1Le Big Data 

GTC 2026 : IBM et NVIDIA accélèrent l’IA en entreprise avec une nouvelle stratégie

Lors du GTC 2026, IBM et NVIDIA ont renforcé leur partenariat pour aider les entreprises à passer de l'expérimentation à un déploiement massif de l'IA, en s'attaquant aux freins liés aux données dispersées, aux infrastructures inadaptées et aux contraintes réglementaires. La collaboration intègre les GPU NVIDIA dans le moteur watsonx.data d'IBM via l'accélération SQL Presto, avec des résultats concrets : chez Nestlé, le temps de traitement des commandes est passé de 15 à 3 minutes (−83 %, performances ×30 dans 186 pays). L'offre couvre toute la chaîne IA — données structurées et non structurées (via Docling et les modèles Nemotron), infrastructure (IBM Storage Scale System 6000 certifié NVIDIA DGX) — pour une solution bout-en-bout en entreprise.

UENestlé, groupe suisse opérant dans 186 pays, a réduit son temps de traitement des commandes de 83% grâce à ce partenariat, démontrant un impact concret pour les grandes entreprises européennes qui cherchent à industrialiser leurs déploiements IA tout en respectant les contraintes réglementaires.

BusinessActu
1 source
L'IA entre dans une nouvelle phase d'accélération
2OpenAI Blog 

L'IA entre dans une nouvelle phase d'accélération

OpenAI a levé 122 milliards de dollars lors d'un nouveau tour de financement destiné à accélérer le développement de l'intelligence artificielle de frontier à l'échelle mondiale. Cette opération, l'une des plus importantes jamais réalisées dans le secteur technologique, doit permettre à la société de Sam Altman d'investir massivement dans les infrastructures de calcul de nouvelle génération et de répondre à la demande croissante pour ses produits phares — ChatGPT, Codex et ses offres enterprise. L'ampleur de ce financement traduit une course aux ressources computationnelles sans précédent : entraîner et déployer des modèles de frontier exige des milliers de GPU spécialisés et des datacenters à la consommation électrique colossale. Pour les entreprises clientes et les millions d'utilisateurs de ChatGPT, cela signifie une capacité accrue, une disponibilité améliorée et vraisemblablement de nouveaux modèles plus puissants dans les prochains mois. Cette levée s'inscrit dans une dynamique où les grands laboratoires d'IA — OpenAI, Google DeepMind, Anthropic — se livrent une compétition acharnée pour dominer la prochaine vague de l'IA générale. OpenAI, valorisé à plusieurs centaines de milliards de dollars, consolide ainsi sa position de leader tout en cherchant à convertir sa domination technologique en un modèle économique durable face à une concurrence mondiale qui s'intensifie.

UECette levée de fonds renforce la domination d'OpenAI et accentue la dépendance des entreprises et utilisateurs européens vis-à-vis des grands laboratoires américains, un enjeu direct pour la souveraineté numérique de l'UE.

BusinessActu
1 source
AWS et NVIDIA renforcent leur collaboration stratégique pour accélérer le passage de l'IA du pilote à la production
3AWS ML Blog 

AWS et NVIDIA renforcent leur collaboration stratégique pour accélérer le passage de l'IA du pilote à la production

AWS et NVIDIA ont annoncé lors du GTC 2026 un partenariat élargi incluant le déploiement de plus d'un million de GPU NVIDIA (architectures Blackwell et Rubin) dans les régions cloud AWS dès 2026. AWS devient le premier grand fournisseur cloud à supporter les GPU RTX PRO 4500 Blackwell Server Edition sur Amazon EC2, couvrant des usages variés comme l'IA conversationnelle, l'analytique et le rendu vidéo. La collaboration inclut également une accélération de l'inférence LLM via NVIDIA NIXL sur AWS EFA, des performances Apache Spark 3x plus rapides avec Amazon EMR, et un support étendu des modèles NVIDIA Nemotron sur Amazon Bedrock.

UELes entreprises et développeurs européens utilisant AWS pourront accéder aux nouvelles instances GPU Blackwell pour leurs déploiements IA en production.

BusinessActu
1 source
OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique
4Le Big Data 

OpenAI tacle Microsoft : l’alliance avec Amazon devient la nouvelle priorité stratégique

OpenAI vient de franchir une étape symbolique dans sa stratégie commerciale : selon une note interne de Denise Dresser, directrice des revenus de l'entreprise, le partenariat signé avec Amazon représente désormais un moteur de croissance prioritaire pour le segment enterprise. Ce partenariat, annoncé il y a moins de deux mois et adossé à un engagement financier d'Amazon de 50 milliards de dollars, s'appuie sur AWS Bedrock, la plateforme cloud qui permet aux entreprises d'accéder à plusieurs modèles d'IA dont ceux d'OpenAI. Dans la même note, Dresser reconnaît explicitement que l'alliance historique avec Microsoft, qui a investi plus de 13 milliards de dollars depuis 2019, « restreint » désormais la capacité d'OpenAI à répondre aux besoins du marché. Le segment enterprise représente déjà 40 % du chiffre d'affaires d'OpenAI, et la demande enregistrée depuis l'intégration via Bedrock est décrite comme « stupéfiante ». Ce pivotement stratégique a des conséquences directes pour les clients entreprises et pour l'ensemble de l'industrie cloud. En permettant l'accès à ses modèles via AWS plutôt qu'exclusivement via Azure, OpenAI s'aligne sur les infrastructures déjà en place chez la majorité de ses clients B2B, levant ainsi un frein concret à l'adoption. La flexibilité offerte par Bedrock, présentée comme une couche d'accès plus ouverte que l'écosystème Microsoft, répond à une demande réelle du marché. Pour OpenAI, l'enjeu est aussi défensif : Anthropic, avec son modèle Claude, a enregistré un chiffre d'affaires annualisé supérieur à 30 milliards de dollars et gagne rapidement du terrain dans les entreprises, au point d'avoir généré ce qu'on a appelé la « Claudemania » lors de la conférence HumanX à San Francisco. La relation entre OpenAI et Microsoft se dégrade donc progressivement depuis mi-2024, date à laquelle Microsoft a officiellement classé OpenAI parmi ses concurrents dans son rapport annuel, aux côtés d'Amazon, Google et Meta. Redmond développe en parallèle ses propres modèles d'IA et renforce Copilot, réduisant mécaniquement sa dépendance à son ancien partenaire exclusif. OpenAI, de son côté, diversifie déjà ses fournisseurs de calcul vers Oracle, Google et CoreWeave. Ce décroisement progressif dessine une nouvelle carte du pouvoir dans l'IA enterprise : des alliances moins exclusives, plus pragmatiques, dictées par la présence réelle des clients dans les écosystèmes cloud. La bataille pour le marché B2B de l'IA n'en est qu'à ses débuts, et chaque géant repositionne ses pièces en conséquence.

UELes entreprises européennes déjà hébergées sur AWS peuvent désormais accéder aux modèles OpenAI via Bedrock sans migration vers Azure, réduisant concrètement le frein à l'adoption de l'IA dans les environnements cloud existants.

💬 Microsoft a mis 13 milliards sur la table depuis 2019 et se retrouve aujourd'hui listé comme concurrent dans les rapports annuels d'OpenAI, c'est assez symptomatique de la vitesse à laquelle les alliances se déconstruisent dans ce secteur. Le fond du sujet, c'est que les clients enterprise sont déjà sur AWS, pas sur Azure, et OpenAI a visiblement décidé d'aller là où se trouvent les deals plutôt que de défendre une exclusivité qui lui coûte des contrats. La pression de Claude en arrière-plan accélère tout ça.

BusinessOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour