Aller au contenu principal
BusinessAWS ML Blog1sem

AWS et NVIDIA renforcent leur collaboration stratégique pour accélérer le passage de l'IA du pilote à la production

1 source couvre ce sujet·Source originale ↗·
Résumé IA

AWS et NVIDIA ont annoncé lors du GTC 2026 un partenariat élargi incluant le déploiement de plus d'un million de GPU NVIDIA (architectures Blackwell et Rubin) dans les régions cloud AWS dès 2026. AWS devient le premier grand fournisseur cloud à supporter les GPU RTX PRO 4500 Blackwell Server Edition sur Amazon EC2, couvrant des usages variés comme l'IA conversationnelle, l'analytique et le rendu vidéo. La collaboration inclut également une accélération de l'inférence LLM via NVIDIA NIXL sur AWS EFA, des performances Apache Spark 3x plus rapides avec Amazon EMR, et un support étendu des modèles NVIDIA Nemotron sur Amazon Bedrock.

Impact France/UE

Les entreprises et développeurs européens utilisant AWS pourront accéder aux nouvelles instances GPU Blackwell pour leurs déploiements IA en production.

AI is moving fast, and for most of our customers, the real opportunity isn’t in experimenting with it—it’s in running AI in production where it drives meaningful business outcomes. This means building systems that run reliably, perform at scale, and meet your organization’s security and compliance requirements. Today at NVIDIA GTC 2026, AWS and NVIDIA announced an expanded collaboration with new technology integrations to support growing AI compute demand and help you build and run AI solutions that are production-ready. These integrations span accelerated computing, interconnect technologies, and model fine-tuning and inference. They include: The deployment of more than 1 million NVIDIA GPUs across AWS Regions starting in 2026 Amazon Elastic Compute Cloud (Amazon EC2) support for NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs—first among major cloud providers Interconnect acceleration for disaggregated LLM inference with NVIDIA NIXL on AWS Elastic Fabric Adapter (EFA) 3x faster Apache Spark performance using Amazon EMR on Amazon Elastic Kubernetes Service (Amazon EKS) with Amazon EC2 G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs Expanded NVIDIA Nemotron model support on Amazon Bedrock . Major announcements at NVIDIA GTC 2026 Scaling AI infrastructure with expanded GPU options and optimized interconnect Accelerating compute capacity in the agentic AI era Starting in 2026, AWS will add more than 1 million NVIDIA GPUs including Blackwell and Rubin GPU architectures across our global cloud regions. AWS offers the broadest collection of NVIDIA GPU-based instances of any cloud provider to power a diverse set of AI/ML workloads. AWS and NVIDIA are also collaborating on Spectrum networking and other infrastructure areas, adding to over 15 years of joint innovation between our two companies. AWS’s advanced cloud and AI infrastructure provides enterprises, startups, and researchers with the infrastructure needed to build and scale agentic AI systems—capable of reasoning, planning, and acting autonomously across complex workflows. New Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs Today, we announced that Amazon EC2 instances accelerated by NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs are coming soon. AWS is the first major cloud provider to announce support for RTX PRO 4500 Blackwell Server Edition GPUs. These instances are well-suited for a wide range of workloads, including data analytics, conversational AI, content generation, recommender systems, video streaming, video rendering, and other graphics workloads. Amazon EC2 instances accelerated by NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs will be built on the AWS Nitro System , a combination of dedicated hardware and lightweight hypervisor which delivers practically all of the compute and memory resources of the host hardware to your instances for better overall resource utilization and performance. The Nitro System’s specialized hardware, software, and firmware are designed to enforce restrictions so that nobody, including anyone at AWS, can access your sensitive AI workloads and data. In addition, the Nitro System supports firmware updates, bug fixes, and optimizations while the system remains operational. These capabilities within the Nitro System enable the enhanced resource efficiency, security, and stability that AI, analytics, and graphics workloads require in production. Accelerating interconnect for disaggregated LLM inference with NVIDIA NIXL on AWS EFA and Trainium As model sizes grow, communication overhead between GPUs or Trainium can become a bottleneck. Today, we announced support for NVIDIA Inference Xfer Library (NIXL) with AWS EFA to accelerate disaggregated Large Language Model (LLM) inference on Amazon EC2, across NVIDIA GPUs and AWS Trainiums. Accelerating disaggregated inference is critical for scaling modern AI workloads because it enables efficient overlap of communication and computation while minimizing communication latency and maximizing GPU utilization. This integration enables high-throughput, low-latency KV-cache data movement between GPU compute nodes performing token generation and distributed memory resources that store KV-cache state. It also provides the flexibility to build inference clusters using any combination of GPU and Trainium EFA-enabled EC2 instances. NIXL with EFA integrates natively with popular open-source frameworks such as NVIDIA Dynamo, vLLM, and SGLang, delivering improved inter-token latency and more efficient KV-cache memory utilization. Accelerating data analytics with Amazon EMR and NVIDIA GPUs Running Apache Spark 3x faster using Amazon EMR on Amazon EKS with G7e instances Data engineers and data scientists frequently face hours-long data processing pipelines that slow AI/ML model iteration and business intelligence generation. We’re seeing significant performance gains for these workloads—AWS and NVIDIA deliver 3x faster performance

À lire aussi

1MIT Technology Review56min

Le commerce agentique repose sur la vérité et le contexte

L'intelligence artificielle agentique est en train de transformer le commerce numérique en profondeur. Là où les assistants numériques se contentaient jusqu'ici de proposer des options, les agents IA exécutent désormais des transactions complètes de façon autonome — réserver un voyage, comparer des offres, autoriser un paiement — sans intervention humaine. Ce changement déplace le goulot d'étranglement du commerce : les paiements s'effectuent déjà en quelques millisecondes, mais désormais c'est toute la chaîne en amont (découverte, comparaison, décision, autorisation) qui s'accélère. Le vrai défi n'est plus la vitesse, mais la confiance à l'échelle machine. Pour que ce modèle fonctionne sans dérailler, les entreprises doivent repenser leurs fondations de données. Un agent ne peut pas, comme un humain, déduire par le contexte que "Delta" désigne la compagnie aérienne et non le fabricant de robinetterie. Il a besoin de signaux déterministes. Des enregistrements clients dupliqués, des attributs produits incomplets ou des identités de marchands ambiguës — tolérables dans un flux humain — deviennent des sources d'erreurs critiques dès qu'un agent agit sans supervision. Les conséquences sont concrètes : mauvais produit livré, mauvais bénéficiaire payé, action contraire à l'intention de l'utilisateur malgré des permissions valides. La gestion des données maîtresses (MDM) — discipline consistant à établir un enregistrement unique et autoritatif pour chaque entité — devient alors la couche d'échange indispensable : elle définit qui représente l'agent, ce qu'il peut faire, et où se situe la responsabilité quand de la valeur est transférée. Plus on souhaite d'autonomie, plus l'investissement dans des données propres et une résolution d'entités fiable devient non négociable. Le commerce agentique introduit un troisième participant dans l'équation traditionnelle acheteurs/vendeurs : l'agent lui-même, qui doit être traité comme une entité à part entière avec ses propres permissions, limites et responsabilités. Ce paradigme s'inscrit dans une évolution plus large vers des marchés automatisés, qui fonctionnent déjà efficacement — à condition que l'identité, l'autorité et la responsabilité soient clairement établies dès le départ.

BusinessOpinion
1 source
2Blog du Modérateur1h

OpenAI abandonne son application Sora et perd un accord à un milliard de dollars

OpenAI a discrètement abandonné son application Sora, son générateur de vidéos par intelligence artificielle, seulement six mois après son lancement. Cette décision s'accompagne de la perte d'un accord commercial d'un milliard de dollars, sans qu'aucune explication officielle n'ait été communiquée par la société. Cette fermeture illustre les difficultés persistantes d'OpenAI à monétiser ses produits grand public au-delà de ChatGPT. Perdre un contrat d'une telle envergure soulève des questions sur la viabilité économique de ses outils créatifs, dans un marché de la génération vidéo pourtant en pleine effervescence. Sora avait été présenté comme une avancée majeure lors de son annonce en février 2024, capable de générer des vidéos réalistes à partir de simples descriptions textuelles. OpenAI fait face à une concurrence croissante dans ce segment, notamment de Runway, Kling et Google.

BusinessActu
1 source
3The Decoder1h

Disney se retire du partenariat avec OpenAI après l'arrêt de Sora quelques mois après son lancement

OpenAI met fin à son application Sora et à son API, quelques mois seulement après leur lancement. En conséquence, Disney se retire du partenariat milliardaire signé avec OpenAI en décembre dernier, abandonnant ainsi un accord conclu il y a moins de quatre mois. Ce revirement illustre la fragilité des partenariats noués autour de produits encore instables. Pour Disney, l'arrêt de Sora prive l'accord de sa raison d'être principale — l'entreprise avait probablement misé sur la génération vidéo pour ses productions créatives. La décision d'OpenAI de tuer le produit si rapidement soulève des questions sur la viabilité commerciale de Sora et sur la confiance que les grands groupes peuvent accorder à ses offres. Sora, l'outil de génération vidéo par IA d'OpenAI, avait été présenté comme une avancée majeure, mais n'a manifestement pas trouvé son marché en conditions réelles.

BusinessOpinion
1 source
4Le Big Data2h

Mirage lève 75 M$ auprès de General Catalyst pour booster son appli vidéo IA

Mirage, la startup américaine spécialisée dans la création vidéo par intelligence artificielle, a levé 75 millions de dollars auprès du Customer Value Fund de General Catalyst, portant son financement total à plus de 175 millions de dollars. Cet investissement est destiné au développement de nouveaux modèles pour Captions, son application phare de montage vidéo assisté par IA. La plateforme revendique aujourd'hui plus de 20 millions d'utilisateurs dans le monde — des créateurs de contenu individuels comme des équipes marketing de grandes entreprises telles que HubSpot, CoreWeave et King. En un an, l'application a été téléchargée 3,2 millions de fois et a généré 28,4 millions de dollars de revenus intégrés, avec plus de 200 millions de vidéos créées. Fait notable : seulement un quart des revenus provient des États-Unis, signe d'une audience résolument internationale. Ce financement marque une étape dans la transformation plus large de la startup, qui a changé de nom — passant de Captions à Mirage — pour affirmer son positionnement comme laboratoire d'IA à vocation industrielle. En janvier 2025, elle a adopté un modèle freemium pour concurrencer CapCut de ByteDance (plus d'un milliard de téléchargements, 323 millions d'utilisateurs actifs mensuels) et Edits de Meta. Elle développe désormais ce qu'elle appelle une « intelligence d'assemblage », capable de composer des vidéos à partir de sources multiples, ainsi qu'un modèle audio conçu pour mieux respecter les accents des locuteurs non anglophones — un besoin concret identifié auprès de ses utilisateurs internationaux. L'objectif affiché est de rapprocher sa suite marketing web et son application mobile Captions, pour permettre aux petites entreprises de produire des contenus vidéo à grande échelle, de manière automatisée. Ce tour de table s'inscrit dans un contexte d'investissement massif dans l'IA générative : en 2025, plus de la moitié des capitaux levés par le capital-risque mondial ont été orientés vers des startups IA, notamment dans des secteurs comme le marketing, où 71 % des directeurs prévoient d'augmenter significativement leurs dépenses en IA générative d'ici 2027 selon BCG. Mirage se positionne précisément à cette intersection entre création vidéo automatisée et besoins marketing des entreprises.

UEAvec 75 % des revenus générés hors États-Unis, l'application compte vraisemblablement une base d'utilisateurs européenne significative, mais aucune implication réglementaire ou institutionnelle directe pour la France ou l'UE n'est identifiée.

BusinessActu
1 source