Aller au contenu principal
InfrastructureNext INpact1h

☕️ AMD lance sa Radeon Instinct MI350P : un demi-GPU de MI350X en PCIe 5.0

Résumé IASource uniqueImpact UE
Source originale ↗·

AMD a officiellement présenté l'Instinct MI350P, un nouveau GPU d'intelligence artificielle destiné aux serveurs standards. Cette carte se distingue de ses aînées MI350X et MI355X par son format PCIe 5.0, qui lui permet d'être installée directement dans un serveur ou un ordinateur classique, sans infrastructure spécialisée. Elle repose sur la même architecture CDNA4 que le reste de la famille MI350, mais avec des caractéristiques exactement divisées par deux : 144 Go de mémoire HBM3E contre 288 Go pour la MI350X, une bande passante mémoire de 4 To/s contre 8 To/s, et 8 192 processeurs de flux pour 4,6 PFLOPS en précision MXFP4, là où la MI350X atteint 9,2 PFLOPS avec ses 16 384 processeurs. Le TDP est plafonné à 600 watts, la fréquence reste à 2,2 GHz, et la carte occupe deux emplacements. Le prix n'a pas encore été communiqué.

Cette MI350P cible en priorité les charges d'inférence, c'est-à-dire l'exécution de modèles d'IA déjà entraînés, plutôt que leur apprentissage. Son format PCIe standard ouvre le marché des IA aux opérateurs disposant de parcs de serveurs classiques, qui n'ont pas les moyens ou la nécessité d'investir dans des infrastructures haute densité avec refroidissement liquide. Pour les entreprises cherchant à déployer des modèles de taille intermédiaire à moindre coût d'intégration, la MI350P représente une alternative sérieuse face aux offres concurrentes de NVIDIA sur ce segment.

Cette annonce s'inscrit dans une stratégie AMD clairement articulée : couvrir l'ensemble du spectre de performance avec des variantes adaptées à chaque usage. Après avoir lancé la MI350X pour les supercalculateurs et la MI355X avec refroidissement liquide pour les déploiements à très haute densité, AMD comble le segment des serveurs polyvalents avec la MI350P. La pression de NVIDIA reste intense, notamment avec la famille Blackwell, mais AMD cherche à convaincre les grands hyperscalers et les entreprises cloud de diversifier leurs approvisionnements. La prochaine étape sera la communication des tarifs, un signal décisif pour évaluer la compétitivité réelle de cette carte sur le marché de l'inférence IA.

Impact France/UE

Les entreprises européennes exploitant des parcs de serveurs classiques pourraient déployer de l'inférence IA à moindre coût d'intégration grâce au format PCIe 5.0, sans investissement en infrastructure haute densité.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Yixing Intelligence lève 1,5 milliard de yuans en série B pour ses puces IA RISC-V
1Pandaily 

Yixing Intelligence lève 1,5 milliard de yuans en série B pour ses puces IA RISC-V

La startup chinoise de puces IA Yixing Intelligence a annoncé le 22 avril 2026 la clôture d'un tour de série B de 1,5 milliard de yuans, soit environ 210 millions de dollars. Le tour a été co-piloté par plusieurs fonds d'investissement industriels basés à Pékin, avec la participation de multiples investisseurs institutionnels. Fondée en 2022, l'entreprise se spécialise dans les puces IA basées sur l'architecture RISC-V. Sa gamme phare, la série Epoch, cible les grands modèles de langage et les charges de travail en apprentissage profond, avec un support de la précision FP8 et une compatibilité avec des formats de précision inférieure pour améliorer l'efficacité et la flexibilité du déploiement. Yixing propose une solution complète couvrant les puces, les cartes accélératrices PCIe et les clusters de serveurs, accompagnée d'un écosystème logiciel intégrant compilateurs et systèmes d'exécution. Ce financement intervient à un moment où la Chine cherche activement à développer une industrie des semi-conducteurs indépendante face aux restrictions américaines à l'exportation. Pour les acteurs de l'IA qui déploient des infrastructures de calcul intensif, une solution comme celle de Yixing représente une alternative crédible aux GPU d'Nvidia, dont l'accès est de plus en plus limité pour les entreprises chinoises. La technologie d'interconnexion haute vitesse propriétaire de la société, qui permet des déploiements multi-noeuds à grande échelle, répond directement aux besoins des centres de données entraînant des modèles de plusieurs milliards de paramètres. L'essor de Yixing Intelligence s'inscrit dans une dynamique plus large de montée en puissance des champions nationaux de semi-conducteurs en Chine, portée à la fois par les politiques industrielles de Pékin et par l'urgence stratégique créée par les contrôles à l'exportation américains sur les puces avancées. L'architecture RISC-V, ouverte et libre de droits, est au coeur de cette stratégie : elle permet aux entreprises chinoises de concevoir des puces sans dépendre de la propriété intellectuelle d'ARM ou d'x86, majoritairement détenue par des sociétés occidentales. Les fonds levés seront utilisés pour accélérer la mise en production de masse, développer la prochaine génération de produits et élargir l'écosystème partenaire, ce qui laisse anticiper une montée en puissance commerciale significative dans les prochains mois.

InfrastructureActu
1 source
Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?
2Le Big Data 

Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?

Meta a annoncé le 9 avril 2026 un nouvel accord de 21 milliards de dollars avec CoreWeave, portant l'engagement total du groupe envers ce fournisseur de cloud GPU à plus de 35 milliards de dollars. Cet accord court jusqu'en décembre 2032 et couvre principalement des capacités de calcul dédiées à l'inférence, c'est-à-dire le traitement en temps réel des requêtes IA dans les applications grand public. L'action CoreWeave ($CRWV) a bondi d'environ 8 % à l'annonce de la nouvelle. Le partenariat inclut également un accès anticipé à la plateforme NVIDIA Vera Rubin, la prochaine génération de puces IA qui succède à l'architecture Blackwell, déployée sur plusieurs sites avant sa disponibilité commerciale large. Cet accord illustre un changement de paradigme dans la compétition en intelligence artificielle : l'infrastructure compute est désormais aussi stratégique que les modèles eux-mêmes. Les modèles Llama de Meta sont intégrés dans Facebook, Instagram, WhatsApp et Messenger, soit plusieurs milliards d'utilisateurs actifs. À cette échelle, chaque requête mobilise de la puissance de calcul, et la latence comme les coûts deviennent des variables critiques. CoreWeave, spécialisé dans les clusters GPU haute densité, peut déployer des capacités beaucoup plus rapidement qu'un hyperscaler classique en phase de construction, ce qui en fait un relais opérationnel immédiatement exploitable. L'accès anticipé aux puces Vera Rubin donne par ailleurs à Meta un avantage compétitif concret : optimiser ses modèles sur une architecture plus performante avant que ses concurrents ne puissent faire de même. Meta n'abandonne pas pour autant ses investissements internes. Le groupe prévoit entre 115 et 135 milliards de dollars de dépenses d'investissement pour 2026, dont un centre de données estimé à 10 milliards de dollars au Texas. Mais ces infrastructures propres prennent des années à construire, et l'urgence concurrentielle ne permet pas d'attendre. La stratégie adoptée est donc hybride : construire en interne pour le long terme, louer chez CoreWeave pour répondre aux besoins immédiats. Mike Intrator, PDG de CoreWeave, a résumé cette logique en évoquant un risque opérationnel trop élevé pour dépendre d'une seule approche. Ce modèle de redondance computing, mi-propriétaire mi-externalisé, pourrait rapidement devenir la norme dans l'industrie, à mesure que Google, Microsoft et Amazon font face aux mêmes tensions sur les GPU et aux mêmes exigences de rapidité d'exécution.

UECet accord renforce la concentration des ressources GPU chez les acteurs américains, réduisant indirectement la capacité des entreprises européennes à accéder à des infrastructures IA compétitives à coût et délai raisonnables.

InfrastructureOpinion
1 source
Intel prépare sa riposte : un ex de Qualcomm aux commandes de l’IA et des PC
3Le Big Data 

Intel prépare sa riposte : un ex de Qualcomm aux commandes de l’IA et des PC

Intel a annoncé le 4 mai 2026 deux nominations importantes à sa direction. Alex Katouzian, ancien vice-président exécutif de Qualcomm où il dirigeait depuis des années les activités mobiles, informatiques et de réalité étendue, rejoint Intel comme vice-président exécutif et directeur général du nouveau groupe Client Computing & Physical AI. Il rapportera directement au PDG Lip-Bu Tan. Simultaneously, Pushkar Ranade est confirmé au poste de directeur technique permanent, avec autorité sur des chantiers prospectifs aussi variés que l'informatique quantique, les technologies neuromorphiques et la photonique. Les deux hommes prennent leurs fonctions immédiatement, selon l'annonce officielle d'Intel publiée sur X le jour même. Ces nominations traduisent un repositionnement stratégique majeur pour Intel, qui cherche à redéfinir son activité PC autour de l'intelligence artificielle embarquée. Le périmètre du groupe que dirigera Katouzian va bien au-delà du PC traditionnel : il englobe la robotique, les machines autonomes et les systèmes embarqués, des marchés en forte croissance où l'IA locale devient un avantage décisif. L'objectif affiché est de transformer le PC en plateforme intelligente capable de traiter l'IA sans dépendre du cloud. Pour les fabricants de matériel, les développeurs et les entreprises industrielles, cela pourrait accélérer l'intégration de capacités IA directement dans les appareils, avec Intel comme fournisseur de puces central face à des concurrents de plus en plus agressifs. Intel traverse depuis plusieurs années une période difficile, pris en étau entre Nvidia qui domine le marché des GPU pour l'entraînement et l'inférence IA, et Qualcomm qui grignote sa part historique sur les PC avec ses puces Snapdragon X Elite. Recruter Katouzian, figure reconnue de l'écosystème Qualcomm qui a contribué à structurer le marché des smartphones et des PC connectés, est un signal offensif : Intel ne se contente plus de défendre ses positions, il vise à attaquer sur le terrain même de son ancien rival. Lip-Bu Tan, arrivé à la tête du groupe en 2025 avec un mandat de redressement, construit ainsi une équipe de direction capable de relier les produits d'aujourd'hui aux ruptures technologiques de demain. La prochaine échéance concrète sera la gamme de puces PC prévue pour 2026-2027, sur laquelle ces deux nominations auront une influence directe.

InfrastructureOpinion
1 source
Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison
4Next INpact 

Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison

Google a annoncé sa huitième génération de Tensor Processing Units (TPU), ses puces spécialisées dans les calculs d'intelligence artificielle. Pour la première fois dans l'histoire de la gamme, la firme de Mountain View propose deux variantes distinctes basées non plus sur le niveau de performance, mais sur le type d'usage : le TPU v8t, orienté vers l'entraînement des modèles, et le TPU v8i, dédié à l'inférence. C'est une rupture notable avec les générations précédentes, comme les v5e et v5p, qui se différenciaient uniquement par l'efficacité énergétique contre la puissance brute. Cette spécialisation par usage représente un changement de stratégie significatif pour Google. Selon la firme elle-même, "les deux puces peuvent gérer différentes charges de travail, mais la spécialisation permet d'obtenir des gains significatifs". En séparant l'entraînement de l'inférence au niveau matériel, Google cherche à optimiser le rapport performances/coût pour chaque étape du cycle de vie d'un modèle d'IA. Pour les entreprises clientes de Google Cloud, cela se traduit potentiellement par des coûts d'exploitation réduits et une meilleure efficacité dans le déploiement de modèles génératifs à grande échelle. Cette annonce s'inscrit dans une course aux puces IA qui s'est considérablement intensifiée depuis 2018, date des TPU v3. En huit générations, Google a construit une alternative crédible aux GPU de Nvidia, qui dominent encore largement le marché de l'accélération IA. La firme utilise ses TPU en interne pour entraîner ses propres modèles Gemini, ce qui lui confère un avantage compétitif double : maîtrise du hardware et du software. Face à la montée en puissance de concurrents comme les puces Trainium d'Amazon ou les Gaudi d'Intel, la spécialisation des TPU v8 pourrait devenir un argument commercial décisif pour attirer les grandes entreprises vers Google Cloud plutôt que vers AWS ou Azure.

UELes entreprises européennes qui s'appuient sur Google Cloud pour entraîner ou déployer des modèles d'IA pourraient bénéficier d'une réduction des coûts d'exploitation grâce à la spécialisation matérielle des TPU v8.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour