Aller au contenu principal
OutilsNext INpact1sem

SSD PCIe 6.0, HBM4 et SOCAMM2 : Micron fait « all-in » sur NVIDIA et l’IA

1 source couvre ce sujet·Source originale ↗·
Résumé IA

À la GTC 2026 de NVIDIA, Micron annonce plusieurs produits datacenter centrés sur l'IA : la HBM4 36 Go (12 couches) est en production de masse avec 2,8 To/s de bande passante, soit 2,3x la HBM3E, et des modules 48 Go (16 couches) sont en phase de qualification. Micron annonce également des modules mémoire SOCAMM2 conçus spécifiquement pour les systèmes NVIDIA Vera Rubin NVL72, rejoignant SK Hynix sur ce segment. Samsung en parallèle présente sa HBM4E (7e génération) atteignant 4 To/s, tandis que Micron prépare sa propre HBM4E 64 Go pour 2027.

Y’a autre chose que l’IA dans la vie ? HBM4 pour NVIDIA, SOCAMM2 aussi pour NVIDIA, SSD PCIe 6.0 pour les datacenters pour l’IA : vous voyez un schéma se dessiner dans les annonces de Micron ? Le fabricant fait en effet un « all-in » sur l’IA générative et ses besoins quasi exponentiels en GPU, mémoire et stockage. Micron, qui souffle le chaud et le froid sur les produits grand public face à la déferlante de l’IA générative, multiplie les annonces à l’occasion de la GTC 2026 (GPU Technology Conference) de NVIDIA. Elles concernent toutes des produits pour les datacenters, et plus particulièrement les futurs GPU Rubin de NVIDIA… ce qui ne devrait pas aider à sortir de la pénurie pour le grand public et l’explosion des prix que cela entraine. Bien d’autres annonces ont été faites, nous aurons l’occasion d’y revenir. L’explosion des prix de la mémoire, des SSD et même des HDD, sur 6 et 12 mois HBM4 36 Go en production de masse, HBM4 48 Go et HBM4E arrivent La première concerne la HBM4 ( finalisée il y a un an par le JEDEC ), la mémoire pour la nouvelle génération de puces Vera Rubin de NVIDIA : les livraisons en volume de modules de 36 Go (12H, soit 12 couches) ont débuté durant ce premier trimestre. Il faut dire que NVIDIA avance à grands pas puisque les « produits basés sur Rubin [le nouveau GPU de NVIDIA, ndlr] seront disponibles auprès de partenaires au second semestre 2026 ». NVIDIA dévoile ses CPU Vera avec 88 cœurs Arm et GPU Rubin avec 336 milliards de transistors Micron annonce des débits de 11 Gb/s par broche pour sa HBM4, soit une bande passante totale de plus de 2,8 To/s, « ce qui représente une bande passante 2,3x supérieure et une efficacité énergétique en hausse de 20 % par rapport à la HBM3E ». Dans le même temps, les premiers échantillons de modules de 48 Go (16 couches) sont livrés aux clients pour des tests et des qualifications. Samsung n’est pas en reste et annonce sa 7e génération de mémoire HBM, avec la présentation pour la première fois d’une puce physique de HBM4E à la GTC, comme le rapporte l’agence de presse Yonhap . Micron aussi a déjà annoncé son intention de se lancer dans la HBM4E, pour 2027 aux dernières nouvelles, avec des modules de 64 Go. SOCAMM2 chez Micron et SK hynix, là encore dans le sillage de NVIDIA Toujours selon nos confrères, avec la HBM4E de Samsung, les débits sont en hausse pour atteindre 16 Gb/s par broche, une bande passante totale de 4 To/s. Chez SK hynix, on se contente du minimum , en expliquant simplement que des modules « conçus pour les plateformes d’IA NVIDIA » seront présentés à la GTC, notamment de la HBM4 et de la mémoire SOCAMM2, qui est aussi au cœur des annonces de Micron. En effet, Micron se place aussi dans le sillage de NVIDIA pour ses modules mémoire SOCAMM2 (Small Outline Compression Attached Memory Module, des modules pour serveurs) qui sont « conçus pour les systèmes NVIDIA Vera Rubin NVL72 ». Par rapport aux modules classiques RDIMM (Registred DIMM), la « consommation d’énergie et l’encombrement sont réduits d’un tiers », affirme le fabricant. Micron annonce des modules jusqu’à 256 Go (à partir de 48 Go pour les plus petits), soit une capacité totale de 2 To de mémoire et une bande passante de 1,2 To/s sur un processeur avec huit emplacements. Les premiers échantillons de 256 Go sont actuellement expédiés . Micron 9650 : un SSD PCIe jusqu’à 28 Go/s Enfin, le fabricant affirme être la « première entreprise à produire en série un SSD pour les datacenters en PCIe Gen 6 » : le Micron 9650 . Il est présenté dans des formats E1.S et E3.S. Le fabricant revendique des débits en lecture séquentielle allant jusqu’à 28 Go/s et 14 Go/s en écriture, pour respectivement 5,5 millions et 900 000 IOPS en lecture et écriture aléatoire. Micron affirme que la production de masse a débuté et que son SSD a été « qualifié par des clients clés en OEM et dans les centres de données IA ». U.3, E1.S/L et E3.S/L : dans les serveurs, les SSD changent de format

À lire aussi

1The Verge AI1h

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
2Blog du Modérateur1h

ChatGPT enrichit son expérience shopping et abandonne Instant Checkout

OpenAI a mis à jour l'interface shopping de ChatGPT, la rendant plus visuelle et intuitive. La nouvelle version permet de comparer les produits plus facilement et introduit une recherche par image. En parallèle, la fonctionnalité Instant Checkout, qui permettait d'acheter directement depuis le chatbot, a été abandonnée. Ce repositionnement transforme ChatGPT en outil de découverte et de comparaison plutôt qu'en canal de vente directe. Cela redirige les utilisateurs vers les marchands pour finaliser leurs achats, ce qui soulage les tensions avec les retailers tout en conservant ChatGPT comme point d'entrée dans le parcours d'achat. Cette évolution s'inscrit dans la montée en puissance des assistants IA comme moteurs de recherche commerciale, en concurrence directe avec Google Shopping et Amazon.

OutilsOutil
1 source
3NVIDIA AI Blog1h

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
4InfoQ AI1h

Podcast : [Vidéo] Systèmes agentiques sans chaos : premiers modèles opérationnels pour agents autonomes

Shweta Vohra et Joseph Stein consacrent un épisode de podcast à la question des systèmes agentiques — ces logiciels capables de planifier, d'agir et de prendre des décisions de manière autonome. Les deux experts y examinent ce qui distingue véritablement un agent IA d'une simple automatisation traditionnelle, et comment concevoir ces systèmes sans perdre le contrôle. La discussion porte sur les défis concrets pour les architectes et ingénieurs : comment définir les limites d'action d'un agent, comment orchestrer plusieurs agents entre eux, et quels modèles organisationnels adopter dès les premières phases de déploiement. L'enjeu est de tirer parti de l'autonomie de ces systèmes tout en évitant le chaos opérationnel. Le sujet s'inscrit dans une réflexion plus large sur la maturité croissante des agents IA, qui passent progressivement du statut d'assistants réactifs à celui d'acteurs autonomes dans les infrastructures logicielles.

OutilsOpinion
1 source