Aller au contenu principal

Infrastructure

50 sur 189 articles

Infrastructure IA : data centers, puces GPU/TPU, cloud computing, énergie et hardware.

Le capital, et non la puissance de calcul, est le vrai goulet d'étranglement de l'IA
1The Information AI InfrastructureOpinion

Le capital, et non la puissance de calcul, est le vrai goulet d'étranglement de l'IA

L'explosion de la demande en infrastructure IA a déclenché l'un des cycles d'investissement les plus colossaux de l'histoire moderne. Jensen Huang, PDG de Nvidia, estime qu'un gigawatt de capacité de calcul peut coûter jusqu'à 50 milliards de dollars. McKinsey projette que la demande mondiale en centres de données pourrait atteindre 156 gigawatts d'ici 2030, ce qui porterait l'investissement total nécessaire à près de 7 000 milliards de dollars. Lors d'un récent panel organisé par The Information, trois dirigeants du secteur ont dressé un constat convergent : ce n'est pas le manque de GPU qui freine le déploiement de l'IA, mais bien le capital. Charles Fisher, directeur financier de Lambda, Marc Boroditsky, directeur commercial de Nebius, et Nick Robbins, vice-président développement chez CoreWeave, ont tous pointé la même tension : les GPU sont disponibles aujourd'hui, mais les infrastructures nécessaires pour les déployer à grande échelle prennent des années à financer et à construire. Ce goulot d'étranglement financier tient en partie à des idées reçues persistantes dans le monde bancaire. Les prêteurs rechignent à financer des actifs dont la durée de vie estimée est de six ans seulement, contre plusieurs décennies pour les réseaux câblés. Ils supposent également que la demande se concentre sur une poignée de géants du cloud, ignorant la réalité du marché. Lambda compte plus de 10 000 clients sur son cloud public, représentant environ un tiers de ses revenus, avec des comportements d'abonnement très fidèles. Chez CoreWeave, Robbins souligne que les anciens GPU Nvidia V100 et A100 continuent de générer des rendements solides bien au-delà de leur durée de vie théorique. Les contrats fermes avec des clients solvables restent le principal levier pour débloquer des financements : Nebius a ainsi conclu un accord plurimilliardaire avec Meta Platforms qui garantit l'absorption des GPU non vendus, permettant à Nebius d'utiliser la solidité financière de Meta comme caution implicite. Le vrai défi n'est donc pas tant financier que logistique. Fisher parle d'un problème de "chorégraphie" : la demande des clients se matérialise bien plus vite que la construction des centres de données ne peut suivre. Nebius répond à cette contrainte en menant tous les chantiers simultanément, sécurisant les terrains, générant la demande et levant le capital en parallèle. Au-delà des hyperscalers comme Microsoft, Google ou Amazon, qui captent l'essentiel de l'attention médiatique, la prochaine vague de croissance proviendrait de startups IA en forte croissance et de l'adoption enterprise. Des entreprises comme Cursor ou Harvey sont citées comme signaux avant-coureurs d'un marché qui dépasse largement les seuls géants technologiques, et dont le financement structuré reste encore à inventer.

1 source
☕️ SoftBank investirait jusqu’à 100 milliards de dollars dans des infrastructures IA en France
2Next INpact 

☕️ SoftBank investirait jusqu’à 100 milliards de dollars dans des infrastructures IA en France

SoftBank serait sur le point d'annoncer un investissement pouvant atteindre 100 milliards de dollars pour déployer des centres de données dédiés à l'intelligence artificielle en France. Selon Bloomberg, le projet a germé lors d'une rencontre entre Masayoshi Son, PDG du conglomérat japonais, et Emmanuel Macron, qui s'était rendu au Japon fin mars 2026 pour une tournée de séduction auprès des grandes puissances économiques de l'archipel. Le président français aurait directement proposé à Son d'installer des infrastructures IA en France, une démarche inhabituelle pour l'investisseur, plus souvent approché par des dirigeants d'entreprise que par des chefs d'État. L'annonce officielle pourrait intervenir lors du sommet Choose France, prévu le 19 mai. Le montant réel reste incertain et pourrait s'avérer bien inférieur aux 100 milliards évoqués en interne. Si l'investissement se concrétise même partiellement, il constituerait un signal fort pour le positionnement de la France comme hub européen de l'IA. Paris mise sur un argument concurrentiel clé : l'énergie nucléaire, qui permet d'alimenter les centres de données avec "l'électricité la plus décarbonée d'Europe", selon les termes de Macron lui-même. Dans un contexte où les besoins énergétiques des datacenters explosent, cet avantage structurel pourrait peser lourd face à des alternatives moins stables ou plus carbonées. Pour les acteurs tech cherchant à construire des infrastructures à grande échelle en Europe, la France deviendrait une option sérieuse. Cet éventuel engagement s'inscrit dans une dynamique d'investissements massifs dans l'IA mondiale. SoftBank est déjà engagé à hauteur de plus de 60 milliards de dollars dans OpenAI, dont il détient 13 % du capital, et co-finance l'initiative Stargate aux États-Unis aux côtés d'OpenAI, Oracle et du fonds émirati MGX, pour un total annoncé de 500 milliards. En parallèle, Microsoft, Meta, Amazon et Alphabet ont promis plus de 700 milliards de dépenses combinées pour la seule année 2026. Masayoshi Son est réputé pour ses annonces spectaculaires dont la concrétisation s'étale sur des années, voire n'aboutit jamais. Du côté français, Macron avait déjà annoncé en février 2025, lors du Sommet pour l'action sur l'IA à Paris, 109 milliards d'euros d'investissements sur plusieurs années, présentés comme l'équivalent français de Stargate. L'éventuelle entrée de SoftBank viendrait compléter cet édifice, mais les détails du projet restent flous et la portée de l'annonce finale pourrait encore évoluer significativement d'ici le 19 mai.

UESi l'investissement se concrétise même partiellement, la France se positionnerait comme le principal hub européen de l'IA, attirant des dizaines de milliards de dollars en centres de données et consolidant son avantage compétitif grâce à son électricité nucléaire décarbonée.

💬 100 milliards, c'est le chiffre qu'on sort pour les journalistes, mais avec Masa Son, t'as appris à diviser par 3 avant de célébrer. Ce qui tient vraiment debout dans ce dossier, c'est l'argument nucléaire : la France a une carte différenciante face à ses voisins européens, et là c'est pas du flan. Reste à voir ce que donnera le 19 mai.

InfrastructureOpinion
1 source
L'eau : pas un problème de centres de données, mais un problème d'IA
3The Information AI 

L'eau : pas un problème de centres de données, mais un problème d'IA

La consommation d'eau liée à l'intelligence artificielle est bien plus importante qu'on ne le pense, mais elle ne se concentre pas là où le débat public se focalise. Selon un rapport publié en janvier 2026 par la société de technologie de l'eau Xylem et le cabinet Global Water Intelligence, les usines de fabrication de semi-conducteurs et les centrales électriques qui les alimentent consomment beaucoup plus d'eau que les centres de données eux-mêmes. En 2025, le secteur IA retire 6 260 milliards de litres d'eau par an, un chiffre qui devrait plus que doubler d'ici 2050. Par comparaison, le premier site de Microsoft dans son complexe Fairwater au Wisconsin, l'un des plus grands campus de data centers au monde, ne consomme que l'équivalent de quatre piscines olympiques par an, soit la moitié de la consommation annuelle d'un lave-auto, et 0,1 % de ce que le fabricant Foxconn aurait été autorisé à prélever sur le même terrain, selon Brad Smith, président de Microsoft. Cette efficacité s'explique par l'adoption de systèmes de refroidissement en circuit fermé qui réduisent la consommation d'eau douce de 50 à 70 % par rapport aux anciens équipements. Ce déplacement du problème vers l'amont de la chaîne d'approvisionnement a des conséquences concrètes pour les territoires et les écosystèmes. Aujourd'hui, 40 % des centres de données mondiaux et 29 % des usines de puces électroniques sont implantés dans des zones souffrant d'un stress hydrique élevé ou extrême. Le refroidissement à l'électricité, qui remplace l'évaporation dans les nouveaux data centers, transfère en réalité la pression vers le réseau électrique : les centrales utilisent elles-mêmes de grandes quantités d'eau, et la consommation électrique des infrastructures IA par mètre carré atteint déjà dix fois celle du cloud traditionnel. Avec les futurs racks Nvidia à un mégawatt, cet écart pourrait grimper à cent fois la norme d'avant l'IA. Le numérique représente certes seulement 3,7 % des 168 800 milliards de litres consommés chaque année par l'industrie mondiale, mais c'est le secteur où la croissance est la plus rapide. Le tableau n'est pas uniformément alarmant. Les centrales électriques restituent plus de 90 % de l'eau utilisée pour leur refroidissement, même si elle nécessite parfois un traitement. La transition vers les énergies renouvelables, moins gourmandes en eau que le charbon ou le gaz, pourrait réduire significativement l'intensité hydrique de la production électrique dans les prochaines décennies. Les industriels investissent aussi dans la réutilisation des eaux usées : la société Ecolab a aidé une usine américaine de semi-conducteurs à économiser près de 42 millions de litres grâce à des processus optimisés. Le vrai enjeu n'est donc pas de condamner les data centers, mais d'imposer une transparence et des normes sur l'ensemble de la chaîne IA, des fonderies de puces en Asie aux centrales à gaz d'Amérique du Nord.

UELes centres de données et usines de puces européens sont exposés aux mêmes tensions hydriques, et l'UE pourrait être amenée à étendre ses obligations de transparence environnementale à l'ensemble de la chaîne d'approvisionnement IA, des fonderies aux centrales électriques.

InfrastructureOpinion
1 source
Le startup qui aide OpenAI à optimiser son IA pour les puces Cerebras
4The Information AI 

Le startup qui aide OpenAI à optimiser son IA pour les puces Cerebras

OpenAI a fait appel à la startup Gimlet Labs pour optimiser ses modèles d'intelligence artificielle sur les puces de Cerebras Systems. Selon Zain Asgar, PDG de Gimlet Labs, cette collaboration permet à OpenAI de faire tourner Codex-Spark, une version accélérée de son outil de programmation destiné aux développeurs, sur l'infrastructure Cerebras. L'annonce intervient alors que Cerebras se prépare à une introduction en bourse imminente cette semaine. Ce recours à une startup spécialisée illustre un défi technique souvent sous-estimé : chaque type de puce exige une adaptation spécifique du code qui entraîne et exécute les modèles. Ce travail d'optimisation bas niveau, peu visible mais indispensable, conditionne directement les performances et les coûts d'exploitation des grands modèles de langage. Pour les utilisateurs de Codex-Spark, cela se traduit concrètement par des temps de réponse plus rapides dans les tâches d'assistance au code. Cette dynamique s'inscrit dans un mouvement plus large de diversification des sources de calcul au sein de l'industrie de l'IA. Alors que les puces Nvidia restent difficiles à obtenir en quantité suffisante, des acteurs comme OpenAI et Meta cherchent activement des alternatives : Cerebras, mais aussi d'autres fabricants de puces spécialisées. Cette stratégie multi-fournisseurs crée un besoin croissant d'intermédiaires techniques capables d'adapter les modèles à des architectures matérielles variées, ouvrant un nouveau segment de marché pour des startups comme Gimlet Labs.

InfrastructureOpinion
1 source
Intel pourrait fabriquer les futures puces IA d’Apple
5Le Big Data 

Intel pourrait fabriquer les futures puces IA d’Apple

Apple et Intel auraient conclu un accord préliminaire permettant au géant des semi-conducteurs américain de fabriquer une partie des futures puces IA d'Apple, selon le Wall Street Journal. Les deux groupes auraient négocié pendant plus d'un an avant d'aboutir à ce rapprochement, révélé début mai 2026. La réaction des marchés a été immédiate : l'action Intel a bondi de près de 14 % à l'annonce, tandis qu'Apple gagnait environ 2 %. Le partenariat débuterait par les futures puces de la série M destinées aux Mac et aux iPad, les puces iPhone pouvant suivre dans un second temps. Côté production, l'usine d'Intel à Chandler, en Arizona, fabrique déjà des puces basées sur son procédé 18A, la technologie la plus avancée du groupe. Apple pourrait toutefois attendre la génération suivante, baptisée 18A-P, dont la mise en production de masse est attendue dès l'année prochaine selon l'analyste Ben Bajarin de Creative Strategies. Cet accord représenterait bien plus qu'un simple contrat de sous-traitance. Pour Apple, il s'agit de réduire une dépendance quasi totale à TSMC, le fondeur taïwanais qui produit aujourd'hui l'essentiel de ses puces les plus avancées. La montée en puissance de l'IA générative a fait exploser la demande mondiale de capacités de fabrication : Nvidia, Microsoft, Amazon, Google et Meta mobilisent déjà une part croissante des lignes de production les plus avancées, rendant la diversification stratégique urgente pour Apple. Bajarin qualifie Intel de "seule alternative crédible" capable de devenir une seconde source industrielle à grande échelle pour Cupertino. Cette diversification permettrait également de limiter l'exposition aux risques géopolitiques liés aux tensions autour de Taïwan, qui font peser une menace structurelle sur l'approvisionnement en puces. Pour Intel, la portée symbolique d'un tel contrat serait considérable. L'entreprise a longtemps peiné à convaincre des clients externes de lui confier des puces critiques, après des années de retards technologiques et de problèmes de rendement dans son activité de fonderie. Accrocher Apple à son carnet de commandes équivaudrait à valider publiquement que cette division est désormais compétitive face aux leaders asiatiques. Intel accélère ses investissements industriels aux États-Unis dans ce but. Cette alliance potentielle s'inscrit dans une bataille plus large : aujourd'hui, seules trois entreprises disposent des technologies nécessaires pour produire les semi-conducteurs les plus avancés, TSMC, Intel et Samsung. Apple aurait d'ailleurs également visité l'usine texane de Samsung pour évaluer ses capacités, signe que la guerre mondiale des usines IA s'intensifie et que les géants de la tech cherchent activement à multiplier leurs options industrielles.

UECe rapprochement Apple-Intel accélère la consolidation des capacités de fabrication de semi-conducteurs avancés aux États-Unis, rendant plus urgente la question de la souveraineté industrielle européenne face à une dépendance structurelle aux fondeurs extra-européens que l'European Chips Act cherche précisément à réduire.

💬 Apple qui diversifie ses fondeurs, c'est pas une surprise, mais que ce soit Intel qui décroche le contrat, là par contre je l'aurais pas parié il y a deux ans. Les retards, les problèmes de rendement, le fiasco de leur division fonderie... et pourtant le 18A semble enfin tenir la route, assez pour qu'Apple prenne le risque. Reste à voir si les lignes de production suivent quand il faudra livrer des dizaines de millions de puces.

NVIDIA a déjà investi 40 milliards de dollars dans des accords IA en 2026
6Le Big Data 

NVIDIA a déjà investi 40 milliards de dollars dans des accords IA en 2026

En à peine cinq mois depuis le début de l'année 2026, NVIDIA a engagé plus de 40 milliards de dollars dans des accords liés à l'intelligence artificielle. L'investissement le plus massif reste une mise de 30 milliards de dollars dans OpenAI, le créateur de ChatGPT. Le groupe a également conclu un accord pouvant atteindre 2,1 milliards de dollars avec IREN, opérateur de centres de données, pour déployer 5 gigawatts d'infrastructures NVIDIA DSX. Quelques jours plus tôt, c'est Corning qui annonçait un partenariat à hauteur de 3,2 milliards de dollars pour construire trois usines dédiées aux technologies optiques. En mars, NVIDIA avait aussi investi 2 milliards dans Marvell Technology, ainsi que dans les spécialistes de la photonique Lumentum et Coherent. Dans le cloud IA, le groupe soutient les néoclouds CoreWeave et Nebius Group avec 2 milliards chacun. Au total, Jensen Huang dirige une entreprise valorisée à environ 5 200 milliards de dollars, dont l'action a été multipliée par plus de 11 en quatre ans. Cette stratégie va bien au-delà de la simple diversification financière : NVIDIA cherche à contrôler l'ensemble de la chaîne de valeur de l'IA, des puces jusqu'aux infrastructures qui les font tourner. En finançant les fournisseurs cloud, les opérateurs de data centers, les fabricants de composants optiques et les grandes startups IA, le groupe s'assure que chaque maillon de l'écosystème dépend de ses technologies. Jensen Huang l'a lui-même résumé en déclarant vouloir "soutenir tout le monde" plutôt que "désigner un seul gagnant", une posture qui lui permet de couvrir plusieurs scénarios concurrentiels à la fois. Le groupe a généré 97 milliards de dollars de free cash flow en 2025, ce qui rend ce rythme d'investissement soutenable à court terme. Cette mécanique suscite néanmoins des inquiétudes croissantes à Wall Street. Plusieurs analystes pointent une logique circulaire potentiellement fragile : NVIDIA investit dans des entreprises qui achètent ses GPU pour construire leurs infrastructures, et leur fournit parfois directement des ressources de calcul. Certains observateurs comparent cette boucle à une bulle auto-entretenue. La domination de NVIDIA sur le marché des puces IA est le fruit de l'explosion de l'IA générative depuis 2022, mais la concurrence monte, avec AMD, Intel et les puces propriétaires développées par Google, Amazon et Microsoft. La capacité du groupe à maintenir sa position dominante tout en tissant ce réseau d'alliances financières déterminera si cette stratégie est un masterstroke industriel ou un risque systémique pour l'ensemble de l'écosystème IA mondial.

UELa stratégie d'intégration verticale de NVIDIA renforce sa domination sur l'ensemble de la chaîne IA mondiale, accentuant la dépendance des acteurs européens vis-à-vis des infrastructures et puces américaines.

InfrastructureOpinion
1 source
8 ans, 100 dollars, et plus rapide qu’une RTX 3060 pour faire tourner un LLM en local
7Frandroid 

8 ans, 100 dollars, et plus rapide qu’une RTX 3060 pour faire tourner un LLM en local

Un YouTubeur spécialisé en hardware a démontré récemment qu'une carte Nvidia destinée aux serveurs, datant de 2017 et achetée une centaine de dollars sur eBay, surpasse une RTX 3060 moderne pour faire tourner des modèles de langage en local. La carte en question, une Tesla P40 dotée de 24 Go de mémoire GDDR5, génère davantage de tokens par seconde que la carte grand public de Nvidia sur des modèles comme Llama ou Mistral 7B, tout en offrant deux fois plus de VRAM pour charger des modèles plus volumineux. Ce résultat contre-intuitif souligne un avantage décisif du matériel entreprise d'occasion : la quantité de mémoire embarquée. Pour les LLM en local, la VRAM est le facteur limitant, bien plus que la puissance de calcul brute. Avec 24 Go, la P40 peut charger des modèles de 13 à 20 milliards de paramètres sans quantification agressive, là où la RTX 3060 et ses 12 Go se retrouvent rapidement à court. Pour un particulier ou un développeur indépendant cherchant à expérimenter avec l'IA générative sans investir plusieurs centaines d'euros, l'équation devient très favorable. Le marché de l'occasion en matériel datacenter constitue un angle mort peu exploré par la communauté IA grand public. Les cartes Tesla, Quadro et A-series de générations précédentes, déclassées par les entreprises au profit de H100 et autres puces récentes, s'accumulent sur les plateformes de revente à des prix dérisoires. Avec l'explosion de l'intérêt pour les LLM locaux depuis la sortie de Llama en 2023, ce segment pourrait attirer davantage d'attention, au point de faire remonter les prix sur ces références spécifiques.

InfrastructureOpinion
1 source
Les meilleures bases de données vectorielles en 2026 : prix, limites et compromis architecturaux des neuf principaux systèmes
8MarkTechPost 

Les meilleures bases de données vectorielles en 2026 : prix, limites et compromis architecturaux des neuf principaux systèmes

En mai 2026, MarkTechPost publie un état des lieux exhaustif du marché des bases de données vectorielles, passant en revue neuf systèmes majeurs à l'heure où cette technologie devient une infrastructure critique pour les entreprises. Le marché pesait 1,97 milliard de dollars en 2024 et devrait atteindre 10,6 milliards en 2032, avec un taux de croissance annuel de 23,38 %. Parmi les acteurs recensés figurent Pinecone, qui a lancé en mai 2026 deux nouveaux produits (Nexus et KnowQL) et introduit un tier Builder à 20 dollars par mois ; Qdrant, qui a levé 50 millions de dollars en série B en mars 2026 sous la houlette d'AVP, avec déjà 29 000 étoiles sur GitHub ; et Milvus/Zilliz Cloud, capable de gérer plus de 100 milliards de vecteurs grâce à son moteur Cardinal, annoncé dix fois plus rapide que les alternatives HNSW. Weaviate a de son côté abandonné son offre à 25 dollars par mois en octobre 2025, portant son entrée de gamme à 45 dollars. MongoDB Atlas Vector Search a rendu son tier Flex disponible en disponibilité générale en février 2025, avec une facturation entre 0 et 30 dollars par mois selon l'usage. Ce panorama illustre une fracture nette dans les usages. Pour les équipes déjà sur PostgreSQL et traitant moins de dix millions de vecteurs, l'extension pgvector reste la solution la plus sobre : gratuite, compatible ACID, sans infrastructure supplémentaire. Pour les cas d'usage à très grande échelle, Milvus s'impose avec l'accélération GPU et des index construits trois fois plus vite. Qdrant, écrit en Rust, séduit par sa recherche composable mélangeant vecteurs denses, vecteurs creux, filtres et scoring personnalisé dans une seule requête, le tout en auto-hébergement pour 30 à 50 dollars par mois. Weaviate reste la référence pour la recherche hybride, combinant simultanément BM25, similarité vectorielle et filtres de métadonnées. Chroma, lui, est conçu pour le prototypage rapide d'applications LLM, sans prétention à la montée en charge extrême. Cette effervescence traduit un changement structurel dans l'industrie de l'IA. Les grands modèles de langage sont devenus une brique standard dans les logiciels d'entreprise, et le RAG, Retrieval-Augmented Generation, l'architecture qui ancre les réponses des LLM dans des données privées ou temps réel, s'est imposé comme le paradigme dominant. Les bases de données vectorielles en sont le coeur de récupération. La question n'est plus de savoir si une organisation en a besoin, mais laquelle correspond à son infrastructure, à son volume de données et à son budget. Les investissements récents, les lancements produits groupés et la diversification des offres tarifaires signalent que le secteur entre dans une phase de consolidation compétitive où les différenciations techniques et commerciales vont s'accentuer.

UEQdrant (Berlin) et Weaviate (Amsterdam), deux scale-ups européens, s'imposent parmi les leaders mondiaux des bases de données vectorielles, renforçant la position de l'UE dans l'infrastructure IA critique des entreprises.

InfrastructureActu
1 source
NVIDIA publie cuda-oxide : un compilateur expérimental Rust vers CUDA générant des noyaux GPU directement en PTX
9MarkTechPost 

NVIDIA publie cuda-oxide : un compilateur expérimental Rust vers CUDA générant des noyaux GPU directement en PTX

Les équipes de recherche de NVIDIA AI ont publié cuda-oxide, un compilateur expérimental qui permet aux développeurs d'écrire des noyaux GPU CUDA SIMT (Single Instruction, Multiple Threads) directement en Rust standard, sans passer par du C++ ni par des interfaces de liaison (FFI). Le projet compile le code Rust vers PTX (Parallel Thread Execution), la représentation intermédiaire assembleur qu'utilise CUDA pour cibler les GPU NVIDIA. La chaîne de compilation est entièrement construite en Rust : le code source traverse d'abord le frontend de rustc, puis Stable MIR (l'API stable et versionnée exposant les internals du compilateur), avant d'être transformé via trois dialectes intermédiaires définis dans Pliron, un framework Rust natif similaire à MLIR. Le résultat est un fichier LLVM IR (.ll) que l'outil externe llc compile en PTX, chargé ensuite par le driver CUDA à l'exécution. Le code hôte et le code GPU coexistent dans un même fichier .rs, et chaque étape de la chaîne peut être inspectée avec la commande cargo oxide pipeline. L'intérêt principal de cuda-oxide est de permettre aux développeurs Rust d'écrire des kernels GPU sans quitter l'écosystème Rust et sans installer de chaîne C++, CMake ou tablegen. L'ensemble du projet se compile avec cargo. En s'appuyant sur Stable MIR plutôt que sur les internals instables de rustc, le backend évite de se casser à chaque mise à jour nightly du compilateur, ce qui était un obstacle récurrent pour les projets similaires. Pour l'industrie, cela ouvre la possibilité de combiner les garanties de sécurité mémoire de Rust avec la programmation GPU basse couche, un domaine jusqu'ici dominé par le C++ et où les bugs liés à la gestion mémoire ont des conséquences directes sur les performances et la stabilité des modèles d'IA en production. L'écosystème Rust-GPU existe déjà sous plusieurs formes : Rust-GPU cible SPIR-V pour Vulkan, rust-cuda utilise un backend rustc vers NVVM IR, CubeCL expose un DSL embarqué compilant vers CUDA, ROCm et WGPU, et std::offload exploite le chemin d'offload implicite de LLVM. cuda-oxide se positionne différemment : là où rust-cuda cherche à "amener Rust sur GPU" en préservant l'ergonomie Rust (async/await, bibliothèque standard on-device), cuda-oxide vise à "amener CUDA dans Rust", c'est-à-dire exprimer le modèle CUDA natif, les intrinsèques GPU et l'indexation de threads directement en Rust. Les équipes de NVlabs ont précisé coordonner avec les mainteneurs de rust-cuda et considèrent les deux projets complémentaires plutôt que concurrents. Le projet reste expérimental, mais son architecture modulaire et son absence de dépendances C++ en font une base sérieuse pour explorer la programmation GPU en Rust à grande échelle.

💬 Rust sur GPU sans installer CMake ni une chaîne C++, c'est le genre de truc qu'on attendait depuis 2 ans. Le vrai truc malin ici c'est Stable MIR : tous les projets similaires se cassaient à chaque update nightly, cuda-oxide a trouvé le bon endroit où accrocher le backend. Reste expérimental, mais la base est sérieuse.

InfrastructureOpinion
1 source
Broadcom refuserait de fabriquer la puce personnalisée d'OpenAI si Microsoft n'en achète pas 40 %
10The Decoder 

Broadcom refuserait de fabriquer la puce personnalisée d'OpenAI si Microsoft n'en achète pas 40 %

Le projet de puce IA sur mesure développé par OpenAI en collaboration avec Broadcom se heurte à un obstacle financier majeur. Selon des informations rapportées par The Decoder, Broadcom refuse de financer la production de ces processeurs à moins que Microsoft ne s'engage à en acheter 40 % du volume total. Or, Microsoft n'a toujours pas donné son accord. La première phase du projet représente à elle seule un coût estimé à 18 milliards de dollars. Sachin Katti, un dirigeant d'OpenAI, a qualifié cette dépendance de "financièrement peu attractive" dans un message interne. Cette impasse met en lumière la fragilité de la stratégie d'indépendance technologique d'OpenAI. La start-up cherche depuis plusieurs mois à réduire sa dépendance à Nvidia pour ses besoins en calcul, mais cette ambition se retrouve bloquée faute de garanties commerciales suffisantes. Pour Broadcom, assumer seul le risque industriel d'un projet de cette envergure sans acheteur garanti est tout simplement hors de question. La décision de Microsoft conditionne donc directement la viabilité du programme. Ce projet s'inscrit dans une tendance plus large où les grandes plateformes d'IA cherchent à concevoir leurs propres puces spécialisées, à l'image de Google avec ses TPU ou d'Amazon avec ses Trainium. OpenAI avait annoncé des ambitions dans ce sens dans le cadre de l'initiative Stargate, le mégaprojet d'infrastructure à 500 milliards de dollars soutenu par l'administration Trump. La relation complexe entre OpenAI et Microsoft, à la fois partenaire stratégique et investisseur dominant, continue de peser sur chaque grande décision opérationnelle de la société.

💬 OpenAI veut son indépendance vis-à-vis de Nvidia, mais pour financer la puce qui lui donnera cette indépendance, il faut que Microsoft signe. La dépendance a juste changé d'adresse. Broadcom ne prend pas 18 milliards de risque sans acheteur garanti, c'est du bon sens, et ça dit beaucoup sur l'état de la stratégie Stargate en ce moment.

InfrastructureActu
1 source
5 % d'utilisation GPU : le problème d'infrastructure IA à 401 milliards de dollars que les entreprises ne peuvent plus ignorer
11VentureBeat AI 

5 % d'utilisation GPU : le problème d'infrastructure IA à 401 milliards de dollars que les entreprises ne peuvent plus ignorer

Les entreprises ont dépensé des milliards pour sécuriser des GPU à tout prix, et la facture est désormais présentée. Selon Gartner, l'infrastructure IA représente 401 milliards de dollars de nouvelles dépenses en 2025, mais des audits terrain révèlent une réalité bien plus sombre : le taux d'utilisation moyen des GPU en entreprise stagne à 5 %. Pendant deux ans, la panique du « GPU scramble » a poussé DSI et directions financières à constituer des réserves de capacité sous des cycles d'amortissement de trois à cinq ans. Ces actifs sont désormais des coûts fixes inscrits aux bilans, indépendamment de leur usage effectif. Les chiffres du Q1 2026 confirment le basculement : dans le baromètre de VentureBeat, le critère « accès aux GPU » est passé de 20,8 % à 15,4 % en un seul trimestre comme moteur principal des décisions d'achat, tandis que le coût par inférence et le TCO (coût total de possession) bondissaient de 34 % à 41 %, dépassant la performance pure comme critère dominant. À 5 % d'utilisation, l'arithmétique est brutale : pour chaque dollar investi en silicium, 95 centimes partent directement dans la marge des fournisseurs cloud. Dans n'importe quel autre département, un taux de gaspillage de 95 % serait un motif de licenciement ; dans l'infrastructure IA, on appelait ça de la « préparation ». Les grands groupes comme Intuit, Mastercard ou Pfizer, qui bénéficiaient de relations privilégiées avec AWS, Azure et GCP pour sécuriser des réservations de capacité, se sont retrouvés riches en GPU mais pauvres en production : des équipes internes paralysées par la gouvernance des données, la gravité des données et une immaturité architecturale persistante ont empêché toute valorisation réelle de ces ressources. Le discours dominant sur la rareté du silicium a servi d'écran commode pour masquer cette inefficacité structurelle. Ce virage marque la fin de l'ère du chèque en blanc. Le passage à une tarification à l'usage en 2026 transforme les architectures héritées des phases pilotes, pensées avec des tokens en coûts fixes, en véritables passifs financiers. Les agents en contexte long et les pipelines de récupération complexes, construits quand les tokens étaient un coût noyé dans des licences forfaitaires, deviennent intenables sous une facturation mesuréé. L'inférence n'est plus un projet tactique : c'est un modèle économique stratégique dont les unités économiques sont, pour la plupart des entreprises, encore insoutenables. La question n'est plus de savoir si les investissements passés étaient justifiés, mais comment extraire un retour mesurable d'une infrastructure déjà déployée avant que les cycles d'amortissement ne l'emportent.

UELes entreprises européennes investies en infrastructure GPU sont exposées au même risque de sous-utilisation à 5 %, avec des cycles d'amortissement sur 3-5 ans qui transforment ces actifs en passifs financiers au moment où le marché bascule vers une tarification à l'usage.

💬 5 % d'utilisation, c'est le genre de stat qui ferait renvoyer n'importe quel responsable infra dans un département classique. La panique du GPU scramble a servi de couverture : on achetait du silicium pour ne pas rater le train, sans se demander si les équipes data étaient capables d'en faire quelque chose. Le basculement vers le pay-as-you-go va transformer ces réserves en passifs, et ça va faire des dégâts.

InfrastructureOpinion
1 source
Nvidia s’allie à IREN pour déployer 5 GW d’infrastructures IA
12Le Big Data 

Nvidia s’allie à IREN pour déployer 5 GW d’infrastructures IA

Nvidia et IREN ont annoncé le 7 mai 2026 un partenariat stratégique visant à déployer jusqu'à 5 gigawatts d'infrastructures IA à travers le réseau mondial de centres de données d'IREN. L'accord s'appuie sur l'architecture DSX de Nvidia, conçue pour industrialiser le déploiement de clusters GPU à très grande échelle. Un contrat de 3,4 milliards de dollars a également été signé dans ce cadre, par lequel IREN fournira des services cloud d'infrastructure IA pour les besoins internes de Nvidia. Le campus texan de Sweetwater, site de 2 gigawatts présenté comme le futur projet phare de ce déploiement, concentrera une grande partie des investissements initiaux. Dans cette architecture, Nvidia apporte la puissance de calcul accélérée et l'expertise en infrastructure, tandis qu'IREN prend en charge l'énergie, le foncier, l'exploitation des data centers et le déploiement physique des clusters GPU. Ce partenariat illustre un basculement profond dans la façon dont se joue la compétition dans l'IA. Pendant des années, l'avantage concurrentiel reposait avant tout sur les performances des modèles et l'accès aux puces. Désormais, la capacité à construire rapidement des infrastructures capables d'alimenter en continu l'entraînement et l'inférence de modèles devient tout aussi décisive. Les cibles prioritaires de ce projet sont les entreprises natives de l'IA, les startups spécialisées et les grands groupes à fort besoin de calcul. Jensen Huang, fondateur et PDG de Nvidia, résume cette vision en affirmant que les "AI factories deviennent une infrastructure fondamentale comparable aux réseaux électriques ou aux télécommunications". Cette déclaration marque le repositionnement explicite de Nvidia : l'entreprise ne vend plus uniquement des GPU, mais une offre complète d'infrastructure IA à l'échelle industrielle. Ce mouvement s'inscrit dans une dynamique plus large où la question énergétique devient aussi stratégique que l'accès aux semi-conducteurs. Le Texas attire une part croissante des investissements dans l'IA et les data centers grâce à son accès à l'énergie, ses disponibilités foncières et ses infrastructures industrielles. IREN occupe une position particulière sur ce marché avec un modèle verticalement intégré qui combine centres de données, accès aux réseaux électriques et clusters GPU, le tout implanté dans des régions riches en énergies renouvelables en Amérique du Nord. Le partenariat avec Nvidia lui confère une crédibilité et une visibilité sans précédent pour capter les besoins colossaux en infrastructure que génère la généralisation de l'IA générative dans les entreprises. Les 5 GW annoncés seront déployés progressivement, ce qui laisse entendre que d'autres sites viendront compléter Sweetwater dans les prochaines années.

💬 5 GW, c'est un chiffre qui donne le vertige. Ce qui m'intéresse là-dedans, c'est pas tellement le partenariat Nvidia-IREN en lui-même, mais ce que ça confirme : l'accès à l'énergie et au foncier est en train de devenir le vrai goulot d'étranglement de l'IA, pas les GPU. Et pendant qu'on débat de réglementation en Europe, le Texas construit.

InfrastructureOpinion
1 source
LightSeek Foundation publie TokenSpeed, moteur d'inférence LLM open source visant TensorRT-LLM pour agents autonomes
13MarkTechPost 

LightSeek Foundation publie TokenSpeed, moteur d'inférence LLM open source visant TensorRT-LLM pour agents autonomes

La LightSeek Foundation a publié TokenSpeed, un moteur d'inférence pour grands modèles de langage distribué en open source sous licence MIT. Encore en phase de préversion, TokenSpeed est conçu spécifiquement pour les charges de travail dites "agentiques", c'est-à-dire les systèmes d'IA qui enchaînent de multiples appels au modèle pour accomplir des tâches complexes, comme l'écriture ou la révision de code. L'objectif déclaré est d'atteindre des performances comparables à TensorRT-LLM de NVIDIA, tout en restant accessible à l'ensemble de l'écosystème. Le moteur vise à maintenir un débit minimum de 70 tokens par seconde par utilisateur, un seuil qui monte parfois à 200 TPS ou plus, tout en maximisant le nombre de tokens traités par GPU et par minute. L'enjeu dépasse la performance brute. Des outils comme Claude Code d'Anthropic, Codex d'OpenAI ou Cursor fonctionnent sur des contextes qui dépassent régulièrement 50 000 tokens et s'étalent sur des dizaines de tours de conversation, un profil très différent d'un simple chatbot. Or la plupart des benchmarks publics ne rendent pas compte de cette réalité. Lorsqu'un agent de développement logiciel analyse un dépôt entier, génère du code, exécute des tests et itère, chaque milliseconde de latence ajoutée se multiplie à chaque étape. Un moteur d'inférence mal adapté devient rapidement un goulot d'étranglement qui ralentit l'ensemble de la chaîne de production logicielle, et donc, à terme, les équipes d'ingénierie qui en dépendent. L'architecture de TokenSpeed repose sur cinq sous-systèmes complémentaires. Le premier est un mécanisme de parallélisme assisté par compilateur, basé sur le modèle SPMD (Single Program, Multiple Data), qui génère automatiquement les communications entre processus sans que le développeur n'ait à les écrire manuellement. Le planificateur de requêtes sépare strictement le plan de contrôle, implémenté en C++ sous forme de machine à états finis, du plan d'exécution écrit en Python, ce qui permet de détecter les erreurs de gestion du cache KV à la compilation plutôt qu'à l'exécution. Le troisième pilier est une couche de noyaux GPU modulaire et extensible, compatible avec des accélérateurs autres que ceux de NVIDIA, s'appuyant notamment sur l'un des noyaux MLA (Multi-head Latent Attention) les plus rapides disponibles pour les GPU Blackwell. Ce noyau MLA a d'ailleurs déjà été intégré dans vLLM, l'un des moteurs d'inférence open source les plus utilisés dans l'industrie. La fondation LightSeek positionne ainsi TokenSpeed comme une infrastructure commune pour l'ère où les agents IA deviennent le principal vecteur de production de code.

UELa disponibilité d'un moteur d'inférence open source compatible avec des accélérateurs non-NVIDIA pourrait réduire la dépendance des équipes européennes aux solutions propriétaires de NVIDIA.

InfrastructureActu
1 source
Propulser le siècle américain : Chris Wright et Ian Buck de NVIDIA sur la mission Genesis
14NVIDIA AI Blog 

Propulser le siècle américain : Chris Wright et Ian Buck de NVIDIA sur la mission Genesis

Le secrétaire américain à l'Énergie Chris Wright et Ian Buck, vice-président d'NVIDIA chargé du HPC et de l'hyperscale, se sont exprimés jeudi lors de l'AI+ Expo organisée par le SCSP à Washington. Leur message central : la compétitivité américaine dans l'intelligence artificielle passe par la maîtrise de l'énergie. Au coeur du dispositif figure la Genesis Mission, programme du Département de l'Énergie (DOE) visant à appliquer l'IA à la découverte scientifique. NVIDIA en est l'un des partenaires industriels clés, fort selon Buck de vingt ans de collaboration avec les laboratoires nationaux américains. Concrètement, NVIDIA et le DOE construisent ensemble deux supercalculateurs à l'Argonne National Laboratory : le premier, baptisé Equinox, est actuellement en cours d'installation avec 10 000 GPU Grace Blackwell ; le second, Solstice, mobilisera 100 000 GPU de la prochaine génération Vera Rubin, pour une puissance de 5 000 exaflops, soit cinq fois la capacité cumulée de l'ensemble du classement TOP500 des supercalculateurs mondiaux. NVIDIA a également entraîné un modèle open source sur 1,5 million d'articles de physique, puis affiné sur 100 000 publications dédiées à la fusion nucléaire, pour produire un agent IA interrogeable par les chercheurs du DOE. L'enjeu est double : accélérer la recherche scientifique fondamentale et résoudre, par la même occasion, le problème énergétique que l'IA elle-même crée. Wright a souligné que si les États-Unis ont triplé leur production pétrolière et doublé leur production de gaz naturel au cours des vingt dernières années, la production d'électricité, elle, a à peine progressé. Or l'électricité est précisément le vecteur énergétique dont dépend l'IA. Sans une infrastructure électrique capable de croître rapidement, ce sont les progrès de l'IA eux-mêmes qui pourraient être freinés, a prévenu le secrétaire. Pour répondre à cette contrainte, le DOE s'appuie sur les trois piliers du réseau électrique américain : gaz naturel, nucléaire et charbon. Wright a annoncé que trois petits réacteurs modulaires (SMR) entreront en service avant le 4 juillet prochain, avec de nouveaux grands réacteurs et des SMR supplémentaires attendus dans la foulée. Un bureau stratégique dédié à la fusion nucléaire a également été créé au sein du département, avec des programmes de recherche que Wright décrit comme "hyperchargés" grâce aux capacités de calcul que l'IA apporte désormais. Jensen Huang, PDG de NVIDIA, a lui résumé la chaîne de valeur de l'IA comme un gâteau à cinq couches, dont l'énergie constitue la base. La Genesis Mission incarne cette logique de boucle vertueuse : l'IA finance et accélère les sciences de l'énergie, qui à leur tour alimentent l'infrastructure dont l'IA a besoin pour continuer à progresser.

InfrastructureActu
1 source
L'accord OpenAI-Broadcom sur les puces IA bute sur 18 milliards de financement
15The Information AI 

L'accord OpenAI-Broadcom sur les puces IA bute sur 18 milliards de financement

OpenAI et le fabricant de semi-conducteurs Broadcom avaient annoncé l'automne dernier un accord pour développer ensemble des puces d'intelligence artificielle sur mesure. L'ambition affichée était de taille : mettre en ligne suffisamment de composants avant 2030 pour consommer 10 gigawatts d'électricité, soit l'équivalent de cinq fois la production du barrage Hoover. L'objectif déclaré était de réduire la dépendance coûteuse d'OpenAI à l'égard des processeurs Nvidia. Ce que les deux entreprises n'avaient pas précisé, c'est qu'elles n'avaient pas encore trouvé comment financer le projet, dont le montant atteint 18 milliards de dollars. Ce blocage financier expose une contradiction au coeur de la stratégie d'OpenAI : l'entreprise affiche des ambitions d'infrastructure colossales tout en restant tributaire d'un partenaire unique, Nvidia, dont les GPU sont à la fois indispensables et extrêmement onéreux. Sans financement sécurisé, le calendrier du projet risque de glisser, laissant OpenAI dans une position de dépendance prolongée qui pèse directement sur ses marges et sa capacité à scaler ses modèles. Cette situation s'inscrit dans une course plus large à l'indépendance chipière. Google, Meta et Amazon ont chacun développé leurs propres accélérateurs maison pour s'affranchir de Nvidia. OpenAI, longtemps focalisé sur la recherche et les produits, arrive plus tardivement dans cette logique d'intégration verticale. L'accord avec Broadcom est une tentative de rattrapage, mais sa concrétisation dépend désormais de la capacité d'OpenAI à lever des fonds dans un contexte où ses dépenses opérationnelles restent très élevées.

InfrastructureOpinion
1 source
Réservez de la capacité GPU à court terme pour vos workloads ML avec EC2 Capacity Blocks et SageMaker
16AWS ML Blog 

Réservez de la capacité GPU à court terme pour vos workloads ML avec EC2 Capacity Blocks et SageMaker

Amazon Web Services propose deux solutions complémentaires pour sécuriser de la capacité GPU à court terme : les EC2 Capacity Blocks for ML et les SageMaker training plans. Les Capacity Blocks permettent de réserver un nombre précis d'instances GPU pour une fenêtre temporelle définie, jusqu'à huit semaines à l'avance, avec des durées allant de 1 à 14 jours (par paliers d'un jour) ou de 15 à 182 jours (par paliers de sept jours). Chaque bloc peut couvrir jusqu'à 64 instances d'un même type, et une organisation peut cumuler jusqu'à 256 instances sur une même date en combinant plusieurs blocs au sein d'AWS Organizations. Contrairement aux réservations de capacité à la demande classiques (ODCR), ces Capacity Blocks sont entièrement en libre-service et affichent une décote de 40 à 50 % par rapport aux tarifs à la demande, tout en offrant une bien meilleure disponibilité pour les instances de type P, particulièrement recherchées. Ces solutions répondent à un besoin concret et pressant : la demande mondiale de GPU pour l'entraînement, le fine-tuning et l'inférence de modèles d'intelligence artificielle dépasse largement l'offre disponible. Pour les équipes qui ont besoin de GPU de manière ponctuelle, que ce soit pour des tests de charge, la validation de modèles, des ateliers techniques ou la préparation d'une mise en production, les options existantes présentent des limites sérieuses. Les instances à la demande ne garantissent pas la disponibilité au moment du lancement, et relâcher une instance peut signifier ne plus pouvoir la récupérer. Les instances Spot, bien que jusqu'à 90 % moins chères, peuvent être interrompues à tout moment par AWS. Les Capacity Blocks éliminent cette incertitude : la capacité est garantie pendant toute la durée réservée, ce qui permet de planifier des workloads critiques en temps contraint sans risque de pénurie de ressources. Cette pénurie de GPU n'est pas nouvelle : depuis l'explosion des usages d'IA générative à partir de 2023, les grands hyperscalers comme AWS, Google Cloud et Microsoft Azure font face à une concurrence intense pour l'acquisition et la mise à disposition de puces Nvidia H100 et autres accélérateurs. AWS avait introduit les Capacity Blocks dès 2023 pour les instances P5, mais l'offre s'est depuis progressivement élargie. L'intégration avec les SageMaker training plans vise à couvrir également les usages managés, où AWS gère l'infrastructure sous-jacente. À terme, ces mécanismes de réservation structurée devraient devenir la norme pour toute organisation menant des expérimentations ML d'envergure, car ils permettent de concilier agilité opérationnelle et maîtrise des coûts sans recourir à des contrats pluriannuels.

UELes équipes françaises et européennes utilisant AWS pour leurs workloads ML peuvent sécuriser de la capacité GPU à court terme avec une décote de 40-50%, réduisant l'incertitude opérationnelle liée à la pénurie mondiale de GPU.

InfrastructureActu
1 source
☕️ AMD lance sa Radeon Instinct MI350P : un demi-GPU de MI350X en PCIe 5.0
17Next INpact 

☕️ AMD lance sa Radeon Instinct MI350P : un demi-GPU de MI350X en PCIe 5.0

AMD a officiellement présenté l'Instinct MI350P, un nouveau GPU d'intelligence artificielle destiné aux serveurs standards. Cette carte se distingue de ses aînées MI350X et MI355X par son format PCIe 5.0, qui lui permet d'être installée directement dans un serveur ou un ordinateur classique, sans infrastructure spécialisée. Elle repose sur la même architecture CDNA4 que le reste de la famille MI350, mais avec des caractéristiques exactement divisées par deux : 144 Go de mémoire HBM3E contre 288 Go pour la MI350X, une bande passante mémoire de 4 To/s contre 8 To/s, et 8 192 processeurs de flux pour 4,6 PFLOPS en précision MXFP4, là où la MI350X atteint 9,2 PFLOPS avec ses 16 384 processeurs. Le TDP est plafonné à 600 watts, la fréquence reste à 2,2 GHz, et la carte occupe deux emplacements. Le prix n'a pas encore été communiqué. Cette MI350P cible en priorité les charges d'inférence, c'est-à-dire l'exécution de modèles d'IA déjà entraînés, plutôt que leur apprentissage. Son format PCIe standard ouvre le marché des IA aux opérateurs disposant de parcs de serveurs classiques, qui n'ont pas les moyens ou la nécessité d'investir dans des infrastructures haute densité avec refroidissement liquide. Pour les entreprises cherchant à déployer des modèles de taille intermédiaire à moindre coût d'intégration, la MI350P représente une alternative sérieuse face aux offres concurrentes de NVIDIA sur ce segment. Cette annonce s'inscrit dans une stratégie AMD clairement articulée : couvrir l'ensemble du spectre de performance avec des variantes adaptées à chaque usage. Après avoir lancé la MI350X pour les supercalculateurs et la MI355X avec refroidissement liquide pour les déploiements à très haute densité, AMD comble le segment des serveurs polyvalents avec la MI350P. La pression de NVIDIA reste intense, notamment avec la famille Blackwell, mais AMD cherche à convaincre les grands hyperscalers et les entreprises cloud de diversifier leurs approvisionnements. La prochaine étape sera la communication des tarifs, un signal décisif pour évaluer la compétitivité réelle de cette carte sur le marché de l'inférence IA.

UELes entreprises européennes exploitant des parcs de serveurs classiques pourraient déployer de l'inférence IA à moindre coût d'intégration grâce au format PCIe 5.0, sans investissement en infrastructure haute densité.

InfrastructureActu
1 source
Pourquoi Musk cède les serveurs de xAI à Anthropic ; Reka rachète une startup de génération vidéo
18The Information AI 

Pourquoi Musk cède les serveurs de xAI à Anthropic ; Reka rachète une startup de génération vidéo

xAI, la société d'intelligence artificielle d'Elon Musk, a annoncé mercredi qu'elle cède à Anthropic une part substantielle de son infrastructure de calcul. Selon Anthropic, le transfert porte sur 300 mégawatts de capacité de serveurs, ce qui représente, d'après xAI, plus de 220 000 puces Nvidia. Il s'agit concrètement du complexe Memphis Colossus, la méga-installation que Musk avait inaugurée en grande pompe il y a plus d'un an. Pour donner une échelle, cette capacité équivaut à environ un sixième de l'ensemble des serveurs qu'OpenAI possédait fin 2025 pour ses produits et ses clusters d'entraînement. Ce transfert révèle un déséquilibre frappant au sein du secteur : OpenAI et Anthropic saturent leurs serveurs en permanence, tandis que xAI se retrouve avec une surcapacité coûteuse et sous-exploitée. Pour SpaceX, actionnaire de xAI et candidate à une introduction en bourse imminente, maintenir des serveurs qui tournent à vide représente un gouffre financier de plusieurs milliards de dollars, susceptible d'attirer une attention critique des investisseurs. Céder cette capacité à Anthropic permet à xAI de monétiser des actifs dormants, tout en offrant à Anthropic une marge de calcul supplémentaire pour absorber une demande en constante hausse. Ce n'est pas la première fois que xAI cherche à externaliser ses capacités excédentaires : la société a récemment conclu un accord similaire avec Cursor, l'assistant de codage IA que SpaceX est en cours d'acquisition. Le complexe Memphis Colossus avait suscité une certaine inquiétude chez les concurrents lors de son lancement, Musk se vantant de la vitesse record à laquelle ses équipes avaient monté l'infrastructure. Mais construire massivement sans que la demande suive expose les entreprises à des charges fixes difficiles à absorber. Ce mouvement de consolidation entre acteurs rivaux de l'IA illustre une nouvelle logique de marché, dans laquelle la puissance de calcul se gère comme une ressource à allouer stratégiquement, parfois au-delà des frontières concurrentielles habituelles.

InfrastructureOpinion
1 source
OpenAI présente MRC (Multipath Reliable Connection) : un nouveau protocole réseau ouvert pour les clusters de superordinateurs IA à grande échelle
19MarkTechPost 

OpenAI présente MRC (Multipath Reliable Connection) : un nouveau protocole réseau ouvert pour les clusters de superordinateurs IA à grande échelle

OpenAI a annoncé la publication de MRC (Multipath Reliable Connection), un nouveau protocole réseau développé au cours des deux dernières années en partenariat avec AMD, Broadcom, Intel, Microsoft et NVIDIA. La spécification a été rendue publique via l'Open Compute Project (OCP), une fondation industrielle qui favorise le partage de standards ouverts entre les grandes entreprises technologiques. MRC étend RoCE (RDMA over Converged Ethernet), un standard qui permet à des machines de lire et d'écrire directement dans la mémoire d'autres machines via un réseau Ethernet, sans passer par le processeur central. Il intègre également SRv6, un mécanisme de routage source où chaque paquet transporte dans son en-tête la route exacte qu'il doit emprunter, éliminant le besoin pour les commutateurs réseau de calculer dynamiquement les chemins. Concrètement, MRC repose sur trois mécanismes : une distribution adaptative des paquets sur des centaines de chemins réseau simultanés, une récupération en cas de panne en quelques microsecondes, et un contrôle de congestion basé sur des signaux d'information explicite plutôt que sur la détection de pertes de paquets. L'enjeu est massif : plus de 900 millions de personnes utilisent ChatGPT chaque semaine, et l'entraînement des modèles qui les font fonctionner mobilise des clusters de plusieurs dizaines de milliers de GPU travaillant en parallèle. Or, un seul transfert de données en retard peut paralyser l'ensemble d'une étape d'entraînement, laissant des milliers de GPU en attente. Sur un cluster de cette taille, une panne de lien réseau pouvait auparavant faire échouer un job d'entraînement complet ; avec MRC, le système contourne la défaillance sans interruption perceptible. La réduction du temps mort des GPU représente un gain économique direct considérable, et la prévisibilité des performances réseau permet de planifier les charges de calcul avec beaucoup plus de fiabilité. La publication de MRC s'inscrit dans une bataille plus large pour définir les standards d'infrastructure qui équiperont la prochaine génération de supercalculateurs IA. Depuis plusieurs années, deux camps s'affrontent : InfiniBand, porté historiquement par NVIDIA via Mellanox, et Ethernet, que l'Ultra Ethernet Consortium (UEC) tente de hisser au même niveau de performance. MRC est clairement dans ce second camp, et sa publication via l'OCP signale la volonté d'OpenAI de peser dans la standardisation, au-delà de l'usage interne. Avec AMD, Intel et Broadcom parmi les co-développeurs, l'initiative vise à créer une alternative crédible et ouverte à l'écosystème fermé d'InfiniBand, à un moment où la demande en infrastructures d'entraînement IA s'accélère dans toute l'industrie.

UEL'adoption de ce standard ouvert par les fournisseurs cloud et entreprises européens construisant des clusters IA pourrait réduire leur dépendance à l'écosystème propriétaire d'InfiniBand et abaisser leurs coûts d'infrastructure.

InfrastructureOpinion
1 source
Anthropic relève les plafonds d'utilisation de Claude Code grâce à un accord avec SpaceX
20Ars Technica AI 

Anthropic relève les plafonds d'utilisation de Claude Code grâce à un accord avec SpaceX

Lors de sa conférence développeurs "Code with Claude" organisée mercredi à San Francisco, Anthropic a annoncé un accord avec SpaceX portant sur l'utilisation de la totalité de la capacité de calcul du centre de données de l'entreprise aérospatiale à Memphis, dans le Tennessee. Le PDG Dario Amodei a présenté cet accord sur scène, précisant qu'il visait directement à augmenter les limites d'utilisation pour les abonnés aux plans Pro et Max. Dans la foulée de l'annonce, Anthropic a doublé les fenêtres de cinq heures de Claude Code pour ces abonnés, supprimé la réduction des limites en heures de pointe sur Claude Code, et relevé les quotas d'API pour son modèle Opus. Ces changements représentent une réponse directe aux frustrations des développeurs qui se heurtaient régulièrement aux plafonds d'utilisation lors de sessions de travail intensives. En supprimant la pénalité des heures de pointe et en doublant les fenêtres actives, Anthropic rend Claude Code nettement plus utilisable pour les professionnels qui en font un outil central de leur flux de travail quotidien. Cet accord avec SpaceX illustre la course effrénée aux infrastructures qui structure aujourd'hui la compétition entre les grands laboratoires d'IA. Alors qu'OpenAI, Google et Anthropic se disputent parts de marché chez les développeurs, l'accès garanti à de la puissance de calcul massive devient un avantage concurrentiel aussi important que les capacités des modèles eux-mêmes. La décision d'Anthropic de s'appuyer sur les centres de données de SpaceX, plutôt que d'investir uniquement dans les cloud hyperscalers traditionnels, signal une diversification stratégique de ses dépendances en infrastructure.

UELes développeurs européens abonnés aux plans Pro et Max de Claude Code bénéficient directement du doublement des fenêtres d'utilisation et de la suppression des pénalités aux heures de pointe.

💬 Les plafonds de Claude Code m'ont cassé le rythme plus d'une fois, donc oui, doubler les fenêtres et enlever les pénalités en heures de pointe, c'est le genre de truc qu'on attendait depuis longtemps. Ce qui est plus intéressant que ça en a l'air, c'est le deal SpaceX : Anthropic ne se contente plus des hyperscalers classiques, elle rachète de la capacité là où elle peut. C'est un mouvement malin dans une course où l'infra compte autant que les modèles.

OpenAI crée un protocole réseau avec AMD, Broadcom, Intel, Microsoft et NVIDIA pour résoudre les goulets d'étranglement des supercalculateurs IA
21The Decoder 

OpenAI crée un protocole réseau avec AMD, Broadcom, Intel, Microsoft et NVIDIA pour résoudre les goulets d'étranglement des supercalculateurs IA

OpenAI a annoncé la mise au point du protocole réseau MRC en collaboration avec AMD, Broadcom, Intel, Microsoft et NVIDIA. Ce protocole open source permet de transmettre des données simultanément sur des centaines de chemins entre les GPU, là où les architectures traditionnelles n'en empruntent qu'un à la fois. Là où les infrastructures classiques nécessitent trois ou quatre couches de commutateurs réseau pour relier des dizaines de milliers de puces, MRC n'en requiert que deux pour interconnecter plus de 100 000 GPU. Le protocole est déjà opérationnel sur le supercalculateur Stargate d'OpenAI. Cette simplification de l'architecture réseau a des conséquences directes sur les coûts et la consommation d'énergie des centres de données d'IA. Supprimer une à deux couches de commutateurs représente une économie substantielle en matériel, en câblage et en électricité, à une époque où les dépenses en infrastructure IA atteignent des dizaines de milliards de dollars par an. Pour les opérateurs de supercalculateurs, cette approche permet d'atteindre des échelles inédites tout en maîtrisant la facture énergétique, un enjeu majeur alors que la consommation des data centers est de plus en plus scrutée. Le projet Stargate, dont les investissements annoncés dépassent 500 milliards de dollars sur plusieurs années, illustre l'ambition d'OpenAI de bâtir sa propre infrastructure de calcul à très grande échelle. La création d'un protocole open source, développé en consortium avec les principaux fabricants de semi-conducteurs et Microsoft, signale une volonté de standardiser les communications entre GPU à l'échelle des supercalculateurs modernes. En ouvrant MRC, OpenAI mise sur une adoption large qui pourrait en faire un standard de fait pour l'industrie.

UELe protocole MRC pourrait réduire la consommation énergétique des supercalculateurs IA, un enjeu directement encadré par la réglementation européenne sur l'efficacité énergétique des centres de données.

💬 Enlever une à deux couches de commutateurs sur 100 000 GPU, ça veut dire des centaines de millions en matériel et en électricité économisés, pas un détail à cette échelle. Ce qui me frappe, c'est qu'OpenAI ouvre le protocole en consortium avec AMD, Broadcom, Intel et NVIDIA, plutôt que de le garder propriétaire. La stratégie est lisible : faire de MRC un standard de fait avant que quelqu'un d'autre s'y colle.

InfrastructureOpinion
1 source
Anthropic utilise le datacenter Colossus-1 de SpaceX et ses 220 000 GPU pour alimenter Claude
22The Decoder 

Anthropic utilise le datacenter Colossus-1 de SpaceX et ses 220 000 GPU pour alimenter Claude

Anthropic va s'emparer de la totalité de la capacité de calcul du centre de données Colossus-1 de SpaceX, soit plus de 300 mégawatts d'électricité et plus de 220 000 GPU NVIDIA. Cette infrastructure colossale, attendue en ligne d'ici un mois, sera entièrement dédiée à alimenter les modèles Claude de la startup californienne. En parallèle, Anthropic annonce le doublement des limites de débit pour Claude Code et une augmentation significative des quotas d'API pour ses modèles Opus. Cette prise de contrôle représente un bond considérable en termes de puissance de calcul disponible pour Anthropic, directement répercuté sur les développeurs et entreprises qui utilisent ses API. Doubler les limites de Claude Code signifie concrètement que les équipes de développement pourront automatiser davantage de tâches sans se heurter aux restrictions actuelles, tandis que la hausse des quotas Opus ouvre la voie à des déploiements en production plus intensifs. C'est un signal fort envoyé aux clients enterprise qui hésitaient à migrer vers Claude en raison des contraintes de capacité. Colossus-1 a été initialement construit par xAI, la société d'intelligence artificielle d'Elon Musk, pour entraîner ses propres modèles Grok. Le fait qu'Anthropic en récupère la pleine capacité illustre la guerre d'infrastructure qui se joue en coulisse entre les grands laboratoires d'IA : disposer de suffisamment de GPU est désormais aussi stratégique que la qualité des modèles eux-mêmes. Avec ce partenariat, Anthropic consolide sa position face à OpenAI et Google DeepMind dans la course aux ressources de calcul à grande échelle.

UELes développeurs et entreprises européennes utilisant l'API Claude bénéficieront directement du doublement des quotas Claude Code et de la hausse des limites Opus, facilitant les déploiements en production à grande échelle.

💬 220 000 GPU construits par xAI pour Grok, qui finissent chez Anthropic. C'est un peu la blague de l'année, mais ça dit surtout que l'infrastructure est devenue aussi stratégique que les modèles eux-mêmes. Ce qui m'intéresse directement, c'est le doublement des limites Claude Code: les pipelines qui plafonnaient vont enfin pouvoir tourner sans jongler avec les quotas.

InfrastructureOpinion
1 source
Déploiement rentable de modèles vision-langage pour la détection du comportement animal sur AWS Inferentia2
23AWS ML Blog 

Déploiement rentable de modèles vision-langage pour la détection du comportement animal sur AWS Inferentia2

Tomofun, la startup taïwanaise à l'origine de la caméra connectée Furbo, a migré une partie de son infrastructure d'inférence IA des instances GPU Amazon EC2 vers des instances EC2 Inf2, propulsées par les puces AWS Inferentia2 conçues en interne par Amazon. Le système Furbo analyse en temps réel les flux vidéo provenant de centaines de milliers de caméras domestiques pour détecter des comportements animaux précis, aboiements, courses, activités inhabituelles, et envoyer des alertes instantanées aux propriétaires. Le modèle central est BLIP (Bootstrapping Language-Image Pre-Training), un modèle vision-langage compilé via le SDK Neuron d'AWS pour s'exécuter nativement sur Inferentia2. L'architecture déployée s'appuie sur deux couches d'Auto Scaling EC2 derrière un Elastic Load Balancer : la première traite les requêtes API, la seconde héberge les conteneurs d'inférence. Amazon CloudFront achemine les images des caméras vers ce pipeline, tandis que CloudWatch surveille la latence, le débit et les taux d'erreur en continu. La motivation principale de cette migration est économique. L'inférence toujours active à grande échelle est fondamentalement différente de l'entraînement : elle ne nécessite pas la puissance brute des GPU, mais exige une disponibilité permanente et un coût par requête minimal. En remplaçant une partie des GPU par des instances Inf2, Tomofun réduit significativement ses dépenses d'infrastructure tout en maintenant la précision et le débit du modèle. La transition a été conçue pour être transparente : l'API Furbo peut désormais router les requêtes vers des conteneurs GPU ou Inferentia2 sans modifier la logique d'alerte en aval ni l'expérience utilisateur. Cette flexibilité permet aussi d'ajuster dynamiquement le mix en fonction de la charge et des coûts, ce qui est particulièrement précieux pour un service dont le trafic fluctue selon les heures de la journée dans de nombreux fuseaux horaires. Cette initiative s'inscrit dans une tendance plus large du marché cloud : les grandes plateformes développent leurs propres puces d'inférence, Inferentia2 chez AWS, TPU chez Google, et les futures puces de Meta, pour offrir une alternative moins coûteuse aux GPU Nvidia dans les déploiements de production à grande échelle. Pour les entreprises gérant des millions de requêtes d'inférence quotidiennes sur des modèles de vision stabilisés, l'argument économique des accélérateurs spécialisés devient difficile à ignorer. Le cas Tomofun illustre concrètement ce compromis : conserver les GPU pour la flexibilité et les pics, tout en basculant la charge de base vers Inferentia2. Avec la prolifération des objets connectés embarquant de l'IA en périphérie, ce modèle hybride pourrait devenir la norme pour les acteurs du secteur de la "pet tech" et plus largement de l'IoT intelligent.

InfrastructureActu
1 source
HP et l'art de l'IA et des données pour les entreprises
24AI News 

HP et l'art de l'IA et des données pour les entreprises

À quelques jours du salon AI & Big Data Expo, prévu les 18 et 19 mai au McEnery Convention Center de San Jose, Jérôme Gabryszewski, responsable du développement commercial IA et Data Science chez HP, a accordé une interview à Artificial Intelligence News pour évoquer les défis concrets que rencontrent les grandes entreprises dans leur adoption de l'intelligence artificielle. Le constat est sans appel : malgré un accès abondant à leurs propres données, la plupart des organisations peinent à en tirer parti. La première embûche n'est pas technique : c'est la dette organisationnelle et architecturale. Avant d'automatiser quoi que ce soit, les entreprises doivent réconcilier des données éparpillées entre départements, des schémas incohérents et des systèmes legacy jamais conçus pour l'interopérabilité. Le travail de gouvernance précède toujours le déploiement technique. Sur la question des modèles en apprentissage continu, Gabryszewski recommande d'appliquer les mêmes exigences qu'un déploiement logiciel classique : aucune mise à jour en production sans validation formelle. La dérive conceptuelle est surveillée via des pipelines MLOps avec détection automatique, et la contamination des données d'entraînement est traitée comme un problème de traçabilité autant que de sécurité. Les entreprises qui maîtrisent ces risques ne sont pas forcément les plus avancées techniquement, mais celles qui ont intégré la gouvernance IA dans leur cadre de gestion des risques avant de passer à l'échelle. Ce positionnement a des implications concrètes pour des milliers d'équipes data qui cherchent à réduire leur dépendance au cloud sans sacrifier la puissance de calcul. La question du local versus cloud est au cœur des arbitrages actuels : chaque inférence envoyée dans le cloud représente un coût, une latence et une exposition potentielle de données sensibles. Disposer d'une infrastructure locale capable de faire tourner des modèles de grande taille change fondamentalement l'équation économique et réglementaire, notamment pour les secteurs soumis à des contraintes strictes comme la finance, la santé ou la défense. HP s'appuie sur quinze ans de développement de sa gamme professionnelle Z pour positionner son matériel comme épine dorsale de ce cycle IA autonome. Le ZBook Ultra et le Z2 Mini couvrent les usages mobiles et compacts, mais c'est le ZGX Nano qui attire l'attention : un supercalculateur IA de 15x15 cm, équipé du superpuce NVIDIA GB10 Grace Blackwell, 128 Go de mémoire unifiée et 1 000 TOPS de performance FP4, capable de faire tourner localement des modèles jusqu'à 200 milliards de paramètres. En interconnectant deux unités, on atteint 405 milliards de paramètres, sans cloud, sans datacenter, sans file d'attente. L'appareil est livré préconfiguré avec la pile logicielle NVIDIA DGX et le HP ZGX Toolkit, permettant aux équipes d'être opérationnelles en quelques minutes. HP vise ainsi le segment des équipes IA qui ont besoin de puissance souveraine et immédiate, à l'heure où la course aux modèles toujours plus grands redistribue les cartes du marché des workstations professionnelles.

InfrastructureActu
1 source
NVIDIA Spectrum-X, le réseau Ethernet ouvert conçu pour l'IA, s'impose comme référence à grande échelle, avec MRC
25NVIDIA AI Blog 

NVIDIA Spectrum-X, le réseau Ethernet ouvert conçu pour l'IA, s'impose comme référence à grande échelle, avec MRC

NVIDIA a annoncé que son infrastructure réseau Spectrum-X Ethernet intègre désormais le protocole MRC (Multipath Reliable Connection), une innovation développée conjointement avec OpenAI et Microsoft, et désormais publiée en spécification ouverte via l'Open Compute Project. MRC est un protocole de transport RDMA qui permet à une seule connexion réseau de distribuer le trafic sur plusieurs chemins simultanément, améliorant le débit, l'équilibrage de charge et la disponibilité des infrastructures d'entraînement IA à grande échelle. Parmi les premiers déploiements en production figurent le datacenter Fairwater de Microsoft et le datacenter Abilene d'Oracle Cloud Infrastructure, deux des plus grandes usines IA au monde dédiées à l'entraînement de modèles de pointe. OpenAI a notamment intégré MRC dans sa génération Blackwell : Sachin Katti, responsable du calcul industriel chez OpenAI, a confirmé que le protocole a permis d'éviter la majorité des ralentissements réseau habituels lors des runs d'entraînement frontier à grande échelle. L'enjeu est directement économique et computationnel : dans un cluster d'entraînement réunissant des milliers de GPU, la moindre interruption réseau peut bloquer l'intégralité d'un job d'entraînement, laissant des GPU à l'arrêt et brûlant des millions de dollars en temps de calcul inutilisé. MRC répond à ce problème en détectant les pannes réseau en quelques microsecondes et en reroutant automatiquement le trafic dans le matériel lui-même, sans intervention logicielle. Le protocole maintient également une bande passante élevée sous congestion en évitant dynamiquement les chemins surchargés en temps réel, et minimise l'impact des pertes de paquets grâce à une retransmission intelligente et ciblée. Les administrateurs gagnent par ailleurs une visibilité granulaire sur les chemins de trafic, ce qui simplifie considérablement les opérations à très grande échelle. Cette annonce s'inscrit dans une course mondiale à la construction d'infrastructures réseau capables de suivre l'explosion des besoins en calcul IA. Jusqu'ici, InfiniBand de Mellanox, aussi propriété de NVIDIA, dominait les clusters HPC et IA haute performance, tandis qu'Ethernet était perçu comme moins adapté aux charges de travail intensives. Spectrum-X représente la tentative de NVIDIA de rendre Ethernet compétitif sur ce terrain en y ajoutant une couche matérielle et protocolaire dédiée à l'IA. La publication de MRC comme spécification ouverte via l'Open Compute Project est un signal stratégique fort : en permettant à d'autres acteurs d'implémenter le protocole, NVIDIA cherche à imposer Spectrum-X comme standard de facto du réseau Ethernet pour l'IA, face aux alternatives comme Ultra Ethernet Consortium poussé par AMD, Intel et d'autres. La prochaine étape sera de voir si d'autres fournisseurs cloud et constructeurs de clusters adoptent MRC à leur tour.

UELa publication de MRC comme spécification ouverte via l'Open Compute Project pourrait à terme bénéficier aux centres de données européens qui développent des infrastructures d'entraînement IA, mais aucune entreprise ou institution européenne n'est directement impliquée dans cette annonce.

InfrastructureOpinion
1 source
La mise en production de l'IA à grande échelle oblige les entreprises à repenser leur infrastructure
26VentureBeat AI 

La mise en production de l'IA à grande échelle oblige les entreprises à repenser leur infrastructure

Le déploiement de l'intelligence artificielle à grande échelle est en train de redessiner l'architecture informatique des entreprises. C'est le constat que dressent Tarkan Maner, président et directeur commercial de Nutanix, et Thomas Cornely, vice-président exécutif en charge du produit, qui observent une bascule profonde dans la façon dont les organisations abordent l'IA. Après des mois de prototypes et d'expérimentations dans le cloud, les entreprises cherchent désormais à déployer ces systèmes sur des charges de travail réelles, pour des milliers d'utilisateurs simultanés. Cornely résume l'écart : "Faire un prototype, c'est une chose. Déployer ce prototype pour 10 000 employés, c'en est une autre." La montée en puissance des agents IA, capables d'enchaîner des tâches complexes en toute autonomie, amplifie encore cette pression : les infrastructures doivent gérer des workflows multi-étapes, des charges imprévisibles en temps réel, et coordonner l'accès aux données entre équipes. Ce passage du pilote à la production révèle des contraintes pratiques que l'expérimentation en cloud avait masquées. Les questions de gouvernance des données, de contrôle, de sécurité et de coût prennent rapidement le dessus dès que les volumes augmentent. Les cas d'usage qui progressent le plus vite sont la recherche documentaire et la récupération de connaissances, la détection prédictive des menaces en cybersécurité, les workflows de développement logiciel, et le support client. Dans le secteur bancaire, notamment en Europe et aux États-Unis, des établissements déploient déjà des outils de reconnaissance faciale et de détection prédictive des cyberattaques pilotés par l'IA. L'enjeu n'est pas de remplacer les décisions humaines, mais de trouver le bon équilibre entre l'automatisation et l'intervention humaine, ce que Maner résume par l'idée d'une "harmonie" entre agents IA, robotique et capital humain, optimisée pour de meilleurs résultats opérationnels. Cette transformation s'inscrit dans un contexte de mutation accélérée qui touche l'ensemble des secteurs, des industries réglementées comme la banque, la santé et les administrations publiques jusqu'à la distribution et la manufacture. Des frameworks comme OpenClaw facilitent désormais la création d'agents par des équipes qui n'ont pas de compétences en infrastructure IA, ce qui accroît la pression sur les plateformes chargées de sécuriser ces déploiements. La trajectoire dominante est claire : débuter dans le cloud pour accéder rapidement aux ressources, puis rapatrier les applications critiques sur site à mesure qu'elles entrent en production, sur des plateformes qui résolvent les problèmes de sécurité et de coût à la fois. Nutanix se positionne explicitement sur ce segment, voyant dans cette transition une opportunité de croissance majeure à mesure que les entreprises cherchent des partenaires capables d'accompagner l'IA de l'expérimentation au déploiement industriel.

UELe secteur bancaire européen est cité parmi les premiers adopteurs de l'IA en production (reconnaissance faciale, détection prédictive des cyberattaques), illustrant les enjeux croissants de gouvernance et de souveraineté des données pour les entreprises françaises et européennes.

InfrastructureActu
1 source
Des data centers IA flottants alimentés par les vagues de l'océan : la Silicon Valley mise sur cette piste
27Ars Technica AI 

Des data centers IA flottants alimentés par les vagues de l'océan : la Silicon Valley mise sur cette piste

Des investisseurs de la Silicon Valley, dont Peter Thiel, cofondateur de Palantir, ont misé des centaines de millions de dollars sur un concept inédit : des centres de données flottants alimentés par l'énergie des vagues océaniques. Le dernier tour de financement, d'un montant de 140 millions de dollars annoncé le 4 mai, doit permettre à la startup Panthalassa de finaliser une installation pilote de fabrication près de Portland, en Oregon, et d'accélérer le déploiement de ses "nœuds" marins. Ces plateformes flottantes captent l'énergie des vagues pour alimenter directement des puces d'intelligence artificielle embarquées, puis transmettent les résultats des modèles, sous forme de tokens d'inférence, aux clients via liaison satellite, sans jamais passer par un data center terrestre. L'enjeu est de taille : ce modèle transforme un problème de transport d'énergie en un problème de transport de données, une substitution potentiellement décisive. Comme l'explique Benjamin Lee, ingénieur et architecte informatique à l'Université de Pennsylvanie, "réaliser du calcul IA sur l'océan nécessite de transférer les modèles vers les nœuds en mer, puis de répondre aux requêtes". Concrètement, cela signifie que les opérateurs n'auraient plus besoin de construire des lignes à haute tension ni de négocier l'accès au réseau électrique terrestre, deux obstacles majeurs qui ralentissent actuellement le déploiement de l'infrastructure IA à grande échelle. Cette initiative émerge dans un contexte où les géants de la tech font face à des difficultés croissantes pour implanter des data centers sur la terre ferme : contraintes foncières, pénuries énergétiques locales, délais de raccordement au réseau et oppositions réglementaires freinent les projets de Microsoft, Google ou Amazon. Le secteur cherche des alternatives radicales, qu'il s'agisse de l'énergie nucléaire modulaire ou, désormais, de l'offshore. Panthalassa devra encore démontrer la fiabilité de ses nœuds face aux conditions marines extrêmes, la latence acceptable pour les cas d'usage IA, et la viabilité économique à grande échelle, autant de défis techniques que le pilote de Portland sera chargé de valider.

InfrastructureActu
1 source
Ruben BRYON, construire une alternative européenne au cloud américain
28FrenchWeb 

Ruben BRYON, construire une alternative européenne au cloud américain

Ruben Bryon a commencé à coder seul à l'âge de 12 ans, allant jusqu'à percer un mur dans le garage familial pour refroidir ses premiers serveurs. Quinze ans plus tard, il dirige Verda, une entreprise fondée sous le nom de DataCrunch, qui ambitionne de construire la première "Gigafactory" européenne de l'intelligence artificielle. Concrètement, il s'agit de déployer des centres de données massivement équipés en GPU, les puces indispensables à l'entraînement et à l'inférence des grands modèles d'IA, sur le sol européen, en dehors de la dépendance aux hyperscalers américains comme AWS, Azure ou Google Cloud. L'enjeu est considérable pour l'industrie technologique européenne. Les startups et laboratoires de recherche du continent paient aujourd'hui leurs coûts de calcul à des entreprises américaines, ce qui crée une dépendance structurelle tant sur le plan économique que réglementaire. Une infrastructure GPU souveraine permettrait aux acteurs européens de développer et déployer des modèles d'IA sans que leurs données transitent par des juridictions soumises au droit américain, un point particulièrement sensible depuis le Cloud Act de 2018. L'initiative de Bryon s'inscrit dans un mouvement plus large de souveraineté numérique européenne, porté aussi bien par des régulations comme le RGPD que par des initiatives industrielles telles que GAIA-X. Face à la concentration du marché du cloud d'IA entre les mains de quelques géants américains, des acteurs comme Verda cherchent à occuper le créneau de l'infrastructure de confiance en Europe, à mesure que la demande en puissance de calcul pour l'IA continue d'exploser.

UEVerda déploie des centres de données GPU sur sol européen pour permettre aux startups et laboratoires de recherche européens d'entraîner leurs modèles d'IA sans transiter par des juridictions soumises au Cloud Act américain.

💬 C'est exactement ce qu'on attendait depuis que le Cloud Act a rendu la question brûlante. Partir de l'infra GPU, pas du cadre réglementaire, c'est ce qui distingue Verda de toutes les initiatives européennes de souveraineté numérique qui finissent en comité de pilotage. Reste à voir si les capitaux suivent à l'échelle d'une gigafactory.

InfrastructureOpinion
1 source
Zyphra présente TSP : stratégie d'entraînement adaptée au matériel offrant un débit 2,6 fois supérieur au TP+SP
29MarkTechPost 

Zyphra présente TSP : stratégie d'entraînement adaptée au matériel offrant un débit 2,6 fois supérieur au TP+SP

Zyphra a publié une nouvelle technique d'entraînement et d'inférence pour les grands modèles de langage baptisée TSP, pour Tensor and Sequence Parallelism. Testée sur jusqu'à 1 024 GPU AMD MI300X, cette approche affiche un débit 2,6 fois supérieur aux configurations standards combinant parallélisme tensoriel et de séquence, tout en réduisant la mémoire de pointe par GPU sur les deux types de charge de travail, entraînement et inférence. L'idée centrale est ce que Zyphra appelle le "parallelism folding" : plutôt que de répartir les poids du modèle et les tokens de la séquence sur deux axes distincts d'une grille de GPU, TSP combine les deux sur un seul axe de taille D. Résultat : chaque GPU ne détient qu'un D-ième des poids du modèle et qu'un D-ième de la séquence d'entrée, ce qui réduit mécaniquement l'empreinte mémoire par appareil pour les paramètres, les gradients, les états de l'optimiseur et les activations, en un seul mouvement. Cela change concrètement la façon dont les ingénieurs peuvent planifier l'infrastructure pour les très grands modèles. Les deux approches dominantes jusqu'ici avaient chacune un défaut structurel : le parallélisme tensoriel (TP) réduit la mémoire des poids mais génère des communications dont le coût explose avec la longueur des séquences ; le parallélisme de séquence (SP) allège les activations mais laisse les poids entièrement répliqués sur chaque GPU. Combinés sur des axes orthogonaux, ces deux schémas exigent un groupe de T fois Sigma GPU par réplique du modèle, ce qui peut forcer les communications à transiter par des interconnexions inter-nœuds lentes comme InfiniBand, plutôt que par les tissus haute bande passante intra-nœuds comme AMD Infinity Fabric ou NVLink. TSP évite ce surcoût en maintenant tout le groupe sur un axe unique, suffisamment compact pour rester dans les liens rapides. La course aux grands modèles a rendu la gestion de la mémoire GPU aussi critique que les algorithmes eux-mêmes. Les entreprises comme OpenAI, Anthropic, Google ou Meta opèrent des clusters de plusieurs milliers de GPU où chaque point de pourcentage d'efficacité mémoire se traduit directement en coûts d'infrastructure ou en capacité à entraîner des modèles plus grands. Zyphra, startup spécialisée dans l'IA d'entreprise et les architectures hybrides comme Zamba, publie cette technique avec une description technique détaillée, signalant une volonté de peser dans les débats d'infrastructure aux côtés des équipes de recherche système de Google DeepMind, Meta FAIR ou Microsoft. TSP devra maintenant être évalué sur des architectures NVIDIA et des topologies de cluster variées pour confirmer si ses gains se généralisent au-delà des GPU AMD.

InfrastructureOpinion
1 source
Groq 3 LPX : un rack d’inférence qui fait fondre la latence des LLM
30Le Big Data 

Groq 3 LPX : un rack d’inférence qui fait fondre la latence des LLM

Groq a dévoilé lors du GTC 2026 le Groq 3 LPX, un rack d'inférence conçu pour répondre aux nouvelles exigences des systèmes agentiques autonomes. Ce châssis ultra-dense regroupe 256 accélérateurs LPU Groq 3 dans une architecture entièrement dédiée à la génération de tokens pour les grands modèles de langage. Sa particularité la plus radicale est d'abandonner toute mémoire HBM externe au profit de 500 Mo de SRAM intégrée directement sur chaque puce, ce qui lui permet d'atteindre une bande passante mémoire de 150 To/s par accélérateur. Le système s'intègre à l'écosystème Vera Rubin de NVIDIA et doit être disponible commercialement au troisième trimestre 2026. Les fournisseurs cloud préparent déjà leurs centres de données en conséquence. Ce choix architectural répond à un problème concret qui freine aujourd'hui le déploiement massif d'agents IA : la latence. Les GPU classiques, pensés pour l'entraînement en parallèle massif, introduisent des délais irréguliers lors de l'inférence séquentielle, ce qui rend les interactions en temps réel imprévisibles. En éliminant les goulots d'étranglement liés aux accès mémoire externe, le Groq 3 LPX garantit une cadence de traitement régulière et prévisible, un impératif pour les applications critiques comme les assistants vocaux, les agents de code ou les systèmes de décision automatisée. Pour les équipes d'ingénierie qui déploient ces architectures en production, la stabilité du débit compte autant que sa vitesse brute. La trajectoire de Groq illustre une tendance de fond dans l'industrie du semi-conducteur : la spécialisation matérielle poussée à l'extrême. Depuis sa fondation, la société mise sur les LPU (Language Processing Units) comme alternative aux GPU pour l'inférence, un pari longtemps marginal qui prend aujourd'hui de l'ampleur avec la montée des modèles de plusieurs dizaines de milliards de paramètres. L'intégration dans l'écosystème NVIDIA via Vera Rubin signal également un rapprochement stratégique entre acteurs qui auraient pu rester concurrents directs. L'essor des agents autonomes, capables de chaîner des dizaines d'appels LLM en quelques secondes, crée une demande d'infrastructure que ni les GPU ni les API cloud généralistes ne satisfont pleinement. Le Groq 3 LPX se positionne sur ce segment encore ouvert, aux côtés de concurrents comme Cerebras ou SambaNova, dans une course où la latence est devenue la nouvelle métrique dominante.

InfrastructureOpinion
1 source
Intel prépare sa riposte : un ex de Qualcomm aux commandes de l’IA et des PC
31Le Big Data 

Intel prépare sa riposte : un ex de Qualcomm aux commandes de l’IA et des PC

Intel a annoncé le 4 mai 2026 deux nominations importantes à sa direction. Alex Katouzian, ancien vice-président exécutif de Qualcomm où il dirigeait depuis des années les activités mobiles, informatiques et de réalité étendue, rejoint Intel comme vice-président exécutif et directeur général du nouveau groupe Client Computing & Physical AI. Il rapportera directement au PDG Lip-Bu Tan. Simultaneously, Pushkar Ranade est confirmé au poste de directeur technique permanent, avec autorité sur des chantiers prospectifs aussi variés que l'informatique quantique, les technologies neuromorphiques et la photonique. Les deux hommes prennent leurs fonctions immédiatement, selon l'annonce officielle d'Intel publiée sur X le jour même. Ces nominations traduisent un repositionnement stratégique majeur pour Intel, qui cherche à redéfinir son activité PC autour de l'intelligence artificielle embarquée. Le périmètre du groupe que dirigera Katouzian va bien au-delà du PC traditionnel : il englobe la robotique, les machines autonomes et les systèmes embarqués, des marchés en forte croissance où l'IA locale devient un avantage décisif. L'objectif affiché est de transformer le PC en plateforme intelligente capable de traiter l'IA sans dépendre du cloud. Pour les fabricants de matériel, les développeurs et les entreprises industrielles, cela pourrait accélérer l'intégration de capacités IA directement dans les appareils, avec Intel comme fournisseur de puces central face à des concurrents de plus en plus agressifs. Intel traverse depuis plusieurs années une période difficile, pris en étau entre Nvidia qui domine le marché des GPU pour l'entraînement et l'inférence IA, et Qualcomm qui grignote sa part historique sur les PC avec ses puces Snapdragon X Elite. Recruter Katouzian, figure reconnue de l'écosystème Qualcomm qui a contribué à structurer le marché des smartphones et des PC connectés, est un signal offensif : Intel ne se contente plus de défendre ses positions, il vise à attaquer sur le terrain même de son ancien rival. Lip-Bu Tan, arrivé à la tête du groupe en 2025 avec un mandat de redressement, construit ainsi une équipe de direction capable de relier les produits d'aujourd'hui aux ruptures technologiques de demain. La prochaine échéance concrète sera la gamme de puces PC prévue pour 2026-2027, sur laquelle ces deux nominations auront une influence directe.

InfrastructureOpinion
1 source
Nebius, Lambda et CoreWeave refusent les TPUs malgré la pression de Google
32The Information AI 

Nebius, Lambda et CoreWeave refusent les TPUs malgré la pression de Google

Lors de sa dernière conférence téléphonique sur ses résultats financiers, Google a annoncé qu'il prévoit de vendre ses puces TPU (tensor processing units) directement à des clients entreprises pour une utilisation dans leurs propres centres de données, une rupture majeure avec une stratégie qui cantonnait jusqu'ici ces accélérateurs quasi exclusivement à Google Cloud. Mais au même moment, trois dirigeants de grands acteurs du "neocloud" ont clairement indiqué ne pas avoir l'intention d'adopter les TPU dans un avenir proche. Chuck Fisher, directeur financier de Lambda, a déclaré lors d'une conférence de The Information : "Nous saignons vert chez Lambda", allusion directe aux couleurs d'Nvidia. Marc Boroditsky, directeur commercial de Nebius, a confirmé que 99 % de la demande que reçoit son entreprise porte sur des GPU Nvidia, précisant que les rares clients qui s'enquièrent des TPU sont souvent d'anciens salariés de Google. Nick Robbins, vice-président de CoreWeave, a quant à lui noté que les principaux utilisateurs de TPU, Google, Anthropic et Meta, sont aussi parmi les plus gros acheteurs de GPU, ce qui conforte la rentabilité de miser sur Nvidia. Ces déclarations révèlent le défi structurel auquel Google se heurte pour faire des TPU une alternative crédible aux GPU d'Nvidia. Les neoclouds, canal de distribution naturel pour ce type de matériel, sont profondément liés à Nvidia : la firme de Santa Clara est à la fois leur principal fournisseur, un investisseur clé et souvent un important client. La logique économique est implacable : lorsque 99 % du marché réclame une technologie précise, parier sur une alternative représente un risque difficile à justifier. Chaque mégawatt alloué fait l'objet d'un calcul de rendement ajusté au risque, et dans ce calcul, Nvidia l'emporte largement. Confronté au désintérêt des grands neoclouds, Google a réorienté sa stratégie de distribution. Après avoir tenté d'intégrer ses TPU aux infrastructures de CoreWeave et de Crusoe, sans succès, la firme a conclu un accord avec Fluidstack, une startup encore peu connue dans le secteur, pour déployer des TPU au bénéfice d'Anthropic, en garantissant des milliards de dollars en baux et en dettes liés à ces déploiements. Le PDG Sundar Pichai a confirmé que Google vise un "groupe sélectif de clients", notamment dans les services financiers et l'IA de pointe, plutôt que de chercher à rendre ses puces aussi répandues que les GPU. Sur le plan financier, Google négocie avec de grands fonds d'investissement pour créer des coentreprises et des véhicules ad hoc permettant d'acheter des TPU et de les louer aux clients finaux, réduisant ainsi sa dépendance aux neoclouds pour la distribution de son matériel propriétaire.

UENebius, acteur neocloud implanté en Europe, confirme que 99 % de la demande de ses clients porte sur des GPU Nvidia, illustrant la dépendance du marché européen à l'égard de ce fournisseur pour l'infrastructure IA.

InfrastructureOpinion
1 source
Du data lake à l'analyse compatible IA : nouvelle source de données avec S3 Tables dans Amazon QuickSight
33AWS ML Blog 

Du data lake à l'analyse compatible IA : nouvelle source de données avec S3 Tables dans Amazon QuickSight

Amazon a annoncé l'intégration des S3 Tables au format Apache Iceberg comme nouvelle source de données dans Amazon QuickSight, son service d'analyse et de business intelligence piloté par l'IA. Cette mise à jour permet aux entreprises de requêter directement des tables Iceberg stockées dans un S3 table bucket, sans passer par des couches intermédiaires comme un entrepôt de données ou un système OLAP. QuickSight supporte désormais deux modes d'interrogation pour ces tables : Direct Query, qui offre un accès en quasi-temps réel aux données, et SPICE (Super-fast, Parallel, In-memory Calculation Engine), son moteur de calcul en mémoire haute performance. Pour illustrer le cas d'usage, Amazon cite l'exemple d'AnyCompany Corp., une institution financière mondiale qui ingère des transactions en temps réel via Amazon Kinesis Data Streams et Amazon Data Firehose vers un S3 table bucket, permettant une détection de fraude et un suivi des taux d'approbation quasi instantanés depuis des sources hétérogènes : terminaux de paiement, applications mobiles, objets connectés et passerelles en ligne. Cet ajout représente une avancée concrète pour les équipes data et analytique des grandes entreprises. Jusqu'ici, analyser des données à grande échelle stockées dans un data lake nécessitait généralement de les déplacer vers un entrepôt de données ou un système OLAP, ce qui introduisait de la latence, des coûts supplémentaires et une complexité opérationnelle importante. En permettant de requêter directement le data lake depuis QuickSight, Amazon élimine ces pipelines de transformation coûteux. Les utilisateurs métiers peuvent ainsi explorer des jeux de données massifs, interagir en langage naturel et obtenir des visualisations à jour sans dépendre de processus batch ni nécessiter d'expertise en machine learning. La scalabilité constitue un autre avantage clé : les requêtes portent sur des volumes importants stockés dans S3 sans contrainte de taille ni besoin de réplication préalable. Cette annonce s'inscrit dans la montée en puissance des architectures de données modernes autour des formats de table ouverts comme Apache Iceberg, conçus pour offrir de meilleures performances, une gouvernance simplifiée et des coûts réduits par rapport aux entrepôts traditionnels. Amazon, Microsoft et Google se livrent une concurrence intense sur le segment de l'analytique cloud, chacun cherchant à rendre ses services d'analyse plus accessibles et plus proches des données sources. En intégrant les S3 Tables à QuickSight, AWS renforce son positionnement autour du concept de "source unique de vérité" dans le data lake, tout en réduisant la dépendance aux solutions tierces comme Snowflake ou Databricks. La prochaine étape logique pourrait être une intégration plus poussée des capacités d'IA générative de QuickSight avec ces nouvelles sources, afin d'automatiser davantage la détection d'anomalies et la génération d'insights à la volée.

InfrastructureActu
1 source
Inférence adaptée à la capacité : basculement automatique entre instances pour les endpoints SageMaker AI
34AWS ML Blog 

Inférence adaptée à la capacité : basculement automatique entre instances pour les endpoints SageMaker AI

Amazon SageMaker AI vient d'introduire une fonctionnalité baptisée "capacity-aware instance pool" pour ses endpoints d'inférence, disponible immédiatement pour les nouveaux déploiements comme pour les endpoints existants. Concrètement, les équipes peuvent désormais définir une liste ordonnée de types d'instances GPU plutôt qu'un type unique, et SageMaker parcourt automatiquement cette liste dès qu'une contrainte de capacité se présente, que ce soit à la création de l'endpoint, lors d'un scale-out ou d'un scale-in. Cette mécanique de bascule automatique fonctionne pour les Single Model Endpoints, les endpoints basés sur des Inference Components, et les Asynchronous Inference endpoints. Les métriques Amazon CloudWatch bénéficient également d'une nouvelle dimension InstanceType, permettant de suivre latence, débit, utilisation GPU et nombre d'instances par type de matériel au sein d'un même endpoint. Jusqu'ici, le déploiement d'un modèle sur SageMaker imposait de choisir un seul type d'instance au moment de la création. Si ce type manquait de capacité, l'endpoint échouait avec une erreur "Insufficient Capacity", forçant les équipes à itérer manuellement sur des alternatives, chaque tentative prenant plusieurs minutes avant de connaître son issue. Le problème se répétait à chaque phase du cycle de vie : lors des montées en charge automatiques, l'autoscaler relançait indéfiniment des requêtes sur le même type d'instance indisponible pendant que le trafic continuait d'augmenter, et lors des descentes, toutes les instances étaient candidates à la suppression sans distinction de priorité. Avec les instance pools, SageMaker essaie le type préféré en premier, bascule immédiatement sur le suivant si nécessaire, et retire en priorité les instances de fallback lors des scale-in, laissant la flotte revenir naturellement vers le matériel privilégié quand il redevient disponible. Cette annonce s'inscrit dans un contexte où l'accès aux GPU reste l'un des goulots d'étranglement les plus critiques pour les organisations qui industrialisent des charges IA en production. Les grands modèles de langage et les architectures multimodales exigent des types d'instances spécifiques, souvent soumis à une forte tension sur les capacités cloud. AWS rejoint ainsi une tendance plus large dans laquelle les fournisseurs cloud intègrent nativement des mécanismes de résilience face aux pénuries de compute, réduisant la charge opérationnelle sur les équipes MLOps. La possibilité de migrer des endpoints existants sans reconstruction complète est un signal fort : AWS cible autant les workloads de production déjà déployés que les nouveaux projets. Les suites logiques seraient une extension à d'autres services d'inférence managés et une intégration plus fine avec les stratégies de spot instances pour optimiser les coûts tout en maintenant la disponibilité.

InfrastructureActu
1 source
Google TPU v8 : la puce IA qui défie NVIDIA Blackwell
35Le Big Data 

Google TPU v8 : la puce IA qui défie NVIDIA Blackwell

Google a officiellement présenté sa huitième génération de puces TPU le 22 avril 2026 lors du Google Cloud Next 2026, en introduisant pour la première fois une architecture scindée en deux variantes distinctes. La TPU v8t, baptisée "Sunfish", est dédiée à l'entraînement des modèles et affiche une puissance brute de 12,6 pétaflops en précision FP4, avec 216 Go de mémoire HBM3e. La TPU v8i, surnommée "Zebrafish", cible l'inférence et embarque 288 Go de mémoire HBM3e ainsi qu'une SRAM trois fois plus dense que la génération précédente, permettant de connecter jusqu'à 1 152 puces simultanément via le réseau Boardfly. Ces deux puces s'appuient sur les frameworks JAX et Pathways pour orchestrer des milliers d'unités comme un seul système cohérent, au sein de configurations appelées Superpods. Cette spécialisation marque une rupture stratégique majeure dans la conception des infrastructures IA. En séparant les charges d'entraînement et d'inférence, Google s'attaque directement au "mur de la mémoire" qui freine les modèles actuels les plus ambitieux. La v8i divise par deux la latence d'exécution par rapport à la génération précédente, ce qui est décisif pour les agents IA qui doivent répondre et agir en temps réel sans délai perceptible. Cette architecture répond directement aux exigences de ce que Google appelle l'"ère agentique", où les modèles ne se contentent plus de générer du texte mais exécutent des tâches complexes de manière autonome. Pour les entreprises clientes du cloud Google, cela se traduit par un coût total de possession potentiellement réduit par rapport aux GPU NVIDIA Blackwell, grâce à une intégration verticale complète entre le matériel, le logiciel et les services cloud. La sortie du TPU v8 s'inscrit dans une course à l'infrastructure qui oppose désormais directement les hyperscalers aux fabricants de puces. NVIDIA domine ce marché avec ses GPU Blackwell, mais Google, comme Amazon avec ses Trainium ou Microsoft avec ses Maia, cherche à réduire sa dépendance aux fournisseurs externes en contrôlant chaque couche de la chaîne. L'intégration verticale totale est devenue l'argument central : maîtriser simultanément le silicium, les frameworks d'entraînement et la plateforme cloud permet de proposer des performances optimisées que des solutions tierces ne peuvent pas répliquer à iso-coût. La prochaine bataille se jouera sur la disponibilité effective de ces puces, leur adoption par les grands laboratoires de recherche, et la capacité de Google à convaincre ses clients enterprise que son écosystème propriétaire est préférable à l'interopérabilité que garantit NVIDIA avec CUDA.

UELes entreprises européennes utilisant Google Cloud pour leurs workloads IA pourraient bénéficier d'une réduction du coût total de possession pour l'entraînement et l'inférence, mais l'impact reste conditionnel à l'adoption de l'écosystème propriétaire Google.

💬 Séparer entraînement et inférence sur deux puces distinctes, c'est la bonne décision. Google a compris que le "mur de la mémoire" n'est pas le même problème selon qu'on entraîne un modèle ou qu'on le fait tourner en prod, et diviser la latence par deux sur la v8i c'est pas rien pour les agents. Reste à convaincre les boîtes d'aller full Google, JAX et tout, face à CUDA et son écosystème de quinze ans.

InfrastructureOpinion
1 source
Nvidia mise sur l’IA physique : pourquoi les marchés d’Asie s’emballent déjà ?
36Le Big Data 

Nvidia mise sur l’IA physique : pourquoi les marchés d’Asie s’emballent déjà ?

L'Asie représente désormais 90 % des coûts de production de Nvidia, contre 65 % il y a tout juste un an. Ce basculement, documenté par Bloomberg, illustre une réorientation stratégique majeure du géant américain des puces graphiques. Nvidia ne se concentre plus uniquement sur les processeurs pour data centers : sous l'impulsion de son PDG Jensen Huang, l'entreprise accélère dans ce qu'elle appelle l'IA physique, un ensemble de technologies englobant la robotique, les systèmes autonomes et la production industrielle augmentée. Dans ce cadre, des partenariats se nouent à grande vitesse avec des acteurs asiatiques majeurs comme SK Hynix et Samsung Electronics pour la mémoire et les composants avancés, mais aussi avec des entreprises moins connues à l'international : LG Electronics sur un projet de robot domestique, Nanya Technology à Taïwan, et des fabricants chinois comme Huizhou Desay et Pateo Connect. Les marchés boursiers ont immédiatement réagi : LG Electronics a bondi jusqu'à 15 % après l'annonce de discussions avec Nvidia, Nanya Technology a progressé de 10 %, tandis que les titres chinois concernés enregistraient également des hausses marquées. L'impact de cette dynamique dépasse largement les seuls partenaires directs de Nvidia. Chaque annonce de collaboration est désormais perçue par les investisseurs comme un signal de croissance future, transformant des entreprises industrielles régionales en acteurs stratégiques mondiaux du jour au lendemain. Pour Ling Vey-Sern, analyste chez Union Bancaire Privée, cette dépendance croissante à l'égard des chaînes d'approvisionnement asiatiques est structurelle et inévitable : les géants technologiques n'ont d'autre choix que de s'appuyer sur des écosystèmes de fabrication très spécialisés. L'IA physique, contrairement à l'IA générative qui reposait essentiellement sur des infrastructures cloud pilotées par Microsoft, Amazon ou Alphabet, exige une base industrielle dense : capteurs, actionneurs, systèmes embarqués, assemblage de précision. C'est précisément là où l'Asie concentre ses compétences depuis des décennies. Ce virage s'inscrit dans un contexte d'investissements colossaux de la part des géants américains, certains annonçant jusqu'à 200 milliards de dollars de dépenses en infrastructures IA. Nvidia capte une part significative de ces budgets et entraîne dans son sillage l'ensemble de sa chaîne de fournisseurs. Samsung en a déjà tiré les bénéfices, ayant récemment multiplié ses résultats trimestriels. La part asiatique dans les coûts de production de Nvidia n'est pas une simple métrique de dépendance : c'est le reflet d'un cycle d'investissement qui se déplace vers le prochain goulot d'étranglement, après le calcul et la mémoire, désormais vers les composants et systèmes nécessaires à l'IA qui agit dans le monde réel. Les prochaines étapes dépendront de la vitesse à laquelle les robots, véhicules autonomes et usines intelligentes passeront du stade expérimental au déploiement industriel à grande échelle.

UELe basculement des chaînes d'approvisionnement vers l'Asie pour l'IA physique accentue la dépendance technologique de l'Europe vis-à-vis de fournisseurs non-européens, renforçant les enjeux de souveraineté industrielle déjà au cœur des débats sur l'autonomie stratégique de l'UE.

InfrastructureOpinion
1 source
Anthropic en négociation pour acheter des puces IA à une startup britannique
37The Information AI 

Anthropic en négociation pour acheter des puces IA à une startup britannique

Anthropic est en discussions avec la startup londonienne Fractile pour acquérir des puces d'inférence destinées à faire tourner ses modèles d'IA. Selon deux sources proches des dirigeants de Fractile, les pourparlers portent sur un approvisionnement qui deviendrait effectif l'année prochaine, une fois les puces disponibles. Anthropic, qui commercialise les modèles Claude, s'appuie aujourd'hui sur trois fournisseurs principaux : Google, Amazon et Nvidia. Ce potentiel contrat avec Fractile constituerait donc une quatrième source d'approvisionnement en matériel. L'enjeu est stratégique : les ventes d'Anthropic connaissent une croissance explosive qui met sous pression les serveurs existants, et les dépenses de la société en infrastructure sont projetées à plusieurs dizaines de milliards de dollars par an. En diversifiant ses fournisseurs, Anthropic se dote d'un levier de négociation face à des géants comme Nvidia, dont les puces restent en forte demande. Les puces d'inférence de Fractile sont conçues pour faire tourner des modèles d'IA de manière plus efficiente, ce qui peut réduire les coûts opérationnels à grande échelle. Cette démarche s'inscrit dans une tendance de fond : les grands laboratoires d'IA cherchent à réduire leur dépendance à Nvidia, dont les GPU H100 et Blackwell sont devenus un goulot d'étranglement mondial. Des acteurs comme Google avec ses TPU, ou Amazon avec ses puces Trainium, développent déjà leurs alternatives en interne. Fractile, startup britannique encore confidentielle, tente de s'imposer sur ce marché émergent des puces d'inférence spécialisées, où la compétition s'intensifie rapidement.

UEL'émergence de Fractile, startup londonienne, comme fournisseur potentiel d'Anthropic illustre la capacité des entreprises européennes à s'imposer dans le marché stratégique des puces d'inférence IA, même si l'impact direct sur la France et l'UE reste indirect à ce stade.

💬 Anthropic n'achète pas des puces, il achète du pouvoir de négociation face à Nvidia. Avoir un quatrième fournisseur dans la poche, c'est surtout une façon de ne plus être otage des GPU H100 qui manquent à tout le monde. Reste à voir si Fractile peut vraiment tenir la cadence quand Anthropic va en avoir besoin.

InfrastructureActu
1 source
Moonshot AI open-source FlashKDA : noyaux CUTLASS pour Kimi Delta Attention et benchmarks H20
38MarkTechPost 

Moonshot AI open-source FlashKDA : noyaux CUTLASS pour Kimi Delta Attention et benchmarks H20

Moonshot AI, la startup chinoise derrière le chatbot Kimi.ai, vient de publier en open source FlashKDA (Flash Kimi Delta Attention), une bibliothèque de kernels GPU haute performance construite sur CUTLASS, la librairie de templates CUDA de NVIDIA. Disponible sur GitHub sous licence MIT, FlashKDA est une implémentation de production du mécanisme d'attention Kimi Delta Attention (KDA), le composant central du modèle hybride Kimi Linear. Sur des GPU NVIDIA H20, la bibliothèque atteint des gains de vitesse de prefill allant de 1,72x à 2,22x par rapport à la référence flash-linear-attention, et s'intègre directement comme backend de remplacement dans cette même librairie. Les prérequis techniques sont CUDA 12.9 et PyTorch 2.4, avec un ciblage exclusif de l'architecture Hopper (SM90 et supérieur), ce qui englobe les H100 et H20. L'enjeu est concret : Kimi Linear est un modèle à 48 milliards de paramètres totaux dont seulement 3 milliards sont activés à l'inférence. Son architecture repose sur un ratio de trois couches KDA pour une couche d'attention globale de type MLA (Multi-Head Latent Attention), ce qui réduit l'utilisation du cache KV de 75 % lors de la génération sur de longues séquences. À un million de tokens de contexte, ce design offre un débit de décodage jusqu'à six fois supérieur à celui d'une architecture full-attention classique. FlashKDA est précisément le kernel CUDA qui rend ce gain possible lors de la phase de prefill, en exploitant les Tensor Cores de NVIDIA via CUTLASS pour optimiser le calcul matriciel à basse précision (bf16). Ce travail s'inscrit dans une vague de recherche intense sur les mécanismes d'attention linéaire, motivée par le problème fondamental de la complexité quadratique de l'attention softmax standard : plus le contexte est long, plus les coûts de calcul explosent. KDA est la réponse de Moonshot AI à ce défi, en raffinant l'architecture Gated DeltaNet avec un mécanisme de gating par canal plus fin, ce qui améliore l'utilisation de la mémoire d'état finie des RNN. Le support du batching à longueur variable via des séquences cumulatives (cu_seqlens) et la gestion d'états récurrents initiaux et finaux facilitent son usage en production pour l'inférence multi-tour. En publiant FlashKDA sous licence MIT, Moonshot AI permet à d'autres équipes de reproduire et construire sur cette architecture, au moment même où la course à l'inférence longue séquence s'intensifie entre les grands laboratoires mondiaux.

UEImpact indirect : les équipes de recherche et startups IA européennes disposant de GPU Hopper (H100/H20) peuvent intégrer FlashKDA (licence MIT) pour accélérer leurs travaux sur l'inférence longue séquence, sans dépendance à une solution propriétaire.

InfrastructureOpinion
1 source
Configurer Amazon Bedrock AgentCore Gateway pour un accès sécurisé aux ressources privées
39AWS ML Blog 

Configurer Amazon Bedrock AgentCore Gateway pour un accès sécurisé aux ressources privées

Amazon a dévoilé une nouvelle fonctionnalité pour son service Bedrock AgentCore Gateway : la connectivité VPC gérée, qui permet aux agents d'intelligence artificielle d'accéder à des ressources privées hébergées derrière des réseaux Amazon Virtual Private Cloud (VPC) sans exposer le trafic sur l'internet public. Concrètement, ce mécanisme repose sur un composant appelé Resource Gateway, qui provisionne automatiquement des interfaces réseau élastiques (ENI) directement à l'intérieur du VPC cible, à raison d'une interface par sous-réseau. Deux modes de fonctionnement sont proposés : le mode managé, où AgentCore prend en charge l'intégralité de l'infrastructure réseau à partir des identifiants VPC, de sous-réseau et des groupes de sécurité fournis par l'utilisateur ; et le mode auto-géré, qui laisse davantage de contrôle à l'équipe technique. Trois scénarios pratiques illustrent ces cas d'usage : la connexion à un endpoint privé Amazon API Gateway, l'intégration avec un serveur MCP (Model Context Protocol) hébergé sur Amazon Elastic Kubernetes Service (EKS), et l'accès à une API REST privée dans un réseau isolé. Pour les équipes qui déploient des agents IA en production, cette capacité représente un gain opérationnel significatif. Jusqu'ici, chaque chemin de connexion entre un agent et un outil interne (base de données, API métier, microservice) nécessitait une configuration réseau manuelle, ralentissant les déploiements et multipliant les risques de mauvais paramétrage. Avec AgentCore Gateway VPC egress, une Resource Configuration délimite précisément l'endpoint accessible, un nom de domaine ou une adresse IP, plutôt que d'ouvrir l'accès à l'ensemble du VPC. La Service Network Resource Association, créée et gérée automatiquement par AgentCore, connecte ensuite cette configuration au réseau de service, ce qui permet à l'agent d'invoquer l'endpoint privé de façon sécurisée et traçable. Pour les organisations avec des architectures multi-VPC ou hybrides, le service s'intègre nativement avec AWS Transit Gateway et le VPC peering inter-régions. Cette annonce s'inscrit dans la stratégie plus large d'Amazon pour rendre ses agents IA exploitables dans des environnements d'entreprise contraints, où la sécurité réseau et la conformité interdisent tout transit par l'internet public. Bedrock AgentCore est la couche d'infrastructure d'Amazon dédiée à l'orchestration et au déploiement d'agents autonomes en production, concurrençant directement les offres de Microsoft Azure AI Foundry et Google Vertex AI Agent Builder. La prise en charge du protocole MCP, standard ouvert porté par Anthropic pour connecter les agents à des outils externes, signale une convergence de l'écosystème autour d'interfaces interopérables. À mesure que les agents IA migrent du prototype vers le système critique, la capacité à les brancher sur des ressources internes sans compromettre le périmètre de sécurité devient un prérequis incontournable pour les DSI, ce qu'Amazon positionne désormais comme une fonctionnalité de première classe.

UELes organisations européennes soumises au RGPD déployant des agents IA peuvent exploiter cette connectivité VPC privée pour maintenir leurs données internes hors de l'internet public, facilitant ainsi la conformité réglementaire.

InfrastructureTuto
1 source
Terafab : le pari fou d’Elon Musk pour dominer le silicium mondial
40Le Big Data 

Terafab : le pari fou d’Elon Musk pour dominer le silicium mondial

Elon Musk a annoncé le lancement de la Terafab, une méga-usine de semi-conducteurs implantée à Austin, au Texas, dotée d'un budget de 25 milliards de dollars. Le projet fusionne pour la première fois les ressources de Tesla, SpaceX et xAI sous un même toit industriel, avec l'ambition de produire des puces gravées à 2 nanomètres capables de délivrer une puissance de calcul annuelle d'un térawatt. L'objectif est de fabriquer en interne les processeurs dont dépendent les véhicules autonomes Tesla, les satellites Starlink et les systèmes d'intelligence artificielle de xAI. Le site d'Austin intégrera deux usines spécialisées, l'une dédiée aux processeurs pour réseaux satellites, l'autre aux puces pour la robotique terrestre, avec une capacité de production se chiffrant en milliards d'unités par an. L'enjeu central de la Terafab est de couper la dépendance de l'empire Musk vis-à-vis de TSMC, le géant taïwanais qui fabrique aujourd'hui l'essentiel des puces avancées mondiales. En internalisant toute la chaîne de valeur du silicium, de la conception à la production, Musk s'affranchit des délais de livraison, des fluctuations géopolitiques et des capacités limitées des fonderies externes. Cette boucle de tests intégrée entre les entités du groupe permettrait d'accélérer significativement le développement de nouveaux designs de puces. Pour l'industrie de l'IA, une telle capacité de production autonome représente un avantage compétitif majeur : xAI pourrait disposer d'un accélérateur de calcul garanti, indépendant des tensions d'approvisionnement qui ont paralysé d'autres acteurs du secteur ces dernières années. La Terafab s'inscrit dans un contexte de course mondiale aux semi-conducteurs où les États-Unis cherchent à réduire leur exposition à la production asiatique, notamment à travers le CHIPS Act voté en 2022. Intel, TSMC et Samsung ont déjà engagé des dizaines de milliards pour construire des capacités de fabrication en sol américain, mais aucun de ces projets ne combine production de puces et consommation captive à l'échelle envisagée par Musk. La stratégie d'intégration verticale totale rappelle l'approche de Tesla dans la batterie ou de SpaceX dans la fusée : tout fabriquer soi-même pour gagner en vitesse et en marge. Si la Terafab tient ses promesses, elle pourrait repositionner le Texas comme un nouveau centre mondial du silicium et faire de Musk le seul industriel occidental à contrôler simultanément les puces, les satellites, les robots et les modèles d'IA qui les font tourner.

UELa montée en puissance d'une filière semi-conducteurs américaine intégrée intensifie la pression concurrentielle sur l'European Chips Act, qui vise lui aussi à rapatrier la fabrication de puces avancées sur le continent européen.

💬 La stratégie est cohérente : quand tu contrôles les puces, les satellites, les robots et les LLMs, couper TSMC de l'équation c'est la pièce manquante du puzzle. Sur le papier, c'est même le seul industriel occidental qui pourrait tirer ça. Construire une fab à 2nm depuis zéro en restant dans les délais, ça, j'attends de voir.

InfrastructureOpinion
1 source
Sans crier gare, la Chine sort un supercalculateur de 2,47 ExaFLOPS… sans GPU
41Next INpact 

Sans crier gare, la Chine sort un supercalculateur de 2,47 ExaFLOPS… sans GPU

La Chine vient de révéler, sans aucune communication officielle, l'existence d'un supercalculateur exascale baptisé LineShine, hébergé au Centre National de Supercalcul de Shenzhen (NSCC-SZ). La machine atteint une puissance théorique de 2,47 ExaFLOPS, dont 1,2 ExaFLOPS ont été effectivement mesurés lors de son utilisation pour entraîner un modèle de type MLIP (Machine Learning Interatomic Potentials), soit à peine un quart de sa capacité maximale. LineShine embarque 12,4 millions de cœurs de calcul et 1 310 téraoctets de mémoire HBM. Ce qui frappe immédiatement les observateurs : cette architecture est entièrement scalaire, sans aucun GPU. L'information n'est pas venue d'un communiqué de presse mais d'une publication scientifique parue il y a deux semaines, repérée et relayée par Stéphane Requena, directeur technique du Genci (Grand Équipement National de Calcul Intensif), sur LinkedIn. Si LineShine était soumis au classement Top500, référence mondiale des supercalculateurs, il se retrouverait au coude à coude avec El Capitan, le numéro un mondial actuellement en service aux États-Unis. L'enjeu dépasse la performance brute : ce supercalculateur démontre que la Chine est capable de construire des infrastructures de calcul de premier rang mondial sans dépendre des GPU haute performance de NVIDIA, dont l'exportation vers la Chine est soumise à embargo américain. L'absence de GPU dans une machine de cette envergure représente un choix architectural délibéré et une réponse technologique directe aux restrictions imposées par Washington. Pour les acteurs de l'IA et de la simulation scientifique, c'est la preuve que les restrictions d'exportation n'ont pas bloqué la montée en puissance chinoise, mais l'ont orientée vers des solutions souveraines. La Chine ne participe plus au Top500 depuis plusieurs années, dans un contexte de tensions croissantes avec les États-Unis autour des technologies stratégiques. Depuis les premières vagues de sanctions, Pékin a systématiquement développé ses propres alternatives matérielles et logicielles, tout en maintenant le silence sur ses capacités réelles. LineShine s'inscrit dans cette logique d'autonomie technologique assumée : les avancées chinoises en supercalcul se découvrent désormais à travers des publications académiques, non par des annonces officielles. Les prochains mois pourraient révéler d'autres systèmes de cette génération, alors que la course au calcul exascale s'accélère aussi bien pour la simulation climatique, la recherche pharmaceutique que pour l'entraînement de modèles d'intelligence artificielle de grande taille.

UELa découverte a été relayée par Stéphane Requena, directeur technique du GENCI (institution française de calcul intensif), signalant que les sanctions américaines n'ont pas freiné la montée en puissance chinoise, un avertissement stratégique pour la souveraineté technologique européenne en matière d'infrastructure HPC.

💬 2,47 ExaFLOPS sans un seul GPU, et on l'apprend par une publication académique, pas un communiqué de presse. L'embargo américain n'a pas freiné la Chine, il l'a juste orientée vers ses propres solutions, et visiblement ça tient la route. Ce qui devrait vraiment inquiéter l'Europe, c'est qu'on ne sait pas combien d'autres machines comme ça existent déjà.

InfrastructureOpinion
1 source
Des tokens moins chers, des factures plus élevées : la nouvelle économie de l'infrastructure IA
42VentureBeat AI 

Des tokens moins chers, des factures plus élevées : la nouvelle économie de l'infrastructure IA

Le coût d'une inférence IA a chuté d'environ un facteur dix en deux ans, porté par des gains d'efficacité sur les modèles et la concurrence acharnée entre fournisseurs cloud. Pourtant, les factures d'infrastructure des entreprises ne baissent pas : elles augmentent. C'est le paradoxe que décrit Anindo Sengupta, vice-président produits chez Nutanix : si le coût par token diminue d'un ordre de grandeur, la consommation, elle, a bondi de plus de 100 fois sur la même période. Résultat, les équipes IT se retrouvent à gérer des volumes d'inférence que rien ne laissait prévoir il y a deux ans, et des budgets GPU qui s'envolent malgré des prix unitaires en chute libre. Ce que les économistes appellent le paradoxe de Jevons se matérialise ici très concrètement : une ressource moins chère incite à en consommer davantage, jusqu'à dépasser les économies réalisées. L'essor de l'IA agentique amplifie le phénomène. Chaque assistant IA déployé en entreprise, chaque workflow automatisé, chaque pipeline d'agents génère en continu des milliers de requêtes d'inférence courtes et imprévisibles, très éloignées des gros jobs de training planifiés à l'avance. Ces flux bombardent les GPU, saturent les interconnexions réseau et sollicitent des systèmes de stockage conçus pour des charges stables. Le coût par token et le taux d'utilisation GPU deviennent ainsi des métriques opérationnelles de premier plan, au même titre que la disponibilité ou le débit. Les optimiser reste complexe : les variables sont trop nombreuses pour être gérées intuitivement, modèles, localisation des workloads, structure des prompts. Cette rupture expose les limites structurelles des datacenters traditionnels, pensés pour des charges prévisibles et des cycles d'approvisionnement longs. L'infrastructure agentique exige une topologie GPU spécifique, des interconnexions haute vitesse, un stockage parallèle pour les caches KV et la mémoire des agents. Quand GPU, réseau et stockage sont gérés en silos distincts, les inefficacités s'accumulent : les assets GPU coûteux se retrouvent sous-utilisés pendant que le réseau ou le stockage constituent les goulets d'étranglement. Face à cette réalité, les grands acteurs de l'infrastructure, Nutanix en tête, poussent vers des plateformes full-stack intégrées et validées de bout en bout, capables d'optimiser simultanément le calcul, le réseau et le stockage pour les workloads IA en production. L'enjeu n'est plus simplement de déployer de l'IA, mais de la faire tourner à l'échelle sans que les coûts d'infrastructure ne neutralisent les gains de productivité.

UELes DSI européens déployant de l'IA agentique subissent le même effet Jevons : la baisse du coût par token est annulée par l'explosion des volumes d'inférence, rendant l'optimisation de l'infrastructure GPU une priorité budgétaire immédiate.

InfrastructureActu
1 source
Le tournant de l'inférence
43Latent Space 

Le tournant de l'inférence

L'inférence est devenue le nouveau champ de bataille stratégique de l'intelligence artificielle. En quelques jours, deux signaux forts ont traversé l'industrie : Noam Brown a déclaré que "la puissance de calcul d'inférence est une ressource stratégique, actuellement sous-évaluée", tandis que Sam Altman affirmait qu'OpenAI devait "dans une large mesure devenir une entreprise d'inférence IA". Ces déclarations interviennent dans le sillage du lancement très réussi de GPT-4.5, mais aussi des chiffres publiés par Lip-Bu Tan, PDG d'Intel, lors de son appel aux résultats du premier trimestre 2026 : la demande en CPU, et non en GPU, est en hausse significative, tirée précisément par les nouveaux usages d'inférence à grande échelle. Jensen Huang, PDG de Nvidia, avait posé les bases de ce constat lors de sa keynote GTC : la demande en calcul a été multipliée par 10 000 en deux ans, l'usage par 100, ce qui représente selon lui une multiplication globale de un million fois en deux ans à peine. Ce basculement n'est pas qu'une métaphore : il redessine concrètement les priorités d'investissement de toute l'industrie. Pendant deux ans, les grandes entreprises tech ont massivement réorienté leurs budgets vers les GPU pour l'entraînement des modèles, au détriment de la maintenance et du renouvellement de leur parc CPU. Or, les agents IA en production, les environnements de simulation pour le renforcement par apprentissage (RL gyms), les outils comme Claude Code, tout cela tourne sur des CPU. Résultat : une potentielle pénurie de CPU se profile, non pas parce que la demande explose de façon spectaculaire comme pour les GPU, mais parce que le cycle naturel de renouvellement de cinq à six ans coïncide avec une sous-capitalisation chronique. Pour les startups comme pour les géants, le goulot d'étranglement se déplace : plus de capacité d'inférence se traduirait directement en plus de revenus, plus d'utilisateurs, des modèles plus performants. Ce moment marque une transition de phase dans l'économie de l'IA. L'ère de l'entraînement massif cède la place à celle du déploiement et du raisonnement continu : chaque fois qu'un modèle pense, agit, lit ou génère du texte, il infère. Cette boucle vertueuse, plus de capacité, plus de tokens, plus d'intelligence, est désormais le moteur central de la compétition entre OpenAI, Anthropic, Google et les autres. Les acteurs qui sécuriseront le plus de capacité d'inférence, que ce soit via des partenariats avec des fournisseurs cloud, des investissements dans des datacenters ou des puces propriétaires, prendront un avantage structurel difficile à rattraper. Le secteur CPU, longtemps dans l'ombre des GPU, redevient soudainement stratégique.

UELe goulot d'étranglement sur la capacité d'inférence CPU affecte directement les startups et entreprises européennes déployant des agents IA en production, qui devront repenser leurs priorités d'investissement infrastructure.

💬 C'est le pivot qu'on sentait venir depuis le lancement massif des agents en prod. Pendant deux ans, tout le monde a empilé des GPU pour l'entraînement, en laissant vieillir le parc CPU, et là c'est ce même parc qui devient le goulot d'étranglement pour l'inférence à grande échelle. Celui qui sécurise de la capacité d'inférence aujourd'hui prend une avance structurelle, pas juste technologique.

InfrastructureOpinion
1 source
FlashQLA : Alibaba dévoile une arme secrète qui accélère l’IA jusqu’à 3 fois
44Le Big Data 

FlashQLA : Alibaba dévoile une arme secrète qui accélère l’IA jusqu’à 3 fois

L'équipe Qwen d'Alibaba a présenté le 29 avril 2026 FlashQLA, une bibliothèque de noyaux d'attention linéaire haute performance construite sur TileLang, un langage de programmation optimisé pour le calcul parallèle. Les chiffres avancés sont nets : la propagation avant des modèles est accélérée de 2 à 3 fois, tandis que la rétropropagation, phase critique de l'entraînement, voit sa vitesse pratiquement doubler. L'architecture repose sur une division des calculs en deux noyaux distincts plutôt qu'un bloc unifié, ce qui se traduit par une légère surcharge mémoire mais des performances réelles supérieures sur machines modestes. La rétropropagation bénéficie en particulier d'un pipeline en 16 étapes optimisé au niveau du warp avec des contraintes mémoire très faibles. Ce qui distingue FlashQLA des solutions concurrentes est sa cible explicite : les appareils personnels et l'edge computing, pas les data centers. Alibaba positionne cet outil pour faire tourner des modèles d'IA agentielle directement sur des ordinateurs portables et machines locales, réduisant la dépendance aux serveurs cloud. Les gains sont particulièrement marqués pour les petits modèles et les tâches à contexte long, deux cas d'usage centraux pour l'IA embarquée. Pour les développeurs et les entreprises qui déploient des agents IA en production, cela signifie des coûts d'inférence réduits, des latences plus faibles et une meilleure utilisation de la mémoire sans changement de matériel. FlashQLA s'inscrit dans une tendance de fond qui traverse l'ensemble de l'industrie depuis 2024 : la course à l'efficacité des modèles en dehors du cloud. Face à des coûts d'inférence toujours élevés et à des préoccupations croissantes autour de la souveraineté des données, les grandes entreprises technologiques cherchent à rapprocher la puissance de calcul de l'utilisateur final. Alibaba, via son équipe Qwen déjà connue pour ses modèles ouverts compétitifs face à GPT-4, renforce ici sa position dans l'écosystème open source en proposant une brique d'optimisation bas niveau directement utilisable par la communauté. La publication fait suite à plusieurs annonces similaires dans l'industrie, dont FlashAttention de Tri Dao ou les optimisations kernel de Meta pour Llama. Si FlashQLA tient ses promesses à l'échelle, il pourrait accélérer la migration d'une partie des charges d'inférence vers le local, rééquilibrant durablement le rapport entre cloud centralisé et calcul distribué.

UEL'axe edge computing et réduction de dépendance au cloud s'aligne indirectement avec les objectifs de souveraineté numérique européenne, mais aucun impact direct sur la France ou l'UE n'est identifiable.

InfrastructureOpinion
1 source
Le FOMO pousse les entreprises à payer des GPU inutilisés et fait grimper les prix
45VentureBeat AI 

Le FOMO pousse les entreprises à payer des GPU inutilisés et fait grimper les prix

Les entreprises qui investissent massivement dans les GPU d'intelligence artificielle n'en utilisent en réalité que 5 % de leur capacité, selon le rapport 2026 de Cast AI sur l'optimisation Kubernetes, qui s'appuie sur des mesures de clusters en production réelle. Laurent Gil, cofondateur et président de Cast AI, suit cette dynamique depuis deux ans. Il estime qu'une gestion humaine raisonnable devrait atteindre environ 30 % d'utilisation, compte tenu des cycles jour/nuit et des week-ends. À 5 %, les entreprises exploitent leur infrastructure la plus coûteuse à un sixième de ce que produirait une approche sans effort particulier. Dans le même temps, AWS a discrètement relevé ses prix sur les GPU H200 réservés d'environ 15 % un samedi de janvier, sans annonce officielle, tandis que les fabricants de mémoire ont augmenté les tarifs de la HBM3e de 20 % pour 2026. C'est la première fois depuis le lancement d'EC2 par AWS en 2006 qu'un hyperscaler hausse ses prix GPU réservés plutôt que de les baisser. Ce paradoxe a des conséquences concrètes sur les budgets technologiques de milliers d'entreprises. L'hypothèse fondamentale qui sous-tend la plupart des projections de dépenses cloud, que la puissance de calcul devient moins chère chaque année, ne tient plus au sommet de la pile. Le marché s'est scindé en deux niveaux : côté commodity, les prix du H100 à la demande ont chuté de 7,57 dollars par GPU-heure en septembre 2025 à environ 3,93 dollars aujourd'hui, avec des fournisseurs comme Lambda Labs ou RunPod sous les 3 dollars. Mais côté frontier, la logique s'est inversée. Nvidia a reçu des commandes pour 2 millions de puces H200 pour 2026, contre un stock disponible de 700 000 unités. Les capacités d'assemblage avancé de TSMC, indispensables à chaque GPU équipé de HBM, sont réservées jusqu'à mi-2027 au moins. AMD a prévenu de ses propres hausses de prix pour 2026, et même les A100, dont le coût devait baisser à l'expiration des réservations triennales de 2023, repartent à la hausse. La mécanique qui explique ces 5 % d'utilisation tient à un processus d'achat dominé par la peur de manquer. Une entreprise rejoint une liste d'attente chez un hyperscaler, attend des semaines ou des mois, puis reçoit un appel : 36 GPU disponibles immédiatement, engagement d'un ou trois ans exigé, à prendre ou à laisser. La question n'est alors plus de savoir si les charges de travail justifient cette capacité, mais de ne pas perdre le créneau. Une fois les GPU obtenus, personne ne les rend : les récupérer prendrait des mois et aucune équipe ne veut être celle qui a renoncé à sa capacité. La flotte reste donc allumée, facturée à l'heure, utilisée ou non. Gil observe même des entreprises payer les tarifs à la demande, trois fois plus chers que les réservations annuelles, simplement parce que la souplesse paraît moins risquée que l'engagement. La pénurie nourrit la thésaurisation, et la thésaurisation entretient la pénurie.

UELes entreprises européennes utilisant des GPU cloud subissent les mêmes hausses de prix sur les H200 réservés et le HBM3e, alourdissant leurs budgets IA sans gain de performance.

InfrastructureOpinion
1 source
xAI montre les difficultés d'exploiter de nombreux GPU en parallèle
46The Information AI 

xAI montre les difficultés d'exploiter de nombreux GPU en parallèle

xAI, la société d'intelligence artificielle d'Elon Musk, dispose d'environ 500 000 GPU Nvidia, l'une des plus grandes collections de puces serveur parmi les développeurs d'IA ayant rendu leurs données publiques. Pourtant, selon un mémo interne révélé par Business Insider, le taux de Model Flops Utilization (MFU) de xAI n'atteignait que 11 % ces dernières semaines, soit la proportion de puissance de calcul réellement exploitée sur l'ensemble des chips disponibles. Un score de 100 % représenterait une utilisation totale et théoriquement parfaite de l'infrastructure. Ce chiffre est particulièrement frappant dans un secteur où les GPU Nvidia sont devenus une ressource rare et âprement disputée. Les développeurs d'IA se battent pour en obtenir, et subissent une pression intense pour en tirer le maximum. Un chercheur d'une entreprise concurrente interrogé sur le sujet a reconnu que dépasser 40 % d'utilisation restait difficile pour la plupart des acteurs du secteur, mais a qualifié le taux de 11 % d'« incroyablement bas ». Ce qui rend la situation encore plus surprenante, c'est que xAI est réputée pour configurer ses clusters GPU selon les recommandations officielles de Nvidia. La racine du problème tient à la nature même de l'entraînement des modèles d'IA : une activité dite « en rafales », marquée par des pics soudains d'utilisation suivis de périodes creuses, le temps que les chercheurs analysent les résultats et décident de la prochaine étape. Ce schéma rend l'optimisation du taux d'utilisation structurellement difficile, contrairement à l'inférence, phase où les modèles sont déployés pour les utilisateurs finaux, qui génère une charge plus régulière et prévisible. La course aux GPU bat son plein dans toute l'industrie, mais l'écart entre les ressources accumulées et leur efficacité réelle soulève des questions sur la rentabilité de ces investissements massifs, à l'heure où les valorisations de l'IA reposent en partie sur la capacité à exploiter cette infrastructure.

InfrastructureActu
1 source
Definity intègre des agents dans les pipelines Spark pour détecter les erreurs en amont des systèmes d'IA autonomes
47VentureBeat AI 

Definity intègre des agents dans les pipelines Spark pour détecter les erreurs en amont des systèmes d'IA autonomes

Definity, une startup spécialisée dans la fiabilité des pipelines de données, basée à Chicago, a annoncé mercredi une levée de fonds de 12 millions de dollars en série A, menée par GreatPoint Ventures avec la participation de Dynatrace, StageOne Ventures et Hyde Park Venture Partners. La société a développé une approche radicalement différente de la surveillance des pipelines : plutôt que d'analyser ce qui s'est passé après l'exécution d'un job, elle intègre un agent directement à l'intérieur du moteur Spark ou DBT, pendant que le pipeline tourne. Concrètement, un agent JVM s'installe en une seule ligne de code sous la couche plateforme, capturant en temps réel le comportement des requêtes, la pression mémoire, le déséquilibre des données et les patterns de shuffle. L'agent peut alors intervenir activement : réallouer des ressources à mi-parcours, stopper un job avant que des données corrompues ne se propagent, ou bloquer un pipeline en aval si la table d'entrée en amont est périmée. Un client entreprise a identifié 33 % de ses opportunités d'optimisation dès la première semaine de déploiement, réduit de 70 % l'effort de débogage, et résout désormais les problèmes Spark complexes jusqu'à dix fois plus vite. L'enjeu va bien au-delà de l'efficacité opérationnelle : avec l'essor des systèmes d'IA agentiques, la fiabilité des données en entrée devient critique. Un pipeline qui échoue silencieusement ou livre des données obsolètes ne casse plus seulement un tableau de bord, il compromet l'ensemble du système d'IA qui en dépend. La distinction est fondamentale : la détection et la prévention sont en temps réel, tandis que l'analyse des causes profondes et les recommandations d'optimisation s'effectuent à la demande, avec tout le contexte d'exécution déjà assemblé. L'agent n'ajoute qu'environ une seconde de calcul sur un job d'une heure. Seules les métadonnées transitent à l'extérieur, et un déploiement entièrement on-premises est disponible pour les environnements sensibles. Les outils existants, qu'il s'agisse de Datadog (qui a racheté Metaplane l'an dernier), des system tables Databricks, ou de plateformes comme Unravel Data et Acceldata, lisent tous les métriques une fois le job terminé. Comme le résume Roy Daniel, CEO et co-fondateur de Definity : « Le moment où vous apprenez qu'un problème s'est produit, il s'est déjà produit. » Le marché de l'observabilité des données est en pleine structuration, porté par la multiplication des pipelines complexes et l'exigence croissante des systèmes d'IA en production. Nexxen, plateforme adtech opérant de large pipelines Spark pour la publicité en temps réel, fait partie des premiers clients en production. La participation de Dynatrace au tour de table est notable : l'entreprise, spécialiste de l'observabilité IT, investit ainsi dans une approche concurrente à ses propres capacités de monitoring, signe que la niche de l'exécution inline commence à être prise au sérieux.

UEDynatrace, éditeur autrichien d'observabilité IT coté en bourse, participe au tour de table de Definity, signalant l'intérêt croissant des acteurs européens pour la surveillance inline des pipelines de données critiques aux systèmes d'IA en production.

InfrastructureActu
1 source
Exécuter des proxies MCP personnalisés en serverless sur Amazon Bedrock AgentCore Runtime
48AWS ML Blog 

Exécuter des proxies MCP personnalisés en serverless sur Amazon Bedrock AgentCore Runtime

Amazon Web Services vient de détailler une architecture permettant de déployer des proxys MCP (Model Context Protocol) personnalisés en mode serverless sur Amazon Bedrock AgentCore Runtime. Cette solution s'adresse aux équipes qui souhaitent insérer une couche de contrôle programmable entre leurs agents IA et les outils auxquels ils accèdent, bases de données, API tierces, systèmes de fichiers, sans modifier ni le client ni le serveur MCP en amont. Le proxy s'exécute comme une charge de travail sans état sur AgentCore Runtime, découvre automatiquement les outils disponibles au démarrage, les réexpose avec la logique personnalisée appliquée, puis transfère les requêtes de manière transparente. L'infrastructure est entièrement gérée par AWS, avec mise à l'échelle automatique, observabilité intégrée via Amazon CloudWatch et OpenTelemetry, et gestion des identités via AgentCore Identity. L'intérêt concret est d'ordre gouvernance et conformité. En production, les interactions entre agents IA et outils doivent respecter des politiques de sécurité internes, des réglementations sectorielles et des exigences d'auditabilité spécifiques : nettoyage des entrées avant qu'elles atteignent les systèmes backend, génération de journaux d'audit dans des formats particuliers, ou encore rédaction de données sensibles au niveau du protocole. AgentCore Gateway propose déjà des intercepteurs Lambda pour intégrer ce type de logique, mais certaines organisations disposent de bibliothèques de filtrage MCP internes ou de systèmes de conformité on-premises qu'elles ne souhaitent pas refactoriser en fonctions Lambda. Le proxy serverless sur Runtime offre alors une alternative portable, réutilisable dans des environnements hybrides ou multi-systèmes, sans dépendance à un intercepteur spécifique à une plateforme. Ce développement s'inscrit dans l'adoption rapide du Model Context Protocol comme standard de facto pour connecter les agents IA à leurs outils. MCP, initialement proposé par Anthropic fin 2024, est désormais supporté par la plupart des grandes plateformes d'agents, et AWS positionne AgentCore comme son infrastructure de référence pour les déploiements en production. La solution présentée s'appuie sur une implémentation open source disponible sur GitHub, ce qui facilite l'adoption et la personnalisation. Elle peut également se connecter à AgentCore Gateway pour bénéficier de la découverte gérée des outils, de la gestion des credentials et de l'application de politiques à l'échelle, y compris sur des fonctions Lambda et des intégrations SaaS. Pour les équipes qui industrialisent leurs agents IA, ce pattern représente une brique d'infrastructure critique pour passer du prototype au déploiement régi par des exigences d'entreprise réelles.

UELes entreprises européennes déployant des agents IA sur AWS peuvent s'appuyer sur cette architecture pour implémenter des couches de conformité RGPD et AI Act sans refactoriser leurs bibliothèques de filtrage MCP existantes.

InfrastructureActu
1 source
Le VPS piloté par l’IA : De la gestion technique au pilotage de l’infrastructure
49FrenchWeb 

Le VPS piloté par l’IA : De la gestion technique au pilotage de l’infrastructure

L'infrastructure informatique a longtemps été reléguée au rang de préoccupation purement technique, confiée à des équipes spécialisées et invisible dans les organigrammes décisionnels. Elle ne remontait vers les directions qu'en cas de crise : incident majeur, panne prolongée, ou dérapage budgétaire. Pour les organisations numériques modernes, ce modèle de gestion réactive a atteint ses limites, la complexité croissante des environnements cloud, combinée à la multiplication des serveurs privés virtuels (VPS), rend la supervision manuelle à la fois coûteuse et insuffisante. L'intégration de l'intelligence artificielle dans la gestion des VPS change fondamentalement ce paradigme. Là où un administrateur système devait intervenir après détection d'un problème, les outils pilotés par l'IA permettent d'anticiper les surcharges, d'ajuster automatiquement les ressources allouées et de détecter des anomalies avant qu'elles n'impactent les utilisateurs. Pour les PME comme pour les grandes structures, cela se traduit par une réduction des temps d'indisponibilité, une meilleure maîtrise des coûts et une infrastructure qui devient enfin un levier stratégique plutôt qu'un poste de dépense subi. Cette transformation s'inscrit dans la dynamique plus large de l'AIOps, l'application de l'IA aux opérations informatiques, qui s'est accélérée depuis 2023 avec la maturité des modèles de langage et des systèmes d'agents autonomes. Les grands acteurs de l'hébergement comme OVHcloud, Hetzner ou DigitalOcean intègrent progressivement ces capacités dans leurs offres, tandis que les DSI réévaluent leur rapport à l'infrastructure. Le VPS piloté par l'IA n'est plus un gadget : il devient une brique de compétitivité opérationnelle.

UEOVHcloud, acteur majeur de l'hébergement cloud français, est cité comme intégrant ces capacités IA dans ses offres, avec un impact direct sur les DSI et PME françaises gérant leur infrastructure VPS.

InfrastructureOpinion
1 source
Un meilleur matériel peut transformer les outsiders de l'IA en acteurs majeurs
50IEEE Spectrum AI 

Un meilleur matériel peut transformer les outsiders de l'IA en acteurs majeurs

Le dernier modèle Llama de Meta atteint les 2 000 milliards de paramètres, un chiffre vertigineux qui illustre la course effrénée au gigantisme dans l'industrie de l'IA. Mais des chercheurs de l'université de Stanford ont mis au point une puce expérimentale qui pourrait changer radicalement l'équation énergétique de ces modèles colossaux. Leur approche repose sur un phénomène connu sous le nom de sparsité : dans la plupart des grands modèles de langage, une majorité des paramètres (poids et activations) sont égaux à zéro, ou si proches de zéro qu'ils peuvent être traités comme tels sans perte de précision. L'équipe Stanford a conçu le premier accélérateur matériel capable de traiter efficacement tous les types de charges de travail sparses, en partant de zéro sur la pile complète : hardware, firmware bas niveau et logiciel applicatif. Résultat mesuré : la puce consomme en moyenne soixante-dix fois moins d'énergie qu'un CPU classique et effectue les calculs huit fois plus vite. L'enjeu est considérable pour l'ensemble de l'industrie. Les modèles d'IA actuels exigent des ressources computationnelles et énergétiques croissantes, avec un impact carbone qui devient difficile à ignorer. Or les GPU et CPU dominants aujourd'hui n'exploitent pas naturellement la sparsité : ils multiplient et additionnent les zéros comme n'importe quel autre nombre, gaspillant du temps et de l'énergie. Sauter ces opérations inutiles et ne stocker que les paramètres non nuls permettrait, en théorie, de faire tourner des modèles de très grande taille avec une fraction de l'infrastructure actuelle, sans sacrifier leurs performances. Pour les entreprises qui déploient des modèles en production, les économies potentielles sur les coûts d'inférence seraient substantielles. Il y a deux ans, Cerebras avait déjà démontré que l'on peut mettre à zéro jusqu'à 70 à 80 % des paramètres d'un grand modèle de langage sans perte de précision mesurable, en testant cette approche sur le Llama 7B de Meta, avec des implications étendues à des modèles comme ChatGPT ou Claude. La sparsité peut aussi être naturellement présente dans certaines architectures, comme les modèles de recommandation ou les graphes de réseaux sociaux, où la plupart des connexions possibles n'existent pas. Ce que l'équipe Stanford apporte maintenant, c'est la preuve matérielle que toute la chaîne d'exécution peut être repensée pour exploiter cette propriété. La prochaine étape sera de savoir si l'industrie, dominée par Nvidia et ses GPU denses, adoptera cette direction ou si la sparsité restera un sujet de recherche académique face à la brutalité des roadmaps de puissance brute.

💬 70x moins d'énergie, c'est pas un détail. Stanford prouve qu'on peut reconstruire toute la stack matérielle autour de la sparsité et obtenir des résultats qui feraient pâlir n'importe quel data center. La vraie question, c'est si Nvidia va laisser ce genre de truc décoller, ou si leurs roadmaps de puissance brute vont continuer à dicter la direction de l'industrie pendant les 10 prochaines années.

InfrastructureOpinion
1 source