Aller au contenu principal
Les datacenters passent du courant alternatif au continu : la revanche d'Edison
OutilsIEEE Spectrum AI6sem

Les datacenters passent du courant alternatif au continu : la revanche d'Edison

Résumé IASource uniqueImpact UE
Source originale ↗·

Les datacenters à grande échelle entament une transition historique vers l'alimentation en courant continu (DC), abandonnant progressivement les architectures en courant alternatif (AC) héritées du siècle dernier. Cette évolution, mise en lumière lors de la conférence Nvidia GTC, répond à une contrainte physique implacable : les racks d'IA modernes consomment désormais jusqu'à 1 MW chacun, contre 10 kW pour les serveurs traditionnels — une multiplication par cent qui rend les conversions AC/DC successives intenables.

Le problème est structurel. Dans un datacenter classique, le courant subit jusqu'à cinq conversions successives avant d'atteindre les puces : AC haute tension → AC basse tension → DC (pour les batteries UPS) → AC à nouveau → DC basse tension pour les serveurs. Chaque étape dissipe de l'énergie sous forme de chaleur, mobilise des équipements volumineux et exige des quantités massives de cuivre. À l'échelle du gigawatt, un seul rack de 1 MW peut nécessiter 200 kg de barres de cuivre — soit 200 000 kg pour un datacenter d'1 GW, selon un billet de blog Nvidia.

La solution qui s'impose est l'architecture 800 V DC : le courant est converti une seule fois depuis le réseau AC 13,8 kV directement en 800 V DC en périphérie du site, puis distribué en bus continu jusqu'aux racks. Des convertisseurs DC-DC compacts prennent ensuite en charge l'alimentation des GPU et CPU. Les gains sont significatifs : 85 % de capacité de transport supplémentaire à section de câble égale, réduction des besoins en cuivre de 45 %, gain d'efficacité énergétique de 5 % et baisse du coût total de possession de 30 % pour les installations au gigawatt, selon Eaton et Vertiv.

Plusieurs acteurs industriels se positionnent activement. Vertiv commercialisera son écosystème 800 V DC compatible avec les plateformes Nvidia Vera Rubin Ultra Kyber au second semestre 2026. Eaton et Delta avancent également sur leurs propres offres. En Chine, des datacenters haute tension DC sont déjà opérationnels. Aux États-Unis, la Mt. Diablo Initiative — coalition réunissant Meta, Microsoft et l'Open Compute Project — expérimente la distribution en rack à 400 V DC. La transition reste partielle : comme le souligne Chris Thompson de Vertiv, "la distribution AC reste profondément ancrée", mais la pression des infrastructures IA accélère l'adoption des nouvelles architectures.

Impact France/UE

Les opérateurs européens de datacenters devront adapter leurs infrastructures d'alimentation pour supporter des racks IA haute densité, impliquant des investissements conséquents en équipements DC.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

“Le e-commerce passe du mot-clé au contexte” : Roxane Laigle, CEO de LEMROCK décrypte la bascule vers les IA
1FrenchWeb 

“Le e-commerce passe du mot-clé au contexte” : Roxane Laigle, CEO de LEMROCK décrypte la bascule vers les IA

Le commerce en ligne traverse une mutation structurelle dans son rapport à la visibilité, selon Roxane Laigle, CEO de LEMROCK, entreprise spécialisée dans la stratégie digitale. Pendant deux décennies, les marques ont bâti leur présence en ligne sur le mot-clé, le référencement naturel et l'optimisation des pages produits, une logique entièrement tournée vers les moteurs de recherche traditionnels. Avec la montée en puissance des interfaces conversationnelles portées par l'intelligence artificielle, cette grammaire est en train de changer. La bascule est concrète : là où un consommateur tapait autrefois "chaussures running homme taille 42", il pose désormais une question à un assistant IA qui synthétise une réponse sans nécessairement renvoyer vers un site marchand précis. Pour les e-commerçants, cela signifie que la logique du clic et du classement cède la place à celle du contexte : une marque doit désormais être compréhensible et recommandable par une IA, pas seulement indexable par un algorithme. Les fiches produits, les contenus et les données structurées doivent être repensés en conséquence. Ce changement s'inscrit dans une transformation plus large portée par l'essor de ChatGPT, Perplexity et des assistants intégrés aux navigateurs, qui modifient profondément les flux de trafic vers les sites marchands. Les acteurs du SEO et du marketing e-commerce sont contraints d'anticiper un monde où la visibilité ne se mesure plus en position Google mais en capacité à alimenter les réponses des modèles de langage, un défi stratégique encore largement sous-estimé par les enseignes.

UELes e-commerçants français doivent repenser leur stratégie de contenu et de référencement pour être recommandables par les IA conversationnelles, une mutation qui affecte directement la compétitivité des enseignes françaises en ligne.

💬 La transformation est réelle, et les flux de trafic bougent déjà pour ceux qui regardent leurs analytics de près. Ce que beaucoup ratent, c'est que le problème n'est pas "comment plaire à l'IA" mais "est-ce que mes données produits sont assez propres pour qu'un LLM les comprenne sans tout réinventer". Reste à voir combien d'agences vont vendre ça 15 000€/mois en renommant leur vieille offre SEO.

OutilsOpinion
1 source
Simulations en continu : comment les agents IA font avancer l'ingénierie du sous-sol
2NVIDIA Developer Blog 

Simulations en continu : comment les agents IA font avancer l'ingénierie du sous-sol

L'industrie souterraine, qui englobe l'exploration pétrolière, gazière et géothermique, traverse une transformation numérique majeure portée par l'essor des agents IA capables de fonctionner en continu, 24 heures sur 24 et 7 jours sur 7. Pendant des décennies, exploiter le potentiel des réservoirs souterrains a exigé des ingénieurs spécialisés qui effectuaient manuellement des workflows complexes et chronophages. La croissance exponentielle des volumes de données géologiques et sismiques a creusé un fossé critique entre la vitesse de traitement des machines et la capacité humaine disponible, rendant les simulations à la demande pratiquement impossibles à opérer à grande échelle. L'introduction d'agents IA autonomes dans les boucles de simulation change fondamentalement cette équation. Ces systèmes peuvent enchaîner sans interruption des cycles complets de modélisation de réservoirs, ajuster les paramètres, interpréter les résultats et relancer de nouvelles itérations, sans attendre qu'un expert soit disponible. Pour les opérateurs pétroliers et les équipes d'ingénierie de réservoir, cela se traduit par une réduction drastique des délais de décision et une capacité à explorer un spectre bien plus large de scénarios géologiques en un temps réduit. Ce virage s'inscrit dans une tendance plus large d'automatisation des workflows scientifiques et industriels lourds, où l'IA agentique dépasse le simple rôle d'assistant pour devenir un acteur opérationnel autonome. Le secteur énergétique, sous pression pour optimiser l'extraction tout en réduisant les coûts et l'empreinte carbone, constitue un terrain d'expérimentation privilégié pour ces architectures. Les prochains développements devraient porter sur l'intégration de ces agents dans des pipelines de décision en temps réel, directement connectés aux données de terrain.

UELes acteurs européens du secteur énergétique, notamment dans l'exploration géothermique et pétrolière, pourraient adopter ces architectures agentiques pour réduire leurs coûts opérationnels et accélérer leurs cycles de décision.

OutilsOutil
1 source
Algorithmes de recommandation dans l’iGaming : comment les plateformes utilisent les données pour personnaliser le contenu
3Le Big Data 

Algorithmes de recommandation dans l’iGaming : comment les plateformes utilisent les données pour personnaliser le contenu

Les plateformes de jeux en ligne (iGaming) déploient depuis plusieurs années des algorithmes de recommandation sophistiqués pour guider les joueurs vers des jeux, des bonus et des fonctionnalités adaptés à leur profil. Ces systèmes reposent sur trois grandes catégories de données : comportementales (clics, temps de session, navigation), transactionnelles (montants misés, historique des dépôts) et contextuelles (type d'appareil, heure de connexion). À partir de ces signaux, les plateformes construisent des indicateurs individuels, fréquence de jeu, jeux préférés, taille moyenne des mises, qui alimentent des modèles d'apprentissage automatique capables de proposer des suggestions de plus en plus précises au fil du temps. Trois familles d'algorithmes dominent le secteur : le filtrage basé sur le contenu, qui recommande des titres similaires à ceux déjà appréciés ; le filtrage collaboratif, qui s'appuie sur les comportements d'utilisateurs aux profils proches pour introduire de la diversité ; et les systèmes hybrides, qui combinent les deux approches et intègrent parfois des règles manuelles pour mettre en avant des nouveautés ou des promotions actives. L'impact de ces systèmes est direct et mesurable : en réduisant le temps que le joueur passe à chercher un jeu adapté, les plateformes augmentent l'engagement et la rétention. Les utilisateurs voient des recommandations cohérentes avec leurs habitudes dès leur connexion, sans avoir à parcourir un catalogue de plusieurs centaines de titres. Certaines plateformes ont poussé la logique plus loin en adoptant des systèmes adaptatifs en temps réel, capables d'ajuster les suggestions en cours de session selon les signaux immédiats. Cette personnalisation fine génère un avantage concurrentiel significatif, mais elle soulève aussi des questions sur l'équilibre à trouver entre pertinence commerciale et responsabilité vis-à-vis des joueurs, notamment ceux présentant des comportements à risque. Le développement de ces technologies dans l'iGaming suit la trajectoire déjà tracée par le e-commerce et les plateformes de streaming, qui ont démontré depuis longtemps l'efficacité de la recommandation personnalisée pour augmenter le temps passé et les conversions. Pour les opérateurs de jeux en ligne, l'enjeu est double : affiner continuellement leurs modèles pour rester compétitifs face à des marchés très saturés, et gérer la conformité réglementaire dans des juridictions qui encadrent de plus en plus strictement l'usage des données personnelles dans ce secteur. En parallèle, des acteurs externes comme les comparateurs de bonus continuent d'exister en complément, répondant au besoin des joueurs de disposer d'un regard indépendant avant de s'engager sur une plateforme donnée.

UELes opérateurs de jeux en ligne actifs en France sont soumis à la réglementation de l'ANJ et au RGPD, qui encadrent strictement l'usage des données personnelles à des fins de personnalisation comportementale.

OutilsOutil
1 source
4AWS ML Blog 

Des heures aux minutes : comment les agents IA ont redonné du temps aux marketeurs pour l'essentiel

L'équipe Technology, AI, and Analytics (TAA) d'AWS Marketing a développé, en partenariat avec la startup Gradial, une solution d'IA agentique capable de réduire le temps de publication d'une page web de quatre heures à environ dix minutes, soit une diminution de plus de 95 %. Déployée sur Amazon Bedrock, cette solution s'appuie sur les modèles Anthropic Claude et Amazon Nova pour orchestrer l'ensemble du workflow de création de contenu : interprétation des briefs en langage naturel, assemblage des composants de page, validation des standards d'accessibilité et de conformité, jusqu'au lancement effectif sur les canaux digitaux. Le système intègre un serveur Model Context Protocol (MCP) pour la validation en temps réel et se connecte directement aux systèmes de gestion de contenu (CMS) d'entreprise. Cette accélération libère les équipes marketing, Digital Marketing Managers et Product Marketing Managers chez AWS, des tâches de coordination et d'assemblage répétitives qui monopolisaient leur temps. Auparavant, la publication d'une seule page nécessitait un appel de lancement, une file d'attente de priorisation, plusieurs allers-retours entre équipes, puis des cycles de révision successifs pour valider les textes, les visuels, les liens et la conformité technique. Un seul problème d'accessibilité sur une image suffisait à relancer un nouveau cycle complet. En automatisant cette orchestration, les équipes peuvent désormais se concentrer sur les tâches à plus forte valeur ajoutée : identifier les problèmes clients, affiner les messages et concevoir des campagnes plus efficaces. Ce projet s'inscrit dans une tendance de fond où les grandes entreprises tech cherchent à industrialiser leurs workflows marketing grâce à l'IA agentique. AWS, qui opère l'une des infrastructures digitales les plus complexes au monde, fait face à des exigences particulièrement élevées en matière de cohérence de marque, d'accessibilité et de conformité réglementaire à grande échelle. Le recours à Gradial, une startup spécialisée dans la modernisation des organisations marketing, illustre la montée en puissance des solutions verticales construites sur des plateformes d'IA fondationnelles comme Bedrock. L'enjeu dépasse AWS : toute organisation publiant du contenu web en volume est confrontée aux mêmes goulots d'étranglement. La généralisation de ce type d'agent autonome capable de piloter des CMS d'entreprise pourrait profondément transformer les métiers du marketing digital, en faisant de la coordination humaine l'exception plutôt que la règle.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour