Aller au contenu principal
InfrastructureArs Technica AI33min

Des data centers IA flottants alimentés par les vagues de l'océan : la Silicon Valley mise sur cette piste

Résumé IASource uniqueImpact UE
Source originale ↗·

Des investisseurs de la Silicon Valley, dont Peter Thiel, cofondateur de Palantir, ont misé des centaines de millions de dollars sur un concept inédit : des centres de données flottants alimentés par l'énergie des vagues océaniques. Le dernier tour de financement, d'un montant de 140 millions de dollars annoncé le 4 mai, doit permettre à la startup Panthalassa de finaliser une installation pilote de fabrication près de Portland, en Oregon, et d'accélérer le déploiement de ses "nœuds" marins. Ces plateformes flottantes captent l'énergie des vagues pour alimenter directement des puces d'intelligence artificielle embarquées, puis transmettent les résultats des modèles, sous forme de tokens d'inférence, aux clients via liaison satellite, sans jamais passer par un data center terrestre.

L'enjeu est de taille : ce modèle transforme un problème de transport d'énergie en un problème de transport de données, une substitution potentiellement décisive. Comme l'explique Benjamin Lee, ingénieur et architecte informatique à l'Université de Pennsylvanie, "réaliser du calcul IA sur l'océan nécessite de transférer les modèles vers les nœuds en mer, puis de répondre aux requêtes". Concrètement, cela signifie que les opérateurs n'auraient plus besoin de construire des lignes à haute tension ni de négocier l'accès au réseau électrique terrestre, deux obstacles majeurs qui ralentissent actuellement le déploiement de l'infrastructure IA à grande échelle.

Cette initiative émerge dans un contexte où les géants de la tech font face à des difficultés croissantes pour implanter des data centers sur la terre ferme : contraintes foncières, pénuries énergétiques locales, délais de raccordement au réseau et oppositions réglementaires freinent les projets de Microsoft, Google ou Amazon. Le secteur cherche des alternatives radicales, qu'il s'agisse de l'énergie nucléaire modulaire ou, désormais, de l'offshore. Panthalassa devra encore démontrer la fiabilité de ses nœuds face aux conditions marines extrêmes, la latence acceptable pour les cas d'usage IA, et la viabilité économique à grande échelle, autant de défis techniques que le pilote de Portland sera chargé de valider.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

USA : les chantiers de datacenters butent sur un double mur énergétique
1Next INpact 

USA : les chantiers de datacenters butent sur un double mur énergétique

Entre 30 et 50 % des projets de datacenters prévus pour 2026 aux États-Unis accuseront des retards significatifs, selon une enquête de Bloomberg publiée le 1er avril 2026. Le frein principal n'est pas, comme on pourrait le supposer, la pénurie de puces IA ou de mémoire vive, mais bien un goulot d'étranglement à l'étage inférieur : les équipements électriques indispensables à l'alimentation de ces infrastructures, transformateurs, turbines, systèmes de distribution haute tension. Ces composants représentent moins de 10 % du coût total d'un datacenter, mais leur absence suffit à bloquer l'ensemble d'un chantier. La demande est colossale : selon une analyse de Bridgewater Associates de fin février 2026, Google, Amazon, Meta et Microsoft ont planifié à eux seuls 650 milliards de dollars de dépenses d'investissement en infrastructures. À cela s'ajoutent des acteurs comme Oracle, Equinix ou CoreWeave, qui construisent leurs propres centres de données en parallèle. Ce double mur, énergétique d'un côté, industriel de l'autre, crée une situation paradoxale où des centaines de milliards de dollars sont engagés mais ne peuvent se concrétiser faute de câbles, de transformateurs et de turbines disponibles en quantité suffisante. Pour les entreprises clientes comme OpenAI ou Anthropic, dont les besoins de calcul explosent, ces retards de livraison se traduisent directement par des contraintes de capacité. Pour les régions concernées, le problème est aussi structurel : plusieurs zones du territoire américain disposent d'un réseau électrique insuffisamment dimensionné pour absorber de telles charges. Meta a d'ores et déjà réservé 6,6 gigawatts d'énergie nucléaire dont les réacteurs ne seront pas opérationnels avant 2035, signe que les géants tech anticipent une pénurie durable. Face à ces contraintes, les grandes entreprises technologiques cherchent à devenir leurs propres producteurs d'énergie, contournant ainsi les délais de raccordement au réseau public. L'exemple le plus radical est celui de xAI, la société d'Elon Musk, qui a levé 20 milliards de dollars en partie pour financer l'achat de cinq turbines à gaz représentant 2 gigawatts de puissance cumulée, en complément d'installations déjà existantes dont les niveaux d'émission dépassent la réglementation locale. Ce mouvement de verticalisation énergétique illustre une tendance de fond : la course à l'infrastructure IA est désormais autant une question d'approvisionnement électrique que de performance logicielle. Le cabinet Sightline Climate, dont Bloomberg s'appuie sur les données chiffrées, documente une accumulation de retards qui révèle les limites réelles de plans d'investissement présentés comme historiques mais dont l'exécution se heurte à la physique des réseaux et aux délais de l'industrie lourde.

UEL'Europe fait face aux mêmes contraintes de réseau électrique et de délais d'approvisionnement en équipements lourds, risquant de ralentir les projets de datacenters européens pourtant essentiels à la souveraineté numérique de l'UE.

InfrastructureOpinion
1 source
IA : cette avancée de Google qui fait trembler les fabricants de puces sur les marchés
2La Tribune 

IA : cette avancée de Google qui fait trembler les fabricants de puces sur les marchés

Google a annoncé TurboQuant, un algorithme de compression capable de réduire drastiquement les besoins en mémoire vive des grands modèles de langage (LLM). L'annonce, faite en mars 2026, a provoqué une réaction immédiate sur les marchés financiers : les actions des fabricants de mémoires et de puces, dont Micron et SK Hynix, ont fortement chuté en Bourse dès la publication de la nouvelle. L'impact potentiel est considérable pour toute l'industrie des semi-conducteurs. Si TurboQuant tient ses promesses, les data centers et les développeurs d'IA auront besoin de beaucoup moins de RAM pour faire tourner des modèles de grande taille — ce qui représente une menace directe sur les volumes de vente de mémoire HBM (High Bandwidth Memory), un segment très lucratif dominé par Samsung, SK Hynix et Micron. Pour les utilisateurs et les entreprises qui déploient des LLM, cela pourrait en revanche signifier des coûts d'infrastructure nettement réduits et une accessibilité accrue à des modèles puissants. Cette avancée s'inscrit dans une course plus large à l'efficacité des modèles d'IA, où la quantisation et la compression sont devenues des axes majeurs de recherche depuis 2023. Des techniques comme GPTQ ou AWQ avaient déjà tracé la voie, mais Google, fort de ses ressources et de sa maîtrise de l'infrastructure, entend ici passer à une nouvelle échelle. La question qui agite désormais le secteur est de savoir si TurboQuant sera intégré à Gemini et aux offres cloud de Google, ce qui accélérerait considérablement son adoption industrielle.

UELes entreprises et développeurs européens déployant des LLM pourraient bénéficier d'une réduction sensible des coûts d'infrastructure mémoire si TurboQuant est intégré aux offres cloud grand public.

💬 TurboQuant ne change pas ce qu'on peut faire tourner sur nos GPU quant à la taille des modèles eux-mêmes — mais il transforme des modèles "techniquement possibles" en modèles réellement utilisables avec un vrai contexte long. Pour illustrer : avec une RTX 5080, les modèles 12-14B passent de ~10K à ~60-100K tokens de contexte, soit une fenêtre quasi illimitée pour ces tailles. De quoi faire trembler les fabricants de puces, effectivement.

InfrastructureOpinion
1 source
Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?
3Le Big Data 

Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?

Meta a annoncé le 9 avril 2026 un nouvel accord de 21 milliards de dollars avec CoreWeave, portant l'engagement total du groupe envers ce fournisseur de cloud GPU à plus de 35 milliards de dollars. Cet accord court jusqu'en décembre 2032 et couvre principalement des capacités de calcul dédiées à l'inférence, c'est-à-dire le traitement en temps réel des requêtes IA dans les applications grand public. L'action CoreWeave ($CRWV) a bondi d'environ 8 % à l'annonce de la nouvelle. Le partenariat inclut également un accès anticipé à la plateforme NVIDIA Vera Rubin, la prochaine génération de puces IA qui succède à l'architecture Blackwell, déployée sur plusieurs sites avant sa disponibilité commerciale large. Cet accord illustre un changement de paradigme dans la compétition en intelligence artificielle : l'infrastructure compute est désormais aussi stratégique que les modèles eux-mêmes. Les modèles Llama de Meta sont intégrés dans Facebook, Instagram, WhatsApp et Messenger, soit plusieurs milliards d'utilisateurs actifs. À cette échelle, chaque requête mobilise de la puissance de calcul, et la latence comme les coûts deviennent des variables critiques. CoreWeave, spécialisé dans les clusters GPU haute densité, peut déployer des capacités beaucoup plus rapidement qu'un hyperscaler classique en phase de construction, ce qui en fait un relais opérationnel immédiatement exploitable. L'accès anticipé aux puces Vera Rubin donne par ailleurs à Meta un avantage compétitif concret : optimiser ses modèles sur une architecture plus performante avant que ses concurrents ne puissent faire de même. Meta n'abandonne pas pour autant ses investissements internes. Le groupe prévoit entre 115 et 135 milliards de dollars de dépenses d'investissement pour 2026, dont un centre de données estimé à 10 milliards de dollars au Texas. Mais ces infrastructures propres prennent des années à construire, et l'urgence concurrentielle ne permet pas d'attendre. La stratégie adoptée est donc hybride : construire en interne pour le long terme, louer chez CoreWeave pour répondre aux besoins immédiats. Mike Intrator, PDG de CoreWeave, a résumé cette logique en évoquant un risque opérationnel trop élevé pour dépendre d'une seule approche. Ce modèle de redondance computing, mi-propriétaire mi-externalisé, pourrait rapidement devenir la norme dans l'industrie, à mesure que Google, Microsoft et Amazon font face aux mêmes tensions sur les GPU et aux mêmes exigences de rapidité d'exécution.

UECet accord renforce la concentration des ressources GPU chez les acteurs américains, réduisant indirectement la capacité des entreprises européennes à accéder à des infrastructures IA compétitives à coût et délai raisonnables.

InfrastructureOpinion
1 source
Microsoft et les fournisseurs cloud resserrent leur emprise sur les GPU, au détriment des clients IA
4The Information AI 

Microsoft et les fournisseurs cloud resserrent leur emprise sur les GPU, au détriment des clients IA

Microsoft et d'autres grands fournisseurs de cloud redirigent leurs stocks de GPU Nvidia vers leurs équipes internes ou leurs clients enterprise les plus importants, privant les startups d'IA d'un accès fiable aux serveurs dont elles ont besoin. Cette pénurie touche des entreprises pourtant solidement financées, soutenues par des fonds majeurs comme Sequoia Capital, Founders Fund, General Catalyst et Andreessen Horowitz. La situation est suffisamment préoccupante pour qu'Hemant Taneja, directeur général de General Catalyst, ait envoyé un sondage à ses fondateurs en portefeuille pour évaluer leur capacité à accéder aux ressources de calcul. Cette tension sur l'offre a des conséquences directes et immédiates : les startups qui ne parviennent pas à obtenir des GPU auprès des fournisseurs cloud traditionnels se retrouvent contraintes de se tourner vers des alternatives plus coûteuses ou moins stables. Pour des entreprises dont le modèle repose entièrement sur la puissance de calcul, entraînement de modèles, inférence, recherche, une rupture d'approvisionnement peut ralentir le développement de produits et éroder l'avantage concurrentiel acquis grâce aux levées de fonds. Cette situation reflète une tension structurelle dans l'écosystème de l'IA : les hyperscalers comme Microsoft, Google ou Amazon ont massivement investi dans leurs propres capacités d'IA et traitent désormais leurs besoins internes en priorité. Face à une demande mondiale de GPU Nvidia qui dépasse largement l'offre disponible, les petits acteurs se retrouvent en bas de la liste d'attente, dans un marché où l'accès au calcul est devenu aussi stratégique que le capital lui-même.

UELes startups IA européennes, également dépendantes des hyperscalers américains pour l'accès aux GPU Nvidia, sont exposées à la même tension structurelle qui freine leur développement face aux priorités internes des fournisseurs cloud.

InfrastructureOpinion
1 source