Aller au contenu principal
Le premier CPU signé Arm va équiper les datacenters IA de Meta plus tard cette année
InfrastructureThe Verge AI6sem

Le premier CPU signé Arm va équiper les datacenters IA de Meta plus tard cette année

Résumé IASource uniqueImpact UE
Source originale ↗·

Arm franchit une étape historique en lançant son premier processeur maison, l'Arm AGI CPU, destiné aux datacenters d'intelligence artificielle. Après des décennies à se limiter à la conception de designs de puces sous licence, la société britannique passe à la fabrication directe — et son premier client n'est autre que Meta.

Ce changement de stratégie marque un tournant majeur pour Arm, dont le modèle économique reposait jusqu'ici exclusivement sur la vente de licences à des fabricants tiers comme Qualcomm, Apple ou Samsung. En entrant dans l'arène de la production de puces, Arm se positionne désormais comme un acteur à part entière dans la course aux infrastructures IA, un secteur en pleine explosion où les besoins en puissance de calcul pour l'inférence — c'est-à-dire l'exécution des modèles en temps réel — ne cessent de croître.

L'Arm AGI CPU est conçu spécifiquement pour l'inférence cloud, notamment pour alimenter des agents IA capables de démultiplier les tâches en parallèle. Meta se positionne à la fois comme partenaire principal et co-développeur de la puce, avec des engagements portant sur plusieurs générations de processeurs datacenter. Ce partenariat intervient alors que Meta aurait rencontré des difficultés à lancer ses propres puces maison. Le CPU sera déployé aux côtés de matériel de fournisseurs tiers tels que Nvidia et AMD.

Cette alliance illustre une tendance de fond : les grands acteurs du web cherchent à diversifier leurs sources de silicium pour réduire leur dépendance à Nvidia, tout en s'appuyant sur des partenaires capables de co-concevoir des solutions sur mesure. Pour Arm, c'est l'occasion de capturer une plus grande part de la valeur générée par ses architectures, dans un contexte où ses designs dominent déjà une large part du marché mobile mondial.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Des data centers IA flottants alimentés par les vagues de l'océan : la Silicon Valley mise sur cette piste
1Ars Technica AI 

Des data centers IA flottants alimentés par les vagues de l'océan : la Silicon Valley mise sur cette piste

Des investisseurs de la Silicon Valley, dont Peter Thiel, cofondateur de Palantir, ont misé des centaines de millions de dollars sur un concept inédit : des centres de données flottants alimentés par l'énergie des vagues océaniques. Le dernier tour de financement, d'un montant de 140 millions de dollars annoncé le 4 mai, doit permettre à la startup Panthalassa de finaliser une installation pilote de fabrication près de Portland, en Oregon, et d'accélérer le déploiement de ses "nœuds" marins. Ces plateformes flottantes captent l'énergie des vagues pour alimenter directement des puces d'intelligence artificielle embarquées, puis transmettent les résultats des modèles, sous forme de tokens d'inférence, aux clients via liaison satellite, sans jamais passer par un data center terrestre. L'enjeu est de taille : ce modèle transforme un problème de transport d'énergie en un problème de transport de données, une substitution potentiellement décisive. Comme l'explique Benjamin Lee, ingénieur et architecte informatique à l'Université de Pennsylvanie, "réaliser du calcul IA sur l'océan nécessite de transférer les modèles vers les nœuds en mer, puis de répondre aux requêtes". Concrètement, cela signifie que les opérateurs n'auraient plus besoin de construire des lignes à haute tension ni de négocier l'accès au réseau électrique terrestre, deux obstacles majeurs qui ralentissent actuellement le déploiement de l'infrastructure IA à grande échelle. Cette initiative émerge dans un contexte où les géants de la tech font face à des difficultés croissantes pour implanter des data centers sur la terre ferme : contraintes foncières, pénuries énergétiques locales, délais de raccordement au réseau et oppositions réglementaires freinent les projets de Microsoft, Google ou Amazon. Le secteur cherche des alternatives radicales, qu'il s'agisse de l'énergie nucléaire modulaire ou, désormais, de l'offshore. Panthalassa devra encore démontrer la fiabilité de ses nœuds face aux conditions marines extrêmes, la latence acceptable pour les cas d'usage IA, et la viabilité économique à grande échelle, autant de défis techniques que le pilote de Portland sera chargé de valider.

InfrastructureActu
1 source
Google négocierait le financement d'un data center de plusieurs milliards pour Anthropic
2The Information AI 

Google négocierait le financement d'un data center de plusieurs milliards pour Anthropic

Google serait en négociation pour financer partiellement la construction d'un datacenter de plusieurs milliards de dollars au Texas, destiné à être loué par Anthropic, selon des informations du Financial Times. Le montage financier envisagé passerait par des prêts à la construction accordés à Nexus Data Centers, l'opérateur du site qui détient le bail avec Anthropic. Le montant exact n'a pas été divulgué, mais l'expression « multibillion-dollar » laisse entrevoir une infrastructure d'envergure. Ce projet illustre la dépendance croissante des laboratoires d'IA aux investissements massifs en infrastructure de calcul. Pour Anthropic, accéder à une capacité de calcul dédiée et à grande échelle est indispensable pour entraîner et déployer ses modèles Claude à un niveau compétitif face à OpenAI et Google DeepMind. Pour Google, financer l'infrastructure de son partenaire stratégique — dans lequel il a déjà investi plus de 2 milliards de dollars — renforce un écosystème dans lequel ses propres intérêts sont engagés. Ce mouvement s'inscrit dans une course mondiale aux datacenters alimentée par l'explosion de la demande en IA générative. Microsoft construit des infrastructures pour OpenAI, Amazon pour ses propres services et Anthropic via AWS. Le fait que Google joue désormais aussi le rôle de bailleur de fonds pour Anthropic, en plus de partenaire cloud, témoigne de l'intrication croissante entre financement, infrastructure et développement des modèles dans l'industrie de l'IA.

InfrastructureOpinion
1 source
IA : cette avancée de Google qui fait trembler les fabricants de puces sur les marchés
3La Tribune 

IA : cette avancée de Google qui fait trembler les fabricants de puces sur les marchés

Google a annoncé TurboQuant, un algorithme de compression capable de réduire drastiquement les besoins en mémoire vive des grands modèles de langage (LLM). L'annonce, faite en mars 2026, a provoqué une réaction immédiate sur les marchés financiers : les actions des fabricants de mémoires et de puces, dont Micron et SK Hynix, ont fortement chuté en Bourse dès la publication de la nouvelle. L'impact potentiel est considérable pour toute l'industrie des semi-conducteurs. Si TurboQuant tient ses promesses, les data centers et les développeurs d'IA auront besoin de beaucoup moins de RAM pour faire tourner des modèles de grande taille — ce qui représente une menace directe sur les volumes de vente de mémoire HBM (High Bandwidth Memory), un segment très lucratif dominé par Samsung, SK Hynix et Micron. Pour les utilisateurs et les entreprises qui déploient des LLM, cela pourrait en revanche signifier des coûts d'infrastructure nettement réduits et une accessibilité accrue à des modèles puissants. Cette avancée s'inscrit dans une course plus large à l'efficacité des modèles d'IA, où la quantisation et la compression sont devenues des axes majeurs de recherche depuis 2023. Des techniques comme GPTQ ou AWQ avaient déjà tracé la voie, mais Google, fort de ses ressources et de sa maîtrise de l'infrastructure, entend ici passer à une nouvelle échelle. La question qui agite désormais le secteur est de savoir si TurboQuant sera intégré à Gemini et aux offres cloud de Google, ce qui accélérerait considérablement son adoption industrielle.

UELes entreprises et développeurs européens déployant des LLM pourraient bénéficier d'une réduction sensible des coûts d'infrastructure mémoire si TurboQuant est intégré aux offres cloud grand public.

💬 TurboQuant ne change pas ce qu'on peut faire tourner sur nos GPU quant à la taille des modèles eux-mêmes — mais il transforme des modèles "techniquement possibles" en modèles réellement utilisables avec un vrai contexte long. Pour illustrer : avec une RTX 5080, les modèles 12-14B passent de ~10K à ~60-100K tokens de contexte, soit une fenêtre quasi illimitée pour ces tailles. De quoi faire trembler les fabricants de puces, effectivement.

InfrastructureOpinion
1 source
5 astuces ingénieuses qui boostent les data centers IA
4The Information AI 

5 astuces ingénieuses qui boostent les data centers IA

Face à l'explosion des besoins en électricité pour l'IA, les géants tech rivalisent d'ingéniosité : Meta a transformé ses datacenters traditionnels en clusters GPU en quelques mois et installé des "tent cities" à New Albany (Ohio), tandis que Google relie plusieurs datacenters via fibre optique pour mutualiser des gigawatts de puissance. Microsoft a racheté un sous-station électrique inutilisée construite pour Foxconn à Mount Pleasant (Wisconsin), permettant à son datacenter Fairwater de dépasser 350 MW. Ces approches — reconversion de sites industriels, récupération d'infrastructures abandonnées, et même utilisation de moteurs à réaction pour la production d'énergie — illustrent la course effrénée à la puissance de calcul qui redessine l'industrie.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour