Google dévoile deux nouveaux TPU conçus pour l'ère des agents autonomes
Google a dévoilé sa huitième génération de puces TPU (Tensor Processing Units), marquant une évolution significative dans l'architecture de ses accélérateurs d'intelligence artificielle. Contrairement à une simple amélioration itérative, cette génération se décline en deux variantes distinctes : le TPU 8t, dédié à l'entraînement des modèles, et le TPU 8i, optimisé pour l'inférence. L'annonce fait suite au lancement de l'Ironwood, la septième génération, présenté en 2025. Selon Google, le TPU 8t permettrait de réduire la durée d'entraînement des modèles d'IA frontier de plusieurs mois à quelques semaines seulement.
Cette bifurcation matérielle reflète une lecture stratégique de l'évolution de l'IA : les systèmes dits "agentiques", capables d'agir de façon autonome sur des tâches complexes, génèrent des charges de travail très différentes de celles des modèles conversationnels classiques. Séparer l'entraînement de l'inférence au niveau du silicium permet d'optimiser chaque phase indépendamment, avec des gains attendus en vitesse et en efficacité énergétique. Pour les entreprises clientes de Google Cloud, cela se traduit potentiellement par des coûts réduits et des cycles de développement accélérés.
Google se distingue depuis longtemps du reste de l'industrie en misant sur ses propres puces plutôt que sur les accélérateurs Nvidia, qui dominent largement le marché de l'IA. Cette stratégie verticale lui confère un avantage en termes de contrôle de la chaîne d'approvisionnement et d'optimisation logicielle, mais implique des investissements considérables en R&D. La montée en puissance des agents IA, capables d'enchaîner des raisonnements et d'interagir avec des outils externes, intensifie la demande en inférence continue et à faible latence, un terrain sur lequel le TPU 8i est précisément conçu pour s'imposer. La prochaine étape sera de savoir si ces puces tiennent leurs promesses face aux solutions Nvidia dans des benchmarks réels.
Les entreprises européennes utilisant Google Cloud pourraient bénéficier de coûts d'entraînement réduits et de cycles de développement accélérés grâce à ces nouvelles puces.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




