Google Cloud a dévoilé mercredi sa huitième génération de puces d’intelligence artificielle maison, les TPU 8. Contrairement aux générations précédentes, ces nouveaux processeurs se déclinent en deux modèles distincts — une première dans l’histoire des TPU.
Le TPU 8t est conçu pour l’entraînement des modèles d’IA, une phase intensive en calcul. Le TPU 8i, lui, est optimisé pour l’inférence — c’est-à-dire le traitement des requêtes des utilisateurs en temps réel. Cette séparation des usages marque une évolution stratégique pour Google, qui cherche à gagner en efficacité sur toute la chaîne de valeur de l’IA.
Des performances en net progrès
Selon Google Cloud, les TPU 8 offrent des gains substantiels par rapport à leurs prédécesseurs : jusqu’à 3 fois plus rapides pour l’entraînement, 80 % de meilleures performances par dollar investi, et la capacité de faire fonctionner plus d’un million de TPU en cluster unique. De quoi réduire sensiblement les coûts et la consommation énergétique pour les clients entreprises.
Ces annonces interviennent dans un contexte de course intense aux infrastructures IA. Nvidia reste le leader incontesté du marché GPU avec une capitalisation boursière avoisinant les 5 000 milliards de dollars — preuve que la montée en puissance des puces maison des géants du cloud n’a pas, jusqu’ici, entamé son hégémonie.
Nvidia toujours dans l’équation
Google ne joue pas la rupture totale. La firme confirme que ses datacenters proposeront bien le dernier GPU Nvidia — le Vera Rubin — plus tard en 2026. Les TPU 8 viennent donc compléter l’offre Nvidia, pas la remplacer. Amazon et Microsoft adoptent la même stratégie hybride avec leurs propres puces Trainium et Maia.
L’IA continue de transformer les infrastructures cloud à vitesse record. Pour les entreprises qui migrent leurs charges de travail, la combinaison TPU natif + GPU Nvidia représente le meilleur des deux mondes : rapidité, souplesse et compatibilité.

