
CPUs, GPUs, TPUs, NPUs et LPUs : cinq architectures de calcul IA que tout ingénieur doit connaître
L'intelligence artificielle moderne ne repose plus sur un seul type de processeur, mais sur un écosystème de puces spécialisées aux compromis bien distincts. Les CPU (processeurs centraux), architecture historique de l'informatique, restent indispensables pour l'orchestration des systèmes, la gestion des flux de données et la coordination des autres accélérateurs, mais leurs cœurs peu nombreux et leur traitement séquentiel les rendent inadaptés aux calculs massivement parallèles que nécessite l'IA à grande échelle. Les GPU (processeurs graphiques), conçus à l'origine pour le rendu vidéo, sont devenus la colonne vertébrale de l'entraînement des modèles de deep learning grâce à leurs milliers de cœurs capables d'exécuter simultanément les multiplications matricielles et opérations tensorielles au cœur des réseaux de neurones, une révolution rendue possible par l'introduction de CUDA par Nvidia. À ces deux architectures s'ajoutent les TPU (Tensor Processing Units) de Google, conçus spécifiquement pour l'exécution de réseaux de neurones avec un flux de données optimisé, les NPU (Neural Processing Units) intégrés dans les appareils grand public pour une inférence locale économe en énergie, et les LPU (Language Processing Units) de Groq, une innovation récente promettant une inférence nettement plus rapide et plus efficiente pour les grands modèles de langage.
Ces distinctions architecturales ont des conséquences directes pour les entreprises et les ingénieurs qui déploient des systèmes d'IA en production. Choisir la mauvaise puce signifie payer trop cher pour de l'entraînement, subir une latence excessive en inférence, ou gaspiller de l'énergie sur des appareils embarqués. Les GPU restent le choix dominant pour l'entraînement intensif, mais leur coût élevé et leur disponibilité limitée poussent les acteurs à explorer des alternatives. Les NPU, désormais intégrés dans les puces Apple Silicon, Qualcomm Snapdragon ou Intel Core Ultra, permettent d'exécuter des modèles directement sur les terminaux sans cloud, réduisant latence et risques liés à la confidentialité. Les LPU de Groq, eux, ciblent précisément le goulot d'étranglement de l'inférence en production pour les LLM, avec des débits annoncés plusieurs fois supérieurs aux GPU traditionnels.
Cette diversification des architectures de calcul reflète une transition plus profonde de l'industrie : le passage du calcul généraliste à l'optimisation par charge de travail. Pendant des décennies, la loi de Moore et les CPU universels ont suffi. Aujourd'hui, la demande explosive en puissance de calcul pour l'IA, portée par des modèles de plus en plus massifs comme GPT-4, Gemini ou Llama 3, dépasse ce que les architectures généralistes peuvent absorber efficacement. Google a investi massivement dans ses TPU v4 et v5 pour sécuriser son indépendance vis-à-vis de Nvidia, tandis que des startups comme Groq, Cerebras ou Tenstorrent parient sur des designs radicalement différents. Pour tout ingénieur IA, comprendre ces architectures n'est plus une curiosité académique : c'est une compétence opérationnelle pour concevoir des systèmes performants, économiques et adaptés aux contraintes réelles du déploiement.
L'intégration des NPU dans les appareils grand public (Apple Silicon, Qualcomm Snapdragon, Intel Core Ultra) permet aux entreprises et utilisateurs européens d'exécuter des modèles en local, réduisant la dépendance au cloud et les risques liés au RGPD.



