Aller au contenu principal
Mustafa Suleyman : le développement de l'IA ne va pas stagner de sitôt, voici pourquoi
InfrastructureMIT Technology Review6h

Mustafa Suleyman : le développement de l'IA ne va pas stagner de sitôt, voici pourquoi

1 source couvre ce sujet·Source originale ↗·

Mustafa Suleyman, PDG de Microsoft AI et cofondateur de DeepMind, affirme que le développement de l'intelligence artificielle n'est pas près de plafonner. Depuis ses débuts dans le domaine en 2010, la puissance de calcul consacrée à l'entraînement des grands modèles a été multipliée par mille milliards : on est passé d'environ 10¹⁴ opérations en virgule flottante pour les premiers systèmes à plus de 10²⁶ aujourd'hui. Les puces Nvidia ont vu leurs performances brutes multipliées par huit en six ans, passant de 312 téraflops en 2020 à 2 500 téraflops aujourd'hui. La mémoire à haute bande passante HBM3 triple le débit de données par rapport à sa génération précédente. Des interconnexions comme NVLink et InfiniBand permettent désormais de relier des centaines de milliers de GPU en supercalculateurs de la taille d'un entrepôt. Ce qui prenait 167 minutes sur huit GPU en 2020 prend aujourd'hui moins de quatre minutes sur du matériel moderne, soit une amélioration de 50x là où la loi de Moore n'en prédisait que 5x. Les dépenses des grands laboratoires en infrastructure de calcul croissent à un rythme d'environ 4x par an, et le parc mondial de calcul dédié à l'IA devrait atteindre l'équivalent de 100 millions de puces H100 d'ici 2027.

Ces chiffres ont des implications concrètes pour l'industrie : Suleyman estime qu'on pourrait voir encore 1 000x de puissance de calcul effective d'ici fin 2028. Parallèlement, les coûts d'inférence, c'est-à-dire d'utilisation des modèles, se sont effondrés d'un facteur allant jusqu'à 900 sur une base annualisée. L'IA devient donc radicalement moins chère à déployer, ce qui ouvre l'accès à des entreprises et des usages jusqu'ici inaccessibles économiquement. Selon les recherches d'Epoch AI, la quantité de calcul nécessaire pour atteindre un niveau de performance donné est divisée par deux environ tous les huit mois, un rythme bien supérieur aux 18 à 24 mois du cycle classique de Moore.

Les sceptiques prédisent régulièrement un essoufflement de la progression, invoquant le ralentissement de la loi de Moore, la raréfaction des données d'entraînement ou les contraintes énergétiques. Suleyman balaie ces arguments en montrant que la dynamique repose sur trois leviers simultanés et indépendants : des puces plus rapides, une mémoire plus efficace, et une mise en réseau massive des GPU. Son propre laboratoire chez Microsoft a lancé en janvier 2026 la puce Maia 200, qui offre selon lui 30 % de meilleures performances par dollar que tout autre matériel de leur flotte. Le tableau qu'il dresse est celui d'une révolution encore en pleine accélération, où les avancées matérielles et logicielles se renforcent mutuellement, une perspective qui tranche avec le pessimisme ambiant sur les limites supposées de l'IA générative.

À lire aussi

ZD Tech : brevets 2025, pourquoi l'Europe surprend avec une accélération historique dans l'IA et la 6G
1ZDNET FR 

ZD Tech : brevets 2025, pourquoi l'Europe surprend avec une accélération historique dans l'IA et la 6G

L'Office européen des brevets (OEB) a enregistré en 2025 un record historique avec plus de 200 000 demandes de brevets déposées sur le continent, une première dans son histoire. Cette hausse, portée notamment par les secteurs de l'intelligence artificielle et de l'informatique quantique, traduit une dynamique d'innovation sans précédent en Europe. Les dépôts liés à l'IA ont progressé à un rythme particulièrement soutenu, reflétant la course mondiale aux technologies d'apprentissage automatique et de traitement du langage naturel. Ce chiffre symbolique dépasse la simple statistique : il signale un repositionnement stratégique de l'Europe dans la compétition technologique mondiale, longtemps dominée par les États-Unis et la Chine. Sur le terrain de la 6G et des semi-conducteurs, les inventeurs européens affichent une progression inattendue, deux domaines considérés comme critiques pour la souveraineté numérique et industrielle des prochaines décennies. Ces brevets constituent un actif économique direct, ouvrant la voie à des licences, des partenariats et une capacité de négociation renforcée face aux géants américains et asiatiques. Cette accélération s'inscrit dans le sillage des politiques industrielles engagées par l'Union européenne, notamment le Chips Act européen et les investissements massifs dans la recherche fondamentale via Horizon Europe. La montée en puissance de la 6G survient alors que les standards de la prochaine génération de réseaux mobiles sont encore en cours de définition, offrant à l'Europe une fenêtre d'opportunité pour peser sur les normes internationales avant que le marché ne soit verrouillé par quelques acteurs dominants.

UEL'Europe améliore concrètement sa capacité de négociation sur les standards 6G et les licences de semi-conducteurs, réduisant sa dépendance technologique face aux États-Unis et à la Chine.

InfrastructureOpinion
1 source
Le maintien d'état pour les agents IA : pourquoi les couches de transport deviennent essentielles
2InfoQ AI 

Le maintien d'état pour les agents IA : pourquoi les couches de transport deviennent essentielles

Les agents IA reposent sur des boucles multi-tours et des appels d'outils répétés, ce qui transforme la couche de transport en enjeu critique de performance. Dans un article publié par Anirudh Mendiratta, la technique dite de "stateful continuation" est présentée comme une solution concrète : en maintenant l'état de la session côté serveur plutôt que de le retransmettre à chaque requête, il devient possible de réduire le volume de données envoyées par le client de plus de 80 % et d'améliorer les temps d'exécution de 15 à 29 %. Cet impact est loin d'être marginal. Dans les architectures agentiques, chaque tour de boucle implique de renvoyer l'historique complet de la conversation, les sorties d'outils et les instructions système, ce qui génère une surcharge croissante au fil de l'exécution. La continuation avec état élimine cette redondance en permettant au serveur de reprendre là où il s'est arrêté, sans que le client ait à tout recharger. Pour les systèmes à forte fréquence d'appels ou à contextes longs, le gain en latence et en coût de bande passante devient structurellement significatif. Cette problématique émerge directement de la montée en puissance des agents autonomes, qui diffèrent fondamentalement des usages classiques des LLM en accès direct. Là où une requête unique pouvait tolérer un protocole de transport léger, des workflows de plusieurs dizaines de tours exposent des inefficacités jusqu'ici invisibles. Les frameworks d'orchestration comme LangGraph, AutoGen ou les environnements MCP commencent à intégrer ces considérations, et la gestion du contexte côté serveur pourrait devenir un standard de facto pour les déploiements agentiques à grande échelle.

InfrastructureOpinion
1 source
USA : les chantiers de datacenters butent sur un double mur énergétique
3Next INpact 

USA : les chantiers de datacenters butent sur un double mur énergétique

Entre 30 et 50 % des projets de datacenters prévus pour 2026 aux États-Unis accuseront des retards significatifs, selon une enquête de Bloomberg publiée le 1er avril 2026. Le frein principal n'est pas, comme on pourrait le supposer, la pénurie de puces IA ou de mémoire vive, mais bien un goulot d'étranglement à l'étage inférieur : les équipements électriques indispensables à l'alimentation de ces infrastructures, transformateurs, turbines, systèmes de distribution haute tension. Ces composants représentent moins de 10 % du coût total d'un datacenter, mais leur absence suffit à bloquer l'ensemble d'un chantier. La demande est colossale : selon une analyse de Bridgewater Associates de fin février 2026, Google, Amazon, Meta et Microsoft ont planifié à eux seuls 650 milliards de dollars de dépenses d'investissement en infrastructures. À cela s'ajoutent des acteurs comme Oracle, Equinix ou CoreWeave, qui construisent leurs propres centres de données en parallèle. Ce double mur, énergétique d'un côté, industriel de l'autre, crée une situation paradoxale où des centaines de milliards de dollars sont engagés mais ne peuvent se concrétiser faute de câbles, de transformateurs et de turbines disponibles en quantité suffisante. Pour les entreprises clientes comme OpenAI ou Anthropic, dont les besoins de calcul explosent, ces retards de livraison se traduisent directement par des contraintes de capacité. Pour les régions concernées, le problème est aussi structurel : plusieurs zones du territoire américain disposent d'un réseau électrique insuffisamment dimensionné pour absorber de telles charges. Meta a d'ores et déjà réservé 6,6 gigawatts d'énergie nucléaire dont les réacteurs ne seront pas opérationnels avant 2035, signe que les géants tech anticipent une pénurie durable. Face à ces contraintes, les grandes entreprises technologiques cherchent à devenir leurs propres producteurs d'énergie, contournant ainsi les délais de raccordement au réseau public. L'exemple le plus radical est celui de xAI, la société d'Elon Musk, qui a levé 20 milliards de dollars en partie pour financer l'achat de cinq turbines à gaz représentant 2 gigawatts de puissance cumulée, en complément d'installations déjà existantes dont les niveaux d'émission dépassent la réglementation locale. Ce mouvement de verticalisation énergétique illustre une tendance de fond : la course à l'infrastructure IA est désormais autant une question d'approvisionnement électrique que de performance logicielle. Le cabinet Sightline Climate, dont Bloomberg s'appuie sur les données chiffrées, documente une accumulation de retards qui révèle les limites réelles de plans d'investissement présentés comme historiques mais dont l'exécution se heurte à la physique des réseaux et aux délais de l'industrie lourde.

UEL'Europe fait face aux mêmes contraintes de réseau électrique et de délais d'approvisionnement en équipements lourds, risquant de ralentir les projets de datacenters européens pourtant essentiels à la souveraineté numérique de l'UE.

InfrastructureOpinion
1 source
Amazon S3 Files offre aux agents IA un espace de travail fichier natif, mettant fin à la séparation objet/fichier
4VentureBeat AI 

Amazon S3 Files offre aux agents IA un espace de travail fichier natif, mettant fin à la séparation objet/fichier

Amazon Web Services a lancé S3 Files, une nouvelle fonctionnalité qui permet de monter directement un bucket S3 dans l'environnement local d'un agent IA ou d'un développeur, comme s'il s'agissait d'un répertoire ordinaire. Disponible dès maintenant dans la plupart des régions AWS, cette solution repose sur la technologie Elastic File System (EFS) d'Amazon, connectée directement à S3 pour offrir une sémantique de fichiers complète et native. Aucune migration de données n'est nécessaire : les fichiers restent dans S3, accessibles simultanément via l'API objet classique et via le système de fichiers monté. Andy Warfield, vice-président et ingénieur distingué chez AWS, a expliqué à VentureBeat que cette approche a produit "une accélération considérable" pour des outils comme Kiro et Claude Code lors de tests internes. Le problème que S3 Files résout est fondamental pour les pipelines d'IA agentique. Les agents IA fonctionnent naturellement avec des chemins de fichiers et des outils de navigation de répertoires, mais l'essentiel des données d'entreprise réside dans des systèmes de stockage objet comme S3, accessibles uniquement via des appels API. Jusqu'ici, les équipes devaient télécharger les données localement avant que l'agent puisse les traiter, ce qui créait un problème critique de persistance d'état : lorsque l'agent compressait sa fenêtre de contexte, il "oubliait" ce qu'il avait déjà téléchargé, forçant l'utilisateur à répéter les instructions. Dans des pipelines multi-agents, où plusieurs agents doivent accéder simultanément aux mêmes données, la situation devenait ingérable. Avec S3 Files, un développeur peut simplement indiquer le chemin d'un répertoire de logs, et l'agent y accède directement sans étape intermédiaire. AWS annonce que des milliers de ressources de calcul peuvent se connecter simultanément à un même système de fichiers S3. Les tentatives précédentes de combler le fossé entre stockage objet et système de fichiers reposaient sur des couches logicielles dites FUSE (Filesystems in USErspace), comme Mount Point d'AWS, gcsfuse de Google ou blobfuse2 de Microsoft. Ces outils simulaient un système de fichiers en surface, mais butaient sur des limitations profondes : S3 ne supporte pas le déplacement atomique d'objets et ne possède pas de répertoires au sens strict. Ces pilotes bricolaient des métadonnées supplémentaires dans les buckets, cassant la vue API objet, ou refusaient les opérations fichier que le stockage ne pouvait pas exécuter. S3 Files rompt avec cette approche en intégrant directement EFS à S3, sans compromis entre les deux interfaces. Cette évolution s'inscrit dans la course des grands fournisseurs cloud à rendre leurs infrastructures compatibles avec les nouveaux usages de l'IA agentique, où la fluidité d'accès aux données devient un avantage concurrentiel direct.

UEDisponible dès maintenant dans la plupart des régions AWS, cette fonctionnalité est accessible aux développeurs et entreprises européens utilisant S3 pour leurs pipelines d'IA agentique.

InfrastructureActu
1 source