Aller au contenu principal
Reconstruire la pile de données pour l'IA
InfrastructureMIT Technology Review1h

Reconstruire la pile de données pour l'IA

1 source couvre ce sujet·Source originale ↗·

L'intelligence artificielle occupe désormais le sommet des priorités des directions d'entreprise, mais une réalité s'impose de plus en plus clairement : le principal frein à une adoption concrète n'est pas la technologie elle-même, mais l'état des données. Bavesh Patel, vice-président senior chez Databricks, résume le problème sans détour : "La qualité de l'IA, son efficacité réelle, dépend directement de l'information disponible dans votre organisation." Or dans la grande majorité des entreprises, cette information reste dispersée entre des systèmes hérités, des applications cloisonnées et des formats incompatibles. Sans infrastructure unifiée, les modèles d'IA produisent des résultats peu fiables, dépourvus de contexte, ce que Patel qualifie simplement de "terrible AI". La solution passe par une consolidation des données dans des formats ouverts, une gouvernance rigoureuse des accès, et une architecture capable de combiner données structurées et non structurées en temps réel.

L'enjeu est directement compétitif. Pour Patel, "le vrai différenciateur concurrentiel de la plupart des organisations, c'est leur propre data, combinée aux données tierces qu'elles peuvent y ajouter". Les entreprises qui parviennent à poser ces fondations correctement débloquent des gains mesurables : automatisation de workflows complexes, efficacité opérationnelle accrue, voire création de nouvelles lignes de revenus. Rajan Padmanabhan, responsable technologique chez Infosys, insiste sur la nécessité de relier chaque initiative IA à des indicateurs business précis, plutôt que de traiter ces projets comme des expérimentations isolées. Les entreprises les plus avancées utilisent des cadres de gouvernance pour identifier rapidement ce qui produit des résultats concrets et abandonner ce qui n'en produit pas, une discipline que peu d'organisations ont encore intégrée dans leur fonctionnement quotidien.

Cette transformation s'inscrit dans un changement de paradigme plus profond. Pendant des décennies, les systèmes d'information ont été conçus comme des outils d'exécution ou d'engagement. Padmanabhan décrit une nouvelle logique en train d'émerger : "des systèmes d'action", capables de décider et d'agir de manière autonome. C'est précisément la promesse des agents IA, qui évoluent de simples assistants vers des opérateurs autonomes gérant des flux de travail et des transactions entières. Mais cette évolution suppose que les données sous-jacentes soient fiables, accessibles et gouvernées, une condition que la plupart des grandes entreprises ne remplissent pas encore. La question n'est donc plus de savoir si l'IA va transformer l'entreprise, mais si les organisations sauront construire l'infrastructure de données nécessaire avant que la fenêtre d'opportunité ne se referme sur celles qui auront avancé plus vite.

Dans nos dossiers

À lire aussi

L'IA a besoin d'une infrastructure de données solide pour créer de la valeur
1MIT Technology Review 

L'IA a besoin d'une infrastructure de données solide pour créer de la valeur

L'intelligence artificielle s'installe durablement dans les entreprises : selon une enquête récente, la moitié des organisations utilisaient déjà l'IA dans au moins trois fonctions métier d'ici fin 2025, que ce soit en finance, dans les chaînes d'approvisionnement, les ressources humaines ou le service client. Mais à mesure que ces systèmes deviennent centraux dans les opérations quotidiennes, un obstacle inattendu émerge. Ce n'est ni la puissance de calcul ni les performances des modèles qui freinent le déploiement, mais la qualité et surtout le contexte des données sur lesquelles reposent ces systèmes. Irfan Khan, président et directeur produit de SAP Data & Analytics, résume le problème : "L'IA produit des résultats très rapidement, mais sans contexte elle ne peut pas exercer un bon jugement -- et c'est le jugement qui crée de la valeur pour l'entreprise. La vitesse sans jugement ne sert à rien, elle peut même nuire." L'enjeu est concret et mesurable. Deux entreprises qui utilisent l'IA pour gérer des ruptures dans leur chaîne d'approvisionnement peuvent traiter les mêmes données -- niveaux de stock, délais, scores fournisseurs -- mais arriver à des décisions radicalement différentes. Celle qui enrichit ses données avec du contexte métier (quels clients sont stratégiques, quels compromis sont acceptables en cas de pénurie, quelles obligations contractuelles s'appliquent) prendra des décisions alignées sur ses priorités réelles. L'autre produira des réponses techniquement correctes mais opérationnellement défaillantes. Les systèmes d'IA n'affichent pas seulement de l'information, ils agissent dessus -- ce qui rend toute erreur de contexte potentiellement coûteuse. Historiquement, des experts humains compensaient ce manque de contexte en interprétant les données brutes. Avec l'automatisation croissante, ce filet de sécurité disparaît. La réponse architecturale qui s'impose est celle du "data fabric", une couche d'infrastructure qui ne se contente pas d'intégrer les données mais préserve leur signification à travers les systèmes, les applications et les environnements cloud. Pendant deux décennies, les entreprises ont massivement investi dans des entrepôts de données centralisés -- utiles pour les rapports et les tableaux de bord, mais appauvrissants pour le sens métier des données. Le mouvement actuel est inverse : il s'agit de connecter les informations là où elles se trouvent tout en conservant les métadonnées, les politiques et les relations qui décrivent comment l'entreprise fonctionne réellement. SAP, qui positionne ses solutions d'analytique autour de cette vision, n'est pas seul sur ce terrain : toute l'industrie des données se repositionne pour répondre à une exigence nouvelle -- celle d'une IA qui ne se contente pas d'aller vite, mais qui va dans la bonne direction.

UESAP étant une entreprise allemande leader du logiciel d'entreprise, son positionnement sur le 'data fabric' influence directement les choix d'infrastructure des grandes organisations européennes qui déploient l'IA.

InfrastructureActu
1 source
Trump ignore les principales raisons de l'échec de son plan de construction de centres de données pour l'IA
2Ars Technica AI 

Trump ignore les principales raisons de l'échec de son plan de construction de centres de données pour l'IA

Donald Trump se heurte à de sérieux obstacles dans son ambition de transformer les États-Unis en puissance dominante de l'intelligence artificielle. Après avoir signé plusieurs décrets exécutifs l'année dernière faisant de la construction rapide de centres de données IA une priorité nationale dans la course technologique face à la Chine, le président américain voit ses plans compromis par ses propres politiques commerciales. Selon Bloomberg, près de la moitié des centres de données américains prévus pour 2026 devraient être retardés ou annulés. Le paradoxe est frappant : les tarifs douaniers agressifs imposés par Trump sur les importations chinoises bloquent précisément les équipements indispensables à la construction de ces infrastructures. Les développeurs ne parviennent pas à s'approvisionner en transformateurs électriques, en appareillages de commutation et en batteries, des composants essentiels pour alimenter les centres de données. Sans cette infrastructure électrique, impossible de faire tourner les milliers de puces GPU que nécessitent les grands modèles d'IA. Cette situation illustre la tension fondamentale entre le protectionnisme commercial de l'administration Trump et ses ambitions technologiques. La chaîne d'approvisionnement mondiale en équipements électriques industriels reste largement dépendante de fabricants asiatiques, notamment chinois. Alors que Washington cherche à accélérer le déploiement de capacités de calcul pour rester compétitif face à Pékin dans la course à l'IA, ses propres barrières douanières fragilisent la réalisation de cet objectif. Les entreprises tech et les opérateurs de data centers se retrouvent pris en étau entre injonctions politiques contradictoires.

UELes retards dans le déploiement des capacités de calcul américaines pourraient indirectement ralentir l'accès mondial aux grands modèles IA et renforcer l'argument en faveur d'une souveraineté numérique européenne dans l'infrastructure IA.

InfrastructureOpinion
1 source
Quatre conditions pour installer des centres de données dans l'espace
3MIT Technology Review 

Quatre conditions pour installer des centres de données dans l'espace

En janvier 2026, SpaceX a déposé une demande auprès de la Federal Communications Commission américaine pour lancer jusqu'à un million de centres de données en orbite terrestre. L'objectif affiché est de libérer le plein potentiel de l'intelligence artificielle sans aggraver la crise énergétique et hydrique sur Terre. SpaceX n'est pas seul sur ce créneau : Jeff Bezos a déclaré l'an dernier que l'industrie tech se dirigeait vers une informatique à grande échelle dans l'espace, Google prévoit de lancer une constellation test de 80 satellites de calcul dès l'année prochaine, et la startup Starcloud, basée dans l'État de Washington, a déjà mis en orbite en novembre 2024 un satellite équipé d'un GPU Nvidia H100, marquant le premier test orbital d'une puce IA avancée. Starcloud vise des centres de données orbitaux aussi grands que ceux au sol d'ici 2030. L'attrait de l'espace repose sur deux promesses concrètes : une énergie solaire continue en orbite héliosynchrone, sans jamais passer dans l'ombre de la Terre, et une dissipation thermique naturelle dans le vide, sans recourir aux millions de litres d'eau que consomment les data centers terrestres. Ces derniers pèsent déjà lourd sur les réseaux électriques locaux et génèrent des tensions dans les communautés voisines autour du prix des ressources. Avec la baisse continue des coûts de lancement et les méga-fusées comme Starship promises à réduire encore les tarifs, un point de basculement économique devient envisageable. Mais les obstacles techniques restent formidables : quatre défis majeurs se dressent avant toute mise en oeuvre réelle. Le premier est thermique. Contrairement à l'intuition, l'espace n'est pas froid pour un satellite en orbite constamment éclairée : sans convection possible dans le vide, la température des équipements ne descendrait jamais sous 80 °C, largement au-dessus des seuils acceptables pour l'électronique. Évacuer la chaleur par rayonnement seul exige de grandes surfaces radiatives, ce qui alourdit les satellites et complique leur mise en orbite. Yves Durand, ancien directeur technologique de Thales Alenia Space, juge néanmoins le problème surmontable : son étude de faisabilité de 2024 conclut qu'il est possible de construire des data centers de l'ordre du gigawatt en orbite, en s'appuyant sur des systèmes de fluide réfrigérant déjà développés pour les grands satellites de télécommunication. Les trois autres défis, tout aussi cruciaux, concernent la fiabilité des composants face aux radiations cosmiques, la latence des liaisons avec le sol, et le coût de maintenance d'infrastructures inaccessibles physiquement.

UEThales Alenia Space, entreprise franco-italienne, est citée comme acteur clé de la faisabilité technique des data centers orbitaux, positionnant l'Europe comme contributeur potentiel dans ce marché émergent.

InfrastructureOpinion
1 source
Mistral AI lève 830 millions de dollars pour un centre de données IA
4AI Business 

Mistral AI lève 830 millions de dollars pour un centre de données IA

Mistral AI a annoncé avoir levé 830 millions de dollars pour financer la construction d'un centre de données dédié à l'intelligence artificielle, qui sera implanté en région parisienne. Cette infrastructure, alimentée par des milliers de puces Nvidia, représente l'un des investissements les plus importants jamais réalisés dans l'IA en Europe. La startup française, fondée en 2023, consolide ainsi sa position parmi les acteurs majeurs du secteur à l'échelle mondiale. Ce centre de calcul donnera à Mistral une capacité d'entraînement et d'inférence souveraine, réduisant sa dépendance aux infrastructures cloud américaines comme AWS ou Azure. Pour les entreprises et institutions européennes soucieuses de la localisation de leurs données, cette infrastructure sur sol français représente une alternative crédible aux géants américains. C'est aussi un signal fort sur la capacité de l'Europe à construire une filière IA complète, du modèle jusqu'au silicium. Mistral s'inscrit dans une course mondiale à la puissance de calcul où les États-Unis et la Chine investissent des dizaines de milliards. La France, qui a fait de l'IA souveraine une priorité industrielle, bénéficie ici d'un effet d'entraînement : après les annonces gouvernementales du plan France 2030, un acteur privé passe à l'acte à grande échelle. Les prochains mois diront si d'autres startups européennes suivront cette voie ou si Mistral restera une exception dans un paysage dominé par les hyperscalers américains.

UEMistral AI construit un centre de calcul souverain en région parisienne, offrant aux entreprises et institutions françaises et européennes une alternative locale aux hyperscalers américains pour l'hébergement et l'inférence IA sensibles.

💬 830 millions pour un datacenter, c'est le moment où Mistral arrête de jouer dans la cour des grands et devient un grand. Ce qui m'intéresse vraiment là-dedans, c'est la souveraineté d'inférence : des boîtes françaises qui pourront faire tourner des modèles sans que leurs données passent par Virginia ou Oregon. Reste à voir combien ça coûtera à l'usage.

InfrastructureOpinion
1 source