Aller au contenu principal
L’impressionnante reconversion de Dell : du secteur des PC à celui des serveurs IA
InfrastructurePresse-citron6sem

L’impressionnante reconversion de Dell : du secteur des PC à celui des serveurs IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Dell Technologies a enregistré une croissance de 103 % de son activité liée à l'intelligence artificielle au cours de son exercice fiscal en cours, une progression qui illustre la transformation profonde d'un groupe longtemps associé aux ordinateurs personnels grand public. L'entreprise s'est repositionnée sur la fourniture de solutions complètes pour l'IA : serveurs haute densité compatibles GPU, infrastructures de stockage et services d'intégration destinés aux entreprises qui déploient des modèles d'IA à grande échelle.

Ce virage stratégique place Dell en compétition directe avec HPE, Supermicro et les hyperscalers sur le marché de l'infrastructure IA, qui représente l'un des segments les plus dynamiques de l'industrie technologique mondiale. La demande explose côté entreprises — banques, assureurs, industriels — qui cherchent à internaliser leurs capacités IA plutôt que de dépendre exclusivement du cloud public, créant ainsi un débouché massif pour les intégrateurs capables de livrer des stacks clés en main.

Dell bénéficie ici d'un avantage structurel : ses relations commerciales historiques avec des centaines de milliers d'entreprises lui permettent de vendre de l'infrastructure IA à des clients qu'il fournit déjà en matériel depuis des décennies. Cette reconversion rappelle celle d'IBM vers les services ou de Microsoft vers le cloud — une entreprise dite « mature » qui trouve un second souffle en surfant sur un cycle technologique majeur. La trajectoire de croissance à trois chiffres suggère que ce repositionnement n'en est qu'à ses débuts.

Impact France/UE

Les entreprises françaises et européennes (banques, assureurs, industriels) qui cherchent à internaliser leur infrastructure IA disposent d'un fournisseur supplémentaire capable de livrer des stacks clés en main, réduisant leur dépendance au cloud public.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les sessions persistantes et l'exécution de commandes shell grâce à la configuration du système de fichiers
1AWS ML Blog 

Les sessions persistantes et l'exécution de commandes shell grâce à la configuration du système de fichiers

Amazon a annoncé deux nouvelles fonctionnalités pour son service Bedrock AgentCore Runtime : le stockage de session persistant (en préversion publique) et l'exécution directe de commandes shell via InvokeAgentRuntimeCommand. Ces capacités répondent à deux problèmes concrets que rencontrent les équipes qui déploient des agents IA en production. Chaque session AgentCore Runtime tourne dans une microVM isolée avec son propre noyau, sa mémoire et son système de fichiers. Jusqu'ici, à l'arrêt de la session, tout ce que l'agent avait créé — dépendances installées, code généré, historique git local — disparaissait. Le stockage managé de session règle ce problème en offrant un répertoire persistant, configurable au moment de la création de l'agent via le paramètre filesystemConfiguration, qui survit aux cycles arrêt/reprise même lorsque l'environnement de calcul est remplacé. La seconde fonctionnalité, InvokeAgentRuntimeCommand, permet d'exécuter des commandes shell déterministes comme npm test ou git push directement dans la microVM associée à la session active, sans passer par le modèle de langage. L'impact est immédiat pour les équipes qui construisent des agents de développement. Avant ces ajouts, un agent de coding pouvait passer vingt minutes à scaffolder un projet — créer l'arborescence, installer les dépendances, configurer les outils de build — pour que tout disparaisse à la première pause. Au redémarrage, tout était à recommencer : vingt minutes de calcul brûlées avant de pouvoir reprendre un travail utile. De même, faire transiter une commande déterministe comme l'exécution de tests via le LLM ajoutait du coût en tokens, de la latence et une non-déterminisme inutile à une opération parfaitement prévisible. Les contournements existants, comme écrire une logique de checkpoint vers Amazon S3 avant chaque arrêt de session ou maintenir les sessions actives en permanence, fonctionnaient mais reportaient la complexité dans le code de l'agent plutôt que de résoudre le problème à la racine. Ces annonces s'inscrivent dans une évolution plus large du rôle des agents IA dans les workflows de développement. Le système de fichiers est devenu la mémoire de travail principale des agents, leur permettant de dépasser les limites du contexte des LLM. Amazon Bedrock AgentCore Runtime, en intégrant nativement la persistance et l'exécution de commandes shell au niveau de l'infrastructure, cherche à s'imposer comme runtime de référence pour les agents de production. Cette approche concurrence directement des solutions comme les environnements de sandbox de Modal, les DevContainers GitHub Codespaces, ou les outils d'orchestration d'agents open source comme LangGraph et AutoGen, qui proposent leurs propres mécanismes de gestion d'état. La disponibilité en préversion publique du stockage de session laisse anticiper une disponibilité générale dans les prochains mois, vraisemblablement accompagnée d'une tarification spécifique liée au volume de stockage persistant utilisé.

UELes équipes françaises et européennes développant des agents IA sur AWS Bedrock peuvent directement adopter ces nouvelles capacités de persistance et d'exécution shell, sans impact réglementaire spécifique à l'Europe.

💬 C'est exactement le problème que personne ne veut admettre publiquement : un agent qui perd son contexte à chaque pause, c'est du calcul jeté à la poubelle. Amazon règle ça au niveau infrastructure plutôt qu'en laissant chaque équipe bricoler ses checkpoints S3, et c'est le bon endroit pour le faire. Reste la question du prix, parce que du stockage persistant managé sur AWS, ça ne va pas rester gratuit longtemps.

InfrastructureOpinion
1 source
Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières
2Ars Technica AI 

Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières

Onze campus de centres de données en cours de construction aux États-Unis sont associés à des projets de centrales au gaz naturel dont les émissions combinées pourraient dépasser 129 millions de tonnes de gaz à effet de serre par an, soit plus que l'ensemble des émissions du Maroc en 2024. Ces chiffres proviennent de documents de demandes de permis atmosphériques examinés par WIRED, soumis auprès d'agences étatiques américaines. Les infrastructures concernées alimenteront des centres de données au service de quelques-unes des entreprises d'IA les plus puissantes du pays : OpenAI, Meta, Microsoft et xAI figurent parmi les bénéficiaires identifiés. Ces projets sont soit déjà annoncés, soit en cours de construction. Ce que révèlent ces chiffres dépasse largement un problème local : ils illustrent le coût climatique concret de la course mondiale à l'IA. La particularité de ces installations est qu'elles contournent le réseau électrique public pour alimenter directement et exclusivement les centres de données, un modèle dit "behind-the-meter". Résultat : leurs émissions échappent aux mécanismes habituels de régulation et de comptabilisation carbone. Pour les consommateurs, la dynamique est aussi préoccupante : cette stratégie est partiellement motivée par la volonté des géants technologiques d'éviter d'alourdir les factures d'électricité des ménages, qui subissent déjà une résistance publique croissante face à la hausse des tarifs. Cette tendance s'inscrit dans un contexte de saturation du réseau électrique américain : les délais de raccordement aux opérateurs traditionnels s'allongent considérablement, poussant les développeurs de centres de données à produire leur propre énergie. Les projets listés ne représentent selon WIRED que la partie émergée de l'iceberg, alors que les grandes entreprises technologiques s'engagent dans des centaines de nouveaux centres à travers le pays. La question de la compatibilité entre les objectifs climatiques des États-Unis et l'expansion effrénée de l'infrastructure IA se pose désormais avec une acuité nouvelle, au moment où plusieurs États commencent à examiner plus attentivement les permis accordés à ces projets énergétiques hors réseau.

UEL'UE, engagée dans des objectifs climatiques contraignants et le reporting carbone obligatoire, pourrait faire face à des pressions similaires si le modèle d'alimentation directe hors réseau se généralise dans ses propres projets d'infrastructure IA.

InfrastructureActu
1 source
3MIT Technology Review 

Déployer l'IA dans les environnements contraints du secteur public

Les institutions publiques du monde entier subissent une pression croissante pour adopter l'intelligence artificielle, mais leur contexte opérationnel diffère radicalement de celui du secteur privé. Une étude de Capgemini révèle que 79 % des dirigeants du secteur public s'inquiètent de la sécurité des données liées à l'IA, une préoccupation justifiée au regard de la sensibilité des informations gouvernementales et des obligations légales qui les entourent. Han Xiao, vice-président de l'IA chez Elastic, résume la situation : les agences gouvernementales doivent strictement contrôler les données qu'elles envoient sur le réseau, ce qui impose de nombreuses contraintes sur leur approche de l'IA. Une enquête d'Elastic auprès de décideurs publics révèle par ailleurs que 65 % d'entre eux peinent à exploiter leurs données en continu, en temps réel et à grande échelle. Là où le secteur privé présuppose une connectivité permanente au cloud, une infrastructure centralisée et une liberté de mouvement des données, les administrations publiques ne peuvent accepter ces conditions. Elles doivent garantir que leurs données restent sous leur contrôle, que les informations peuvent être vérifiées, et que la continuité des opérations est assurée, y compris dans des environnements où la connexion internet est limitée ou inexistante. S'ajoute à cela un autre obstacle matériel : les administrations achètent rarement des GPU, ces processeurs graphiques indispensables pour faire tourner les grands modèles d'IA, faute d'habitude de gérer ce type d'infrastructure. Ces contraintes cumulées expliquent pourquoi de nombreux projets pilotes d'IA dans le secteur public ne franchissent jamais le stade de l'expérimentation. Face à ces limites, les petits modèles de langage, ou SLM (Small Language Models), apparaissent comme une solution adaptée. Contrairement aux grands modèles comme GPT-4 qui mobilisent des centaines de milliards de paramètres, les SLM n'en utilisent que quelques milliards, ce qui les rend bien moins gourmands en ressources de calcul et permet de les héberger localement, sans dépendance au cloud. Des études empiriques montrent que leurs performances sont comparables, voire supérieures à celles des LLM sur des tâches spécialisées. Les données restent stockées en dehors du modèle et ne sont consultées qu'au moment des requêtes, grâce à des techniques comme la recherche vectorielle et l'ancrage sur des sources vérifiables. Des entreprises comme Elastic positionnent ces approches comme la voie réaliste vers une IA véritablement opérationnelle dans les administrations, à l'heure où la pression politique en faveur de la modernisation numérique ne cesse de s'intensifier.

UELes administrations françaises et européennes, contraintes par le RGPD et les exigences de souveraineté des données, trouvent dans les SLM déployables en local une voie concrète pour dépasser le stade pilote et accélérer leur modernisation numérique sans dépendance au cloud.

InfrastructureOpinion
1 source
Reconstruire la pile de données pour l'IA
4MIT Technology Review 

Reconstruire la pile de données pour l'IA

L'intelligence artificielle occupe désormais le sommet des priorités des directions d'entreprise, mais une réalité s'impose de plus en plus clairement : le principal frein à une adoption concrète n'est pas la technologie elle-même, mais l'état des données. Bavesh Patel, vice-président senior chez Databricks, résume le problème sans détour : "La qualité de l'IA, son efficacité réelle, dépend directement de l'information disponible dans votre organisation." Or dans la grande majorité des entreprises, cette information reste dispersée entre des systèmes hérités, des applications cloisonnées et des formats incompatibles. Sans infrastructure unifiée, les modèles d'IA produisent des résultats peu fiables, dépourvus de contexte, ce que Patel qualifie simplement de "terrible AI". La solution passe par une consolidation des données dans des formats ouverts, une gouvernance rigoureuse des accès, et une architecture capable de combiner données structurées et non structurées en temps réel. L'enjeu est directement compétitif. Pour Patel, "le vrai différenciateur concurrentiel de la plupart des organisations, c'est leur propre data, combinée aux données tierces qu'elles peuvent y ajouter". Les entreprises qui parviennent à poser ces fondations correctement débloquent des gains mesurables : automatisation de workflows complexes, efficacité opérationnelle accrue, voire création de nouvelles lignes de revenus. Rajan Padmanabhan, responsable technologique chez Infosys, insiste sur la nécessité de relier chaque initiative IA à des indicateurs business précis, plutôt que de traiter ces projets comme des expérimentations isolées. Les entreprises les plus avancées utilisent des cadres de gouvernance pour identifier rapidement ce qui produit des résultats concrets et abandonner ce qui n'en produit pas, une discipline que peu d'organisations ont encore intégrée dans leur fonctionnement quotidien. Cette transformation s'inscrit dans un changement de paradigme plus profond. Pendant des décennies, les systèmes d'information ont été conçus comme des outils d'exécution ou d'engagement. Padmanabhan décrit une nouvelle logique en train d'émerger : "des systèmes d'action", capables de décider et d'agir de manière autonome. C'est précisément la promesse des agents IA, qui évoluent de simples assistants vers des opérateurs autonomes gérant des flux de travail et des transactions entières. Mais cette évolution suppose que les données sous-jacentes soient fiables, accessibles et gouvernées, une condition que la plupart des grandes entreprises ne remplissent pas encore. La question n'est donc plus de savoir si l'IA va transformer l'entreprise, mais si les organisations sauront construire l'infrastructure de données nécessaire avant que la fenêtre d'opportunité ne se referme sur celles qui auront avancé plus vite.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour