Aller au contenu principal
Amazon S3 Files offre aux agents IA un espace de travail fichier natif, mettant fin à la séparation objet/fichier
InfrastructureVentureBeat AI4j

Amazon S3 Files offre aux agents IA un espace de travail fichier natif, mettant fin à la séparation objet/fichier

1 source couvre ce sujet·Source originale ↗·

Amazon Web Services a lancé S3 Files, une nouvelle fonctionnalité qui permet de monter directement un bucket S3 dans l'environnement local d'un agent IA ou d'un développeur, comme s'il s'agissait d'un répertoire ordinaire. Disponible dès maintenant dans la plupart des régions AWS, cette solution repose sur la technologie Elastic File System (EFS) d'Amazon, connectée directement à S3 pour offrir une sémantique de fichiers complète et native. Aucune migration de données n'est nécessaire : les fichiers restent dans S3, accessibles simultanément via l'API objet classique et via le système de fichiers monté. Andy Warfield, vice-président et ingénieur distingué chez AWS, a expliqué à VentureBeat que cette approche a produit "une accélération considérable" pour des outils comme Kiro et Claude Code lors de tests internes.

Le problème que S3 Files résout est fondamental pour les pipelines d'IA agentique. Les agents IA fonctionnent naturellement avec des chemins de fichiers et des outils de navigation de répertoires, mais l'essentiel des données d'entreprise réside dans des systèmes de stockage objet comme S3, accessibles uniquement via des appels API. Jusqu'ici, les équipes devaient télécharger les données localement avant que l'agent puisse les traiter, ce qui créait un problème critique de persistance d'état : lorsque l'agent compressait sa fenêtre de contexte, il "oubliait" ce qu'il avait déjà téléchargé, forçant l'utilisateur à répéter les instructions. Dans des pipelines multi-agents, où plusieurs agents doivent accéder simultanément aux mêmes données, la situation devenait ingérable. Avec S3 Files, un développeur peut simplement indiquer le chemin d'un répertoire de logs, et l'agent y accède directement sans étape intermédiaire. AWS annonce que des milliers de ressources de calcul peuvent se connecter simultanément à un même système de fichiers S3.

Les tentatives précédentes de combler le fossé entre stockage objet et système de fichiers reposaient sur des couches logicielles dites FUSE (Filesystems in USErspace), comme Mount Point d'AWS, gcsfuse de Google ou blobfuse2 de Microsoft. Ces outils simulaient un système de fichiers en surface, mais butaient sur des limitations profondes : S3 ne supporte pas le déplacement atomique d'objets et ne possède pas de répertoires au sens strict. Ces pilotes bricolaient des métadonnées supplémentaires dans les buckets, cassant la vue API objet, ou refusaient les opérations fichier que le stockage ne pouvait pas exécuter. S3 Files rompt avec cette approche en intégrant directement EFS à S3, sans compromis entre les deux interfaces. Cette évolution s'inscrit dans la course des grands fournisseurs cloud à rendre leurs infrastructures compatibles avec les nouveaux usages de l'IA agentique, où la fluidité d'accès aux données devient un avantage concurrentiel direct.

Impact France/UE

Disponible dès maintenant dans la plupart des régions AWS, cette fonctionnalité est accessible aux développeurs et entreprises européens utilisant S3 pour leurs pipelines d'IA agentique.

À lire aussi

IBM : une gouvernance rigoureuse de l'IA protège les marges des entreprises
1AI News 

IBM : une gouvernance rigoureuse de l'IA protège les marges des entreprises

Rob Thomas, vice-président senior et directeur commercial d'IBM, a récemment exposé une thèse structurante pour les décideurs technologiques : les logiciels suivent une trajectoire prévisible, passant du statut de produit à celui de plateforme, puis d'infrastructure fondamentale. Chaque transition modifie radicalement les règles du jeu. IBM estime que l'intelligence artificielle franchit actuellement ce dernier seuil dans l'architecture des grandes entreprises, passant d'un outil expérimental à une couche opérationnelle centrale, intégrée dans la sécurité réseau, la génération de code, les décisions automatisées et la création de valeur commerciale. Cette évolution a été mise en lumière par la préversion de Claude Mythos, le nouveau modèle d'Anthropic capable, selon l'entreprise, de détecter et exploiter des vulnérabilités logicielles à un niveau comparable aux meilleurs experts humains. Face à ce pouvoir, Anthropic a lancé le projet Glasswing, une initiative sélective visant à placer ces capacités en priorité entre les mains des équipes de défense réseau. Pour IBM, cette réalité crée une exposition opérationnelle majeure pour toute organisation dont la stratégie repose sur des modèles d'IA fermés et propriétaires. Lorsqu'un système autonome peut rédiger des exploits et influencer l'environnement de sécurité global, concentrer la compréhension de ces systèmes chez un petit nombre de fournisseurs devient un risque structurel grave. Les architectures opaques génèrent également des frictions concrètes : connecter un modèle propriétaire à des bases de données vectorielles d'entreprise ou à des lacs de données sensibles crée des goulots d'étranglement de débogage considérables. Quand un modèle produit des sorties anormales ou que le taux d'hallucination augmente, les équipes techniques n'ont pas la visibilité interne nécessaire pour déterminer si l'erreur provient du pipeline de génération augmentée par récupération ou des poids du modèle de base. S'y ajoutent des problèmes de latence liés à l'intégration d'architectures sur site avec des modèles cloud verrouillés, ainsi que des coûts de calcul liés aux appels API continus qui érodent précisément les marges que ces systèmes sont censés préserver. La thèse d'IBM s'inscrit dans un débat plus large sur l'avenir de l'IA en entreprise : à l'ère des modèles-produits, la fermeture était une stratégie défendable et lucrative. À l'ère de l'IA-infrastructure, elle devient un handicap compétitif et sécuritaire. Aucun fournisseur unique ne peut anticiper tous les vecteurs d'attaque, les défaillances système ou les besoins opérationnels d'un écosystème aussi hétérogène que celui des grandes entreprises. IBM plaide donc pour une gouvernance ouverte et inspectable de l'IA, où la priorité n'est plus seulement ce que les modèles peuvent faire, mais comment ils sont construits, audités et améliorés dans la durée. Dans ce contexte, des initiatives comme Glasswing d'Anthropic signalent une prise de conscience sectorielle, mais la question de qui contrôle et comprend réellement ces infrastructures critiques reste entière.

UELa thèse d'IBM sur la gouvernance ouverte de l'IA s'aligne avec les exigences de l'AI Act européen en matière de transparence et d'auditabilité des systèmes IA déployés dans des infrastructures critiques.

InfrastructureOpinion
1 source
Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?
2Le Big Data 

Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?

Meta a annoncé le 9 avril 2026 un nouvel accord de 21 milliards de dollars avec CoreWeave, portant l'engagement total du groupe envers ce fournisseur de cloud GPU à plus de 35 milliards de dollars. Cet accord court jusqu'en décembre 2032 et couvre principalement des capacités de calcul dédiées à l'inférence, c'est-à-dire le traitement en temps réel des requêtes IA dans les applications grand public. L'action CoreWeave ($CRWV) a bondi d'environ 8 % à l'annonce de la nouvelle. Le partenariat inclut également un accès anticipé à la plateforme NVIDIA Vera Rubin, la prochaine génération de puces IA qui succède à l'architecture Blackwell, déployée sur plusieurs sites avant sa disponibilité commerciale large. Cet accord illustre un changement de paradigme dans la compétition en intelligence artificielle : l'infrastructure compute est désormais aussi stratégique que les modèles eux-mêmes. Les modèles Llama de Meta sont intégrés dans Facebook, Instagram, WhatsApp et Messenger, soit plusieurs milliards d'utilisateurs actifs. À cette échelle, chaque requête mobilise de la puissance de calcul, et la latence comme les coûts deviennent des variables critiques. CoreWeave, spécialisé dans les clusters GPU haute densité, peut déployer des capacités beaucoup plus rapidement qu'un hyperscaler classique en phase de construction, ce qui en fait un relais opérationnel immédiatement exploitable. L'accès anticipé aux puces Vera Rubin donne par ailleurs à Meta un avantage compétitif concret : optimiser ses modèles sur une architecture plus performante avant que ses concurrents ne puissent faire de même. Meta n'abandonne pas pour autant ses investissements internes. Le groupe prévoit entre 115 et 135 milliards de dollars de dépenses d'investissement pour 2026, dont un centre de données estimé à 10 milliards de dollars au Texas. Mais ces infrastructures propres prennent des années à construire, et l'urgence concurrentielle ne permet pas d'attendre. La stratégie adoptée est donc hybride : construire en interne pour le long terme, louer chez CoreWeave pour répondre aux besoins immédiats. Mike Intrator, PDG de CoreWeave, a résumé cette logique en évoquant un risque opérationnel trop élevé pour dépendre d'une seule approche. Ce modèle de redondance computing, mi-propriétaire mi-externalisé, pourrait rapidement devenir la norme dans l'industrie, à mesure que Google, Microsoft et Amazon font face aux mêmes tensions sur les GPU et aux mêmes exigences de rapidité d'exécution.

UECet accord renforce la concentration des ressources GPU chez les acteurs américains, réduisant indirectement la capacité des entreprises européennes à accéder à des infrastructures IA compétitives à coût et délai raisonnables.

InfrastructureOpinion
1 source
OpenAI affirme à ses investisseurs que son infrastructure lui donne un avantage sur Anthropic
3The Decoder 

OpenAI affirme à ses investisseurs que son infrastructure lui donne un avantage sur Anthropic

OpenAI a présenté à ses investisseurs un argument central : l'avance prise dans la construction de ses infrastructures de calcul lui confère un avantage décisif sur Anthropic. Selon le discours tenu aux financeurs, les années d'investissement massif dans les datacenters et les systèmes d'entraînement auraient créé une position difficile à rattraper pour ses concurrents. Parallèlement, la société a annoncé la mise en pause de son projet de datacenter au Royaume-Uni, une décision qui contraste avec l'ambition d'expansion mondiale affichée par OpenAI ces derniers mois. Cet argumentaire intervient dans un contexte de compétition intense pour le financement et la crédibilité commerciale. Pour les investisseurs, l'infrastructure représente une barrière à l'entrée concrète : elle conditionne la capacité à entraîner des modèles plus puissants, à tenir les délais de mise sur le marché, et à absorber des volumes d'utilisation croissants. Qu'OpenAI choisisse d'en faire un argument de différenciation signale que la bataille ne se joue plus uniquement sur la qualité des modèles, mais sur la profondeur des capacités opérationnelles. De son côté, Anthropic ne reste pas sans réponse : la startup explore la conception de puces IA personnalisées, une stratégie adoptée également par Google et Amazon pour réduire leur dépendance aux fournisseurs de semi-conducteurs comme Nvidia. Cette course aux ressources matérielles reflète une tendance de fond dans l'industrie, où la maîtrise de la chaîne de calcul devient aussi stratégique que les algorithmes eux-mêmes. La pause britannique d'OpenAI, quant à elle, soulève des questions sur les arbitrages géopolitiques et réglementaires qui pèsent sur les décisions d'implantation des grands acteurs de l'IA.

UELa mise en pause du projet de datacenter d'OpenAI au Royaume-Uni pourrait ralentir l'expansion des capacités d'infrastructure IA en Europe.

InfrastructureOpinion
1 source
☕️ Amazon envisage de vendre ses puces Trainium à des tiers
4Next INpact 

☕️ Amazon envisage de vendre ses puces Trainium à des tiers

Dans sa lettre annuelle aux actionnaires publiée le 9 avril 2026, Andy Jassy, PDG d'Amazon, a ouvert la porte à une révolution discrète : vendre les puces Trainium d'Amazon à des entreprises tierces. Jusqu'ici exclusivement réservées aux infrastructures internes du groupe, notamment à AWS et à la plateforme d'IA Bedrock, ces semiconducteurs représentent selon Jassy une activité dépassant 20 milliards de dollars en 2025, avec une croissance annuelle à trois chiffres. Il va plus loin en estimant que si cette division vendait ses puces à l'extérieur comme le font d'autres acteurs du marché, son chiffre d'affaires annuel approcherait les 50 milliards de dollars. Les puces Trainium 3, annoncées fin 2025, sont déjà quasi intégralement allouées en interne, et une part significative du contingent Trainium 4 est déjà réservée, alors que la production de masse n'est attendue que dans 18 mois. L'enjeu est considérable pour l'ensemble de l'industrie des semi-conducteurs dédiés à l'intelligence artificielle. Si Amazon franchit le pas, le groupe deviendrait un concurrent direct de NVIDIA sur le segment des puces d'entraînement pour l'IA, un marché aujourd'hui dominé très largement par le fabricant de Santa Clara. Pour les entreprises clientes, cela signifierait l'apparition d'une alternative sérieuse, à la fois en termes de performance et de rapport prix/performance. Jassy cite l'exemple de ses processeurs Graviton, lancés en 2018, qui offrent jusqu'à 40 % de meilleur rapport prix/performance que les processeurs x86 et sont aujourd'hui utilisés par 98 % des 1 000 principaux clients EC2 d'Amazon. La trajectoire suggérée pour Trainium est explicitement similaire. Ce mouvement s'inscrit dans une tendance plus large où les grands acteurs du cloud développent leurs propres puces pour réduire leur dépendance à NVIDIA et améliorer leurs économies d'échelle. Google a déjà emprunté ce chemin en proposant ses TPU à des tiers du cloud comme Crusoe, CoreWeave ou Fluidstack, transformant la vente de composants en alternative au modèle classique de location de ressources. Amazon, fort de l'expérience acquise avec Graviton, dispose des capacités industrielles et de la base clients pour répliquer cette stratégie à grande échelle. Jassy prend soin de ménager NVIDIA, affirmant qu'AWS restera une plateforme de choix pour les solutions du fabricant, tout en signalant clairement que les clients cherchent mieux ailleurs et qu'Amazon est prêt à répondre à cette demande. La question n'est plus de savoir si Amazon entrera sur le marché des puces tierces, mais quand.

UEUne alternative sérieuse à NVIDIA pour les puces d'entraînement IA pourrait réduire les coûts d'infrastructure pour les entreprises et laboratoires européens, aujourd'hui dépendants d'un marché dominé par un seul fournisseur.

💬 20 milliards déjà en interne, et Jassy commence à regarder par-dessus la clôture, ça dit quelque chose. Graviton a mis 6 ans pour convaincre 98 % des gros clients EC2, donc Trainium en vente libre c'est pas pour demain matin, mais la direction est posée. Ce qui m'intéresse vraiment c'est si le rapport prix/perf tient hors de l'écosystème AWS, parce que sur du hardware vendu à nu, les comparatifs NVIDIA vont être brutaux.