Aller au contenu principal
Construire une infrastructure de données solide pour le succès des agents IA
OutilsMIT Technology Review8sem

Construire une infrastructure de données solide pour le succès des agents IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Les entreprises déploient des agents IA à grande vitesse — 88% utilisent l'IA dans au moins une fonction métier selon McKinsey — mais seulement 1 sur 10 parvient à les déployer à grande échelle. Le principal obstacle n'est pas la qualité des modèles, mais l'absence d'une architecture de données solide capable de fournir le contexte métier nécessaire. Selon Irfan Khan, président de SAP Data & Analytics, la valeur d'une donnée pour les agents IA dépend moins de son format (structuré ou non) que de son contexte métier, et deux tiers des dirigeants ne font pas encore confiance à leurs données.

Impact France/UE

L'européen SAP, acteur central des systèmes d'information des grandes entreprises françaises et européennes, positionne son offre Data & Analytics comme solution clé pour combler le déficit de confiance dans les données qui freine le passage à l'échelle des agents IA dans les organisations.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Vanguard construit une infrastructure de données pour son analyste virtuel IA
1AWS ML Blog 

Vanguard construit une infrastructure de données pour son analyste virtuel IA

Vanguard, l'une des plus grandes sociétés de gestion d'actifs au monde avec plus de 8 000 milliards de dollars sous gestion, a développé un outil interne baptisé « Virtual Analyst » pour permettre à ses analystes financiers d'interroger des données complexes en langage naturel. Avant ce projet, obtenir une réponse à une question pourtant simple nécessitait de rédiger des requêtes SQL sophistiquées et de solliciter les équipes data, un processus qui pouvait s'étaler sur plusieurs jours. Désormais, les analystes et parties prenantes métier accèdent directement aux données en quelques secondes, sans expertise technique préalable. L'infrastructure repose sur plusieurs services AWS : Amazon Bedrock pour les modèles de langage assurant la compréhension du langage naturel, Amazon Redshift pour l'analytique avancée, et AWS Glue pour le catalogage automatisé des données. Vanguard a formulé huit principes directeurs pour construire ce qu'ils nomment une infrastructure de données « AI-ready ». La principale leçon du projet dépasse le simple cas d'usage : déployer de l'IA conversationnelle dans une entreprise n'est pas d'abord un défi de machine learning, mais un défi d'architecture de données. Les modèles de fondation les plus puissants ne peuvent pas compenser une infrastructure sémantique défaillante. Vanguard a donc restructuré la façon dont ses équipes définissent, possèdent et maintiennent les données, en établissant des standards de qualité, des définitions sémantiques claires pour chaque métrique financière, et des modèles de gouvernance partagés. Pour les utilisateurs finaux, le gain est immédiat : l'accès à l'information pour la prise de décision n'est plus conditionné par la disponibilité d'une équipe technique. Pour l'industrie financière, c'est une démonstration concrète qu'une infrastructure réglementée et sensible peut être rendue compatible avec l'IA générative, à condition d'y consacrer le travail fondamental en amont. Le projet a nécessité de briser des silos organisationnels profondément ancrés. Vanguard a réuni des ingénieurs data, des analystes métier, des équipes de conformité réglementaire, de sécurité et des utilisateurs finaux dans un modèle opérationnel transversal inédit pour la firme. La conformité et la sécurité, souvent perçues comme des freins à l'innovation dans les services financiers, ont été intégrées dès la conception plutôt qu'ajoutées après coup, ce qui a permis de respecter les exigences strictes du secteur. Ce projet s'inscrit dans une tendance plus large : les grandes institutions financières, Vanguard, JPMorgan, BlackRock, investissent massivement dans des couches de données sémantiques pour rendre leurs systèmes historiques compatibles avec l'IA. Le Virtual Analyst de Vanguard est présenté comme un modèle illustratif plutôt que prescriptif, mais il offre un cadre concret à toute organisation confrontée au même problème : comment transformer des décennies de données métier en une ressource exploitable par l'IA sans sacrifier la fiabilité ni la conformité.

UECe cas d'usage illustre une tendance applicable aux institutions financières européennes souhaitant rendre compatibles leurs systèmes legacy avec l'IA générative, sans impact direct sur la réglementation ou les acteurs français.

OutilsOpinion
1 source
Anthropic lance une infrastructure gérée pour agents IA autonomes
2The Decoder 

Anthropic lance une infrastructure gérée pour agents IA autonomes

Anthropic a lancé "Claude Managed Agents", une infrastructure hébergée permettant aux développeurs de construire et déployer des agents IA autonomes directement sur les serveurs de l'entreprise. Ce service géré prend en charge l'exécution des agents, la gestion des sessions, la mémoire persistante et l'orchestration des tâches longues, sans que les équipes techniques n'aient à gérer elles-mêmes l'infrastructure sous-jacente. Notion et Rakuten font partie des premiers partenaires à avoir adopté la plateforme, intégrant ces agents dans leurs produits pour automatiser des flux de travail complexes. L'enjeu est significatif : jusqu'ici, déployer des agents IA fiables en production exigeait une ingénierie considérable pour gérer les états, les interruptions, les erreurs et la durée de vie des sessions. En proposant cette couche d'infrastructure clé en main, Anthropic abaisse la barrière d'entrée pour les entreprises qui veulent aller au-delà des simples chatbots vers des systèmes capables d'agir de façon autonome sur des tâches multi-étapes, comme la recherche, la rédaction ou l'automatisation de processus métiers. Ce lancement s'inscrit dans une course accélérée entre les grands acteurs de l'IA pour capter le marché des agents. OpenAI a déployé ses propres capacités agentiques via l'API Assistants et les outils de l'opérateur, tandis que Google mise sur Vertex AI Agent Builder. Anthropic, fort d'un financement de plusieurs milliards de dollars notamment d'Amazon et Google, positionne cette offre managée comme un argument commercial direct face aux entreprises qui hésitent à construire leur propre stack agentique.

UELes entreprises européennes peuvent bénéficier de cette infrastructure gérée pour déployer des agents IA sans développer leur propre stack technique, mais aucun acteur ou régulateur européen n'est directement impliqué.

💬 Ce qui bloquait tout le monde jusqu'ici, c'était pas l'agent, c'était la plomberie derrière : états, sessions, interruptions, tâches qui durent des heures. Anthropic prend ça en charge, et j'y vois surtout une arme commerciale directe pour aller chercher les boîtes qui voulaient dépasser le chatbot sans construire leur propre stack. Ça va accélérer fort, et OpenAI va répondre vite.

OutilsOpinion
1 source
Les agents IA ont besoin d'une infrastructure d'interaction
3AI News 

Les agents IA ont besoin d'une infrastructure d'interaction

Band, une startup fondée à Tel Aviv et San Francisco, est sortie de sa phase stealth avec un tour de table de 17 millions de dollars pour résoudre un problème fondamental de l'IA en entreprise : l'absence d'infrastructure dédiée à la coordination entre agents autonomes. Dirigée par le CEO Arick Goomanovsky et le CTO Vlad Luzin, la société part du constat que les réseaux d'entreprise hébergent désormais des dizaines d'agents IA capables de raisonner et d'agir de manière indépendante, qu'il s'agisse de gérer des pipelines d'ingénierie, de traiter des tickets de support client ou de surveiller la sécurité informatique. Mais quand ces agents doivent collaborer, partager du contexte ou opérer ensemble dans des environnements cloud hétérogènes, les intégrations se fragilisent et les opérateurs humains se retrouvent à jouer les intermédiaires manuels entre des systèmes déconnectés. Le problème n'est pas anodin sur le plan financier. Sans couche de gouvernance centralisée, les workflows multi-agents génèrent des coûts incontrôlés : chaque échange entre agents déclenche des appels API vers des grands modèles de langage coûteux, et une simple erreur de routage ou une boucle entre deux agents peut engloutir des budgets cloud en quelques heures. Band entend imposer des disjoncteurs financiers stricts, capables d'interrompre automatiquement les interactions qui dépassent des seuils prédéfinis en tokens ou en calcul. L'enjeu dépasse le coût technique : une négociation non surveillée entre un agent d'achat interne et un modèle fournisseur externe pourrait déclencher des centaines de cycles d'inférence pour une transaction sans réelle valeur commerciale. Le timing de Band s'explique par trois évolutions simultanées du marché. Les agents IA ne sont plus des expérimentations : ils opèrent en production dans des grandes entreprises, souvent développés par des équipes différentes, sur des frameworks distincts, hébergés chez des cloud providers concurrents. Cette fragmentation est structurelle et durable. Par ailleurs, des standards émergent, comme le Model Context Protocol (MCP) pour l'accès aux outils externes, ou les initiatives A2A pour standardiser les communications inter-agents. Mais ces protocoles définissent le langage commun, pas l'environnement opérationnel : ils ne gèrent ni le routage, ni la reprise sur erreur, ni les frontières d'autorisation, ni la supervision humaine. Band compare sa position à celle des API gateways face aux microservices dans les années 2010 : quand les systèmes distribués prolifèrent, ajouter de la logique métier ne suffit plus, il faut une infrastructure d'interaction dédiée pour maintenir fiabilité et contrôle à l'échelle.

OutilsOutil
1 source
Les agents IA ratent toutes les discussions de votre équipe. SageOX propose une infrastructure de contexte pour agents autonomes
4VentureBeat AI 

Les agents IA ratent toutes les discussions de votre équipe. SageOX propose une infrastructure de contexte pour agents autonomes

SageOX, une startup de Seattle fondée par des vétérans ayant construit l'infrastructure originale d'AWS EC2 et EBS, est sortie du mode furtif en annonçant un tour de financement de 15 millions de dollars mené par Canaan, avec la participation d'A.Capital, Pioneer Square Labs et Founders' Co-op. L'entreprise, dirigée par Ajit Banerjee, ancien ingénieur chez Hugging Face, Meta, Amazon et Apple, commercialise ce qu'elle appelle une "infrastructure de contexte agentique" : un système conçu pour garder les agents IA aussi informés que les employés humains sur les décisions, discussions et objectifs d'une équipe. La suite produit repose sur deux composants principaux : l'Ox Dot, un petit appareil physique placé dans les espaces partagés qui enregistre réunions et séances de travail d'une simple pression, et l'Ox CLI, un outil en ligne de commande open source sous licence MIT qui permet aux assistants de codage comme Claude Code ou Codex d'interroger la mémoire collective de l'équipe avant d'écrire du code. Le problème que SageOX cherche à résoudre est celui du "drift" des agents, c'est-à-dire leur tendance à s'écarter des intentions réelles de l'équipe parce qu'ils démarrent chaque tâche sans historique ni contexte. Si une équipe décide en réunion d'utiliser un schéma d'authentification précis, l'agent de codage l'ignorera complètement, sauf si quelqu'un le lui précise explicitement dans chaque prompt. L'Ox Dot capture audio, transcrit et identifie les intervenants, puis distille ces échanges en une mémoire d'équipe accessible aux humains et aux agents. Sa fonctionnalité "Auto Rewind" permet même de capturer rétrospectivement une conversation informelle qui s'est tenue sans enregistrement, évitant la perte de décisions prises lors d'échanges spontanés. La commande ox agent prime intègre ensuite cet historique directement dans le contexte de travail des agents. Le problème de l'"ingénierie du contexte" est l'un des défis majeurs non résolus de l'ère agentique. À mesure que les grands fournisseurs de modèles comme OpenAI, Anthropic ou Google descendent dans la chaîne de valeur en proposant leurs propres agents métier, la question de comment équiper ces agents d'un contexte riche et fidèle à la réalité d'une organisation reste entière. SageOX parie que la réponse n'est pas dans le prompt engineering ou la documentation statique, mais dans une couche d'infrastructure dédiée qui capte le contexte là où il se forme naturellement : conversations, tableaux blancs, standups. Ryan Snodgrass, CTO et ancien d'Amazon, pousse même plus loin en remettant en question les principes classiques de gestion de code source, estimant que les historiques "propres" de commits sont souvent contre-productifs pour les agents. La startup s'attaque ainsi à un marché encore peu balisé, à l'intersection de la collaboration d'équipe et de l'orchestration agentique.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour