Aller au contenu principal
OutilsInfoQ AI7sem

QCon London 2026 : Morgan Stanley repense son programme API à l'ère MCP

Résumé IASource uniqueImpact UE
Source originale ↗·

Morgan Stanley franchit un cap décisif dans l'intégration de l'intelligence artificielle à ses opérations bancaires. Lors de la conférence QCon London 2026, deux ingénieurs de la banque ont présenté comment l'institution repense en profondeur son programme API pour répondre aux exigences des agents IA, en s'appuyant sur le protocole MCP (Model Context Protocol) et le standard FINOS CALM.

L'enjeu est considérable pour le secteur financier : permettre aux agents IA d'interagir de manière fiable et sécurisée avec des systèmes bancaires critiques impose des garanties que les architectures API traditionnelles ne fournissent pas. En adoptant MCP comme couche d'interopérabilité et FINOS CALM comme cadre d'architecture, Morgan Stanley se positionne parmi les premières grandes banques à industrialiser ce type d'approche, ouvrant potentiellement la voie à d'autres institutions financières.

Les démonstrations en direct ont mis en avant trois axes concrets : des garde-fous de conformité automatisés, des portes de déploiement conditionnelles, et des mises en production sans interruption de service sur un portefeuille de plus de 100 APIs. Le résultat le plus frappant reste la compression spectaculaire du cycle de déploiement : le premier déploiement API est passé de deux ans à deux semaines. Les ingénieurs Jim Gough et Andreea Niculcea ont également démontré l'exécution du protocole A2A (Agent-to-Agent) de Google, fonctionnant en parallèle de MCP — signal que l'écosystème multi-protocoles commence à prendre forme dans des environnements de production réels.

Cette présentation illustre une tendance de fond : les grandes institutions financières ne se contentent plus d'expérimenter avec l'IA générative, elles refondent leurs infrastructures pour y intégrer nativement des agents autonomes. La coexistence de MCP et A2A dans un même environnement bancaire suggère que l'interopérabilité entre protocoles deviendra rapidement un critère de sélection architectural incontournable.

Impact France/UE

L'adoption de MCP et FINOS CALM par une grande banque d'investissement mondiale pourrait influencer les pratiques d'architecture API du secteur financier européen, notamment les banques soumises à DORA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1InfoQ AI 

QCon London 2026 : réécrire en permanence toute la base de code de Spotify

Spotify a présenté Honk, un agent de codage propulsé par l'IA, lors de QCon London 2026. Développé par Jo Kelly-Fenton et Aleksandar Mitic, cet outil automatise les migrations de code à grande échelle sur l'ensemble du codebase de Spotify, réduisant drastiquement les délais par rapport aux scripts traditionnels. Les principaux défis surmontés incluent la gestion des cas limites et la standardisation du code pour faciliter les processus de revue.

OutilsOutil
1 source
Nvidia prépare apparemment son propre concurrent open source à OpenClaw
2Ars Technica AI 

Nvidia prépare apparemment son propre concurrent open source à OpenClaw

Nvidia prépare le lancement de NemoClaw, une plateforme open source d'agents IA destinée à concurrencer OpenClaw, selon un rapport de Wired. La société aurait déjà approché plusieurs partenaires corporate — dont Salesforce, Cisco, Google, Adobe et CrowdStrike — avant sa conférence développeurs annuelle. NemoClaw s'attaque directement à OpenClaw, le système d'agents "toujours actifs" dont le créateur Peter Steinberger a été recruté par OpenAI le mois dernier.

OutilsActu
1 source
L'approche open-source d'OpenSeeker vise à briser le monopole des données pour les agents de recherche IA
3The Decoder 

L'approche open-source d'OpenSeeker vise à briser le monopole des données pour les agents de recherche IA

OpenSeeker est un agent de recherche IA open-source qui atteint des performances comparables aux solutions d'Alibaba et d'autres acteurs majeurs, en n'utilisant que 11 700 points d'entraînement et un seul cycle d'entraînement. Le projet rend publiquement accessibles ses données, son code et son modèle, avec l'ambition de briser le monopole des données dans le domaine des agents de recherche IA.

OutilsPaper
1 source
OpenAI étend son API Responses pour en faire une base pour les agents autonomes
4InfoQ AI 

OpenAI étend son API Responses pour en faire une base pour les agents autonomes

OpenAI a annoncé une extension majeure de son API Responses, transformant cette interface en fondation dédiée à la création d'agents autonomes. Parmi les nouvelles fonctionnalités dévoilées figurent un outil shell intégré, une boucle d'exécution agentique native, un espace de travail conteneurisé hébergé par OpenAI, un mécanisme de compaction du contexte pour gérer les longues sessions, et un système de compétences réutilisables permettant de composer des agents modulaires. Cette mise à jour positionne explicitement l'API Responses comme le socle recommandé pour les workflows multi-étapes et les agents capables d'agir de manière prolongée sans intervention humaine. Pour les développeurs, ces ajouts réduisent considérablement la complexité de construire des agents fiables. Auparavant, gérer une boucle d'exécution, maintenir un contexte cohérent sur de longues chaînes d'actions ou orchestrer des outils système nécessitait une infrastructure personnalisée lourde. En intégrant ces mécanismes directement dans l'API, OpenAI abaisse la barrière d'entrée et permet à des équipes réduites de déployer des agents capables d'accomplir des tâches complexes — automatisation de code, analyse de données, interactions avec des systèmes externes — sans réinventer l'infrastructure sous-jacente. Cette annonce s'inscrit dans une course intense entre les grands acteurs de l'IA pour capter l'écosystème développeur autour de l'agentique. Anthropic pousse son SDK Claude Agent, Google déploie ses propres outils d'orchestration, et des frameworks comme LangChain ou AutoGen tentent de rester pertinents face à ces offres natives. En intégrant l'outillage directement dans son API, OpenAI cherche à fidéliser les développeurs dans son écosystème et à standardiser sa vision de ce que doit être un agent — une pression supplémentaire sur les concurrents pour accélérer leurs propres offres.

UELes développeurs européens peuvent adopter directement ces nouvelles capacités agentiques natives via l'API Responses d'OpenAI, réduisant la dépendance aux frameworks tiers comme LangChain ou AutoGen.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour