Aller au contenu principal
OutilsAWS ML Blog2h

Amazon Bedrock AgentCore Payments : les agents IA peuvent désormais effectuer des transactions, avec Coinbase et Stripe

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Amazon a annoncé le 7 mai 2026 le lancement en préversion d'Amazon Bedrock AgentCore Payments, une nouvelle couche de fonctionnalités permettant aux agents d'intelligence artificielle d'accéder à des ressources payantes et de régler des transactions de manière autonome, en temps réel. Développée en partenariat avec Coinbase et Stripe, qui fournissent respectivement l'infrastructure de portefeuilles numériques et les rails de paiement, cette solution s'intègre nativement à la plateforme AgentCore d'AWS. Des entreprises comme Cox Automotive, Thomson Reuters et le PGA TOUR utilisent déjà AgentCore pour orchestrer des agents capables de raisonner et d'agir sur des flux de travail complexes. Avec cette annonce, ces mêmes agents peuvent désormais payer des flux de données en temps réel, des publications sous paywall, des serveurs MCP privés ou d'autres agents spécialisés, le tout au sein d'une seule boucle d'exécution. Les limites de dépenses sont configurées par session, et AgentCore gère l'authentification des identifiants, le cycle de vie des tokens et la négociation de protocoles de paiement comme x402, ACP ou MPP.

Ce lancement représente un tournant concret pour les développeurs d'agents autonomes. Jusqu'ici, brancher un agent à des services payants exigeait de négocier des relations de facturation distinctes avec chaque fournisseur, de sécuriser les identifiants, de gérer la conformité réglementaire et d'écrire une logique d'orchestration sur mesure, soit plusieurs mois d'ingénierie avec des enjeux financiers réels à la clé. AgentCore Payments supprime cette friction : un agent de recherche financière peut payer à la volée un article de presse spécialisé ou un flux de données boursières, un agent de développement peut appeler un registre de packages privé ou un environnement d'exécution isolé sans que le développeur ait à câbler chaque relation commerciale manuellement. La gouvernance des dépenses et l'observabilité restent centralisées dans la même infrastructure que les autres actions de l'agent, ce qui réduit la surface d'erreur sur des flux qui, contrairement à une mauvaise réponse, déplacent de l'argent réel.

Ce mouvement s'inscrit dans une tendance de fond : le déploiement à grande échelle d'agents capables non seulement de chercher et raisonner, mais aussi de consommer des services et d'effectuer des achats au nom des utilisateurs. Les premiers protocoles de paiement pour agents, notamment x402 d'Ethereum et d'autres standards émergents, restaient jusqu'ici expérimentaux et fragmentés. Amazon, en s'associant à Coinbase pour la couche crypto et à Stripe pour les paiements traditionnels, positionne AWS comme l'infrastructure centrale d'une économie agentique encore naissante. L'étape suivante annoncée est la capacité pour les agents de réserver des billets d'avion, des hôtels et d'effectuer des achats auprès de plateformes marchandes, ouvrant la voie à des agents commerciaux pleinement autonomes.

Impact France/UE

Les développeurs européens devront composer avec les contraintes réglementaires (PSD2, RGPD) pour déployer des agents à capacité de paiement autonome, ce qui pourrait ralentir significativement l'adoption en Europe par rapport aux États-Unis.

💬 Le point de vue du dev

Brancher un paiement dans une boucle d'agent, jusqu'ici c'était plusieurs mois d'ingénierie rien que pour les credentials et la conformité. AWS compresse tout ça en une ligne de config, avec Stripe pour le classique et Coinbase pour la couche crypto, et c'est là que ça devient vraiment pratique pour qui orchestre des flux complexes. Reste que quand un agent se plante sur une réponse ça coûte rien, sur une transaction c'est une autre histoire.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Amazon Bedrock AgentCore Evaluations : construire des agents IA fiables
1AWS ML Blog 

Amazon Bedrock AgentCore Evaluations : construire des agents IA fiables

Amazon a lancé AgentCore Evaluations, un service entièrement géré intégré à Amazon Bedrock, conçu pour mesurer la performance des agents d'IA tout au long de leur cycle de développement. Le problème que ce service cherche à résoudre est bien documenté dans l'industrie : un agent fonctionne parfaitement en démo, convainc les parties prenantes lors des tests, puis échoue en production face à de vrais utilisateurs. Les symptômes sont prévisibles — mauvais appels d'outils, réponses incohérentes, comportements imprévus — mais leur détection systématique exige une infrastructure que la plupart des équipes n'ont pas. AgentCore Evaluations propose un cycle continu : construction de cas de tests, exécution sur l'agent, notation automatisée, analyse des échecs et amélioration itérative. Chaque échec devient automatiquement un nouveau cas de test, ce qui permet de fermer progressivement l'écart entre le comportement attendu et le comportement réel. L'enjeu est structurel : les grands modèles de langage sont non-déterministes. Une même requête peut produire des sélections d'outils différentes, des raisonnements distincts et des réponses variées d'un run à l'autre. Un seul passage de test ne dit pas ce qui se passe habituellement — il dit seulement ce qui peut arriver. Pour obtenir une image fiable du comportement d'un agent, il faut répéter chaque scénario plusieurs fois et agréger les résultats. Sans cela, chaque modification de prompt devient un pari : les équipes ignorent si leurs changements améliorent ou dégradent les performances, et brûlent des crédits API sans visibilité réelle. AgentCore Evaluations adresse précisément cette incertitude en fournissant des métriques de qualité sur plusieurs dimensions — exactitude des sélections d'outils, validité des paramètres, précision des réponses finales — pour le développement comme pour la production. Ce lancement s'inscrit dans une tendance plus large : la maturité des agents d'IA dépasse désormais la phase d'expérimentation et entre dans celle de l'ingénierie de fiabilité. Construire l'infrastructure d'évaluation en interne — curation de datasets, hébergement de modèles de scoring, gestion des limites de débit, pipelines de transformation des traces, tableaux de bord — représente un coût fixe considérable que les équipes multiplient pour chaque agent déployé. Amazon positionne AgentCore Evaluations comme la réponse cloud à ce problème, en absorbant cette complexité dans un service managé. La concurrence est vive : des outils comme LangSmith, Braintrust ou PromptFoo couvrent des besoins similaires, mais l'intégration native dans l'écosystème Bedrock donne à AWS un avantage naturel pour les entreprises déjà engagées sur sa plateforme. La prochaine étape logique sera de voir si le service s'étend aux agents multi-modaux et aux architectures multi-agents, deux domaines où l'évaluation reste un problème ouvert.

UELes équipes européennes développant des agents IA sur Amazon Bedrock peuvent adopter ce service managé pour remplacer une infrastructure d'évaluation coûteuse à construire en interne.

OutilsOutil
1 source
2AWS ML Blog 

Rede Mater Dei de Saúde surveille ses agents IA dans le circuit de facturation avec Amazon Bedrock AgentCore

Le réseau hospitalier brésilien Rede Mater Dei de Saúde déploie actuellement une suite de douze agents d'intelligence artificielle pour automatiser l'ensemble de son cycle de facturation médicale, en s'appuyant sur Amazon Bedrock AgentCore, le service d'infrastructure d'agents d'AWS. Cette initiative, développée en partenariat avec le cabinet de données A3Data et le AWS Generative AI Innovation Center, vise à réduire drastiquement le taux de refus de remboursement des assureurs, qui a bondi en 2024 de 11,89 % à 15,89 % dans le secteur hospitalier privé brésilien, selon l'association nationale Anahp, représentant jusqu'à 10 milliards de reais de revenus non perçus pour le secteur. Parmi les premiers agents déployés figurent un agent Contrats, qui centralise les règles contractuelles dispersées dans des documents hétérogènes, un agent Paramétrage, qui traduit automatiquement ces règles dans le système ERP de l'hôpital, et un agent Autorisation, qui automatise les échanges avec les compagnies d'assurance santé. L'enjeu est directement financier et opérationnel. Rede Mater Dei, qui gère des établissements à Belo Horizonte, Salvador, Goiânia, Uberlândia et plusieurs autres villes brésiliennes, faisait face à des centaines d'employés affectés à des tâches manuelles répétitives, à des données fragmentées et à un fort turnover sur ces postes. Chaque erreur dans le cycle de facturation, de l'accréditation des prestataires jusqu'à la facturation finale, se traduisait par des refus de remboursement coûteux et des corrections chronophages. Les agents IA fonctionnent désormais de manière orchestrée et continue, structurés en trois couches : une couche de données (DEL), une couche d'exécution des agents (AEL) et une couche de gouvernance et conformité (TCL), garantissant traçabilité et auditabilité de chaque décision automatisée. Ce projet s'inscrit dans un contexte de pression croissante sur la rentabilité des hôpitaux privés en Amérique latine, où les processus administratifs restent largement manuels et les systèmes d'information souvent morcelés. Rede Mater Dei, fort de 45 ans d'histoire, fait figure de pionnier continental en testant AgentCore Evaluation dans un environnement de production réel à haute criticité. Amazon Bedrock AgentCore, lancé comme service d'exécution serverless pour agents IA, offre nativement la gestion de la mémoire, l'intégration d'outils et l'observabilité en production, des capacités indispensables lorsque des agents autonomes prennent des décisions impactant directement les flux de trésorerie d'un réseau hospitalier. La suite complète de douze agents, une fois déployée intégralement, ambitionne de constituer une véritable "force de travail numérique" capable de percevoir, décider et agir sans intervention humaine sur l'ensemble du cycle de revenus.

OutilsActu
1 source
Amazon Bedrock AgentCore Gateway permet désormais de connecter des serveurs MCP via le flux Authorization Code
3AWS ML Blog 

Amazon Bedrock AgentCore Gateway permet désormais de connecter des serveurs MCP via le flux Authorization Code

Amazon a enrichi son service Bedrock AgentCore Gateway d'une nouvelle capacité majeure : la prise en charge du flux OAuth 2.0 Authorization Code, permettant aux agents d'IA de se connecter de manière sécurisée à des serveurs MCP protégés par authentification déléguée. Cette fonctionnalité, disponible via Amazon Bedrock AgentCore Identity, s'adresse aux organisations qui déploient des agents à grande échelle et qui doivent gérer des dizaines de connexions vers des serveurs tiers, dont ceux d'AWS, GitHub, Salesforce et Databricks. Concrètement, AgentCore Gateway joue le rôle de point d'entrée unique : les équipes configurent une seule URL Gateway au lieu de paramétrer chaque serveur MCP individuellement dans chaque IDE ou environnement de développement. L'authentification, l'observabilité et l'application des politiques de sécurité sont désormais centralisées en un seul plan de contrôle. Pour les organisations qui adoptent des agents d'IA en production, cette évolution résout un problème concret de gouvernance : jusqu'ici, chaque connexion à un serveur MCP devait être configurée et sécurisée séparément, ce qui devenait ingérable à mesure que le nombre de serveurs augmentait. Avec le flux Authorization Code, un agent peut agir au nom d'un utilisateur réel, obtenir un jeton d'accès via une authentification humaine, sans que les développeurs aient besoin d'embarquer des identifiants en dur dans le code applicatif ni de gérer manuellement le cycle de vie des tokens. Deux méthodes de création de cibles sont proposées : une synchronisation implicite où l'administrateur complète le flux d'autorisation lors de la création de la cible, et une méthode où le schéma d'outils est fourni directement à l'avance, recommandée quand une intervention humaine n'est pas possible en phase de déploiement. L'émergence du protocole MCP (Model Context Protocol) comme standard de connexion entre agents et outils externes a multiplié le nombre de serveurs que les équipes doivent orchestrer. Les grandes entreprises se retrouvent désormais à gérer des accès vers des systèmes hétérogènes, certains protégés par des fournisseurs d'identité fédérés, d'autres par leurs propres serveurs d'autorisation. AWS positionne AgentCore Gateway comme la réponse d'infrastructure à cette fragmentation, en apportant une couche de centralisation comparable à ce qu'une API Gateway classique fait pour les services REST. La prise en charge de l'Authorization Code flow, distincte des méthodes machine-à-machine comme Client Credentials, signale que Bedrock vise désormais des scénarios où des utilisateurs humains délèguent explicitement leurs droits à des agents, un cas d'usage clé pour les assistants d'entreprise qui accèdent à des outils SaaS au nom de leurs utilisateurs.

UELes entreprises européennes déployant des agents IA sur Amazon Bedrock peuvent centraliser la gestion des authentifications MCP, facilitant la conformité avec les exigences de sécurité du RGPD.

OutilsActu
1 source
Déployer des agents vocaux avec Pipecat et Amazon Bedrock AgentCore Runtime – Partie 1
4AWS ML Blog 

Déployer des agents vocaux avec Pipecat et Amazon Bedrock AgentCore Runtime – Partie 1

Amazon Web Services et Pipecat ont publié un guide détaillé sur le déploiement d'agents vocaux intelligents en production, s'appuyant sur la nouvelle infrastructure Amazon Bedrock AgentCore Runtime. La solution combine Pipecat, un framework open source spécialisé dans les pipelines audio temps réel, avec l'environnement serverless d'AWS pour permettre des conversations vocales naturelles sur le web, le mobile et la téléphonie. L'architecture prend en charge trois protocoles de transport réseau : WebSockets, WebRTC et l'intégration téléphonique classique. Chaque session de conversation tourne dans des microVMs isolées, avec une capacité de session continue allant jusqu'à 8 heures, et une mise à l'échelle automatique face aux pics de trafic. Le runtime impose l'usage de conteneurs ARM64 (Graviton), ce qui nécessite que les images Docker soient compilées spécifiquement pour l'architecture linux/arm64. Ce que change cette combinaison est significatif pour les équipes qui déploient des agents en production : elle élimine plusieurs problèmes récurrents liés aux architectures vocales temps réel, notamment la gigue audio, les contraintes de montée en charge, et les coûts liés au sur-provisionnement. La facturation à l'usage actif — et non à la capacité réservée — réduit directement les coûts d'infrastructure inactive. Sur le plan technique, la latence reste le défi central : une conversation naturelle exige une réponse inférieure à une seconde de bout en bout. Pour y parvenir, le système mise sur le streaming bidirectionnel à deux niveaux — entre le client et l'agent d'une part, et entre l'agent et les modèles de langage d'autre part. Le choix du modèle est déterminant : AWS recommande Amazon Nova Sonic pour les pipelines speech-to-speech, ou Nova Lite dans une approche en cascade (STT → LLM → TTS), tous deux optimisés pour minimiser le Time-to-First-Token. La plateforme intègre également de l'observabilité native pour tracer le raisonnement de l'agent et ses appels d'outils. Ce premier volet d'une série de publications s'adresse aux développeurs déjà familiers des architectures vocales en cascade et speech-to-speech. Il fait suite à un article précédent d'AWS comparant Amazon Nova Sonic aux approches en cascade, et pose les bases techniques pour les déploiements Pipecat sur AgentCore Runtime.

OutilsTuto
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour