Aller au contenu principal
Découvrez la pile de commerce à base d'agents d'AMEX : contrats d'intention et tokens à usage unique pour sécuriser les transactions IA
OutilsVentureBeat AI1h

Découvrez la pile de commerce à base d'agents d'AMEX : contrats d'intention et tokens à usage unique pour sécuriser les transactions IA

Résumé IASource uniqueImpact UE
Source originale ↗·

American Express développe un système permettant à des agents IA d'effectuer des achats et des paiements au nom des utilisateurs, via un kit développeur baptisé ACE (Agentic Commerce Experiences). Présenté par Luke Gebb, vice-président exécutif et responsable mondial de l'innovation chez Amex, ce dispositif repose sur une architecture en boucle fermée : Amex agit simultanément comme émetteur de carte et réseau de paiement, ce qui lui permet de valider les transactions initiées par des agents IA sans dépendre d'un intermédiaire tiers. Le kit offre aux développeurs un accès à plusieurs services intégrés : enregistrement des agents, activation de compte, gestion des intentions, émission de jetons de paiement à usage unique, contexte du panier d'achat. Amex participe par ailleurs au projet Agent Pay Protocol (AP2) de Google, centré sur l'interopérabilité entre plateformes.

Ce système s'attaque à l'un des problèmes fondamentaux du commerce dit "agentique" : la confiance. Aujourd'hui, ni les consommateurs, ni les marchands, ni les banques ne veulent s'exposer aux risques qu'un agent autonome pourrait faire peser sur leurs transactions, achats non autorisés, articles impayés, fraudes ou afflux de contestations. En positionnant Amex comme premier émetteur à entrer dans cette conversation, Gebb revendique un angle mort comblé : "C'est vraiment la première fois qu'un émetteur s'assoit à la table." Contrairement à Visa ou Mastercard, qui opèrent des réseaux sans émettre de cartes elles-mêmes, Amex contrôle l'ensemble du circuit, ce qui lui donne une capacité de validation de bout en bout que ses concurrents n'ont pas.

Malgré ces ambitions, le système n'est pas sans zones d'ombre. Raj Ananthanpillai, fondateur et PDG de Trua, un fournisseur de systèmes d'identité et de vérification, souligne que des outils comme ACE, la suite Agentic Commerce de Stripe ou la chaîne de preuve d'intention vérifiable de Google "excellent dans la gestion des preuves et des autorisations vérifiables, mais laissent la validation humaine en amont opaque et peu développée." Sans lien cryptographique clair prouvant qu'un agent agit sous l'autorité explicite d'un humain vérifié, les risques de répudiation, de fraude et de transactions par des personnes sous sanctions restent élevés. Amex affirme que ses agents peuvent soumettre un panier et le confronter à l'intention initiale de l'utilisateur, mais n'a pas divulgué le mécanisme exact de cette validation. C'est précisément ce manque de transparence que l'écosystème du commerce agentique devra résoudre pour atteindre une adoption à grande échelle.

Impact France/UE

Les standards de commerce agentique en cours de définition aux États-Unis (Amex ACE, Stripe, Google AP2) pourraient devenir des références que les acteurs européens du paiement devront intégrer pour garantir l'interopérabilité, mais sans impact direct immédiat sur la France ou l'UE.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud
1AWS ML Blog 

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud

Amazon Web Services a annoncé la disponibilité générale de deux agents autonomes d'intelligence artificielle lors de son événement re:Invent : AWS Security Agent, dédié aux tests d'intrusion, et AWS DevOps Agent, spécialisé dans les opérations cloud. Ces systèmes appartiennent à une nouvelle catégorie baptisée « frontier agents » — des IA capables de travailler de façon autonome pendant des heures, voire des jours, sans supervision humaine continue. Selon AWS, les retours des clients en phase de préversion sont significatifs : AWS Security Agent réduit les délais de tests de pénétration de plusieurs semaines à quelques heures, tandis qu'AWS DevOps Agent accélère la résolution d'incidents de 3 à 5 fois. Des entreprises comme Bamboo Health et HENNGE K.K. témoignent de résultats concrets, cette dernière affirmant avoir réduit la durée de ses cycles de sécurité de plus de 90 %. L'enjeu pour les équipes de sécurité et d'exploitation est majeur. La plupart des organisations ne peuvent aujourd'hui faire réaliser des tests de pénétration manuels que sur leurs applications les plus critiques, faute de temps et de budget — laissant la majorité de leur portefeuille logiciel vulnérable entre deux cycles d'audit. AWS Security Agent change cette équation en analysant le code source, les diagrammes d'architecture et la documentation pour reconstituer des chaînes d'attaque complexes que les scanners traditionnels ne détectent pas. Côté opérations, AWS DevOps Agent s'intègre avec les principaux outils du marché — CloudWatch, Datadog, Dynatrace, Splunk, Grafana, GitHub, GitLab — et corrèle télémétrie, code et données de déploiement pour identifier la cause racine d'un incident, qu'il s'agisse d'infrastructures AWS, Azure, hybrides ou on-premise. Pour les équipes SRE débordées, c'est la promesse d'un coéquipier disponible en permanence. Ces annonces s'inscrivent dans une course à l'automatisation des opérations IT qui s'intensifie depuis l'essor des grands modèles de langage. Les hyperscalers — AWS, Microsoft Azure, Google Cloud — cherchent tous à proposer des agents capables de gérer des tâches complexes et durables, au-delà des simples assistants conversationnels. AWS positionne explicitement ces outils non comme des aides ponctuelles, mais comme de véritables extensions de l'équipe humaine, capables de prendre des décisions en plusieurs étapes sans intervention constante. Amy Herzog, vice-présidente et RSSI d'AWS, indique que l'entreprise utilise elle-même AWS Security Agent en interne. La question qui se posera à mesure de l'adoption est celle de la gouvernance : jusqu'où déléguer à une IA des décisions critiques sur la sécurité ou la stabilité des systèmes de production ?

UELes entreprises européennes utilisant AWS peuvent adopter ces agents pour réduire leurs coûts et délais de tests de sécurité, mais la délégation de décisions critiques à une IA soulève des questions de conformité avec le RGPD et l'AI Act.

OutilsOutil
1 source
L'ère du RAG pour les agents IA touche à sa fin : place à une couche de connaissances intégrée à la compilation
2VentureBeat AI 

L'ère du RAG pour les agents IA touche à sa fin : place à une couche de connaissances intégrée à la compilation

Pinecone, pionnière des bases de données vectorielles, a annoncé ce 4 mai 2026 le lancement en accès anticipé de Nexus, qu'elle présente non pas comme une amélioration de la recherche vectorielle, mais comme un moteur de connaissance entièrement repensé pour les agents IA. Le produit introduit un compilateur de contexte qui transforme les données brutes d'une entreprise en artefacts de connaissance persistants et adaptés à des tâches spécifiques, avant même qu'un agent ne formule sa première requête. Nexus embarque également KnowQL, un nouveau langage de requête déclaratif permettant aux agents de spécifier la forme des résultats attendus, les exigences de confiance et les contraintes de latence. Sur un benchmark interne, une tâche d'analyse financière qui consommait auparavant 2,8 millions de tokens a été traitée par Nexus avec seulement 4 000 tokens, soit une réduction de 98 %, bien que Pinecone n'ait pas encore validé ce chiffre en déploiement client réel. Cette rupture répond à une limite structurelle du paradigme RAG (retrieval-augmented generation), conçu pour des interactions humaines ponctuelles, une requête, une réponse, un interprète humain dans la boucle. Les agents IA fonctionnent différemment : ils reçoivent des tâches complexes, agrègent des sources multiples, résolvent des conflits d'information et enchaînent les requêtes de façon autonome. Or, dans une architecture RAG classique, chaque session repart de zéro, redécouvrant à chaque fois quelles tables sont liées, quelles sources font autorité, quels formats sont exploitables. Pinecone estime que 85 % de la puissance de calcul des agents est absorbée par ce cycle de redécouverte, au détriment de la tâche réelle. Il en résulte une latence imprévisible, des coûts en tokens incontrôlés et des résultats non déterministes, deux exécutions identiques sur les mêmes données peuvent produire des réponses différentes, sans traçabilité des sources, ce qui constitue un blocage rédhibitoire pour les entreprises soumises à des obligations de conformité. La sondage Pulse de VentureBeat pour le premier trimestre 2026 confirme ce tournant : chaque base de données vectorielle standalone perd des parts d'adoption, tandis que l'intention de récupération hybride a triplé pour atteindre 33,3 %, la position stratégique à la croissance la plus rapide du secteur. En déplaçant le travail de raisonnement du moment de l'inférence vers une phase de compilation préalable, Nexus tente de résoudre ce que le PDG Ash Ashutosh résume ainsi : les agents sont des machines contraintes de travailler sur des systèmes conçus pour des humains. L'enjeu dépasse Pinecone, c'est toute une catégorie technologique, celle des bases vectorielles nées avec ChatGPT, qui doit se réinventer pour survivre à l'ère agentique.

UELes entreprises françaises et européennes qui développent des agents IA sur des architectures RAG devront surveiller ce tournant vers des moteurs de connaissance compilés, susceptible de remodeler les choix d'infrastructure.

OutilsOutil
1 source
Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle
3VentureBeat AI 

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle

La startup Kilo a annoncé le lancement de KiloClaw for Organizations et KiloClaw Chat, une suite d'outils destinée à encadrer l'usage des agents IA autonomes au sein des grandes entreprises. Cette annonce intervient un mois après la mise en disponibilité générale de son produit individuel OpenClaw, qui a déjà séduit plus de 25 000 utilisateurs actifs. Le benchmark propriétaire de Kilo, PinchBench, a quant à lui enregistré plus de 250 000 interactions et a été cité publiquement par Jensen Huang, PDG de Nvidia, lors de sa keynote à la conférence GTC 2026 à San Jose. Co-fondée par Scott Breitenother et Emilie Schario, la société propose un environnement de développement IA multi-modèles hébergé dans le cloud, conçu pour être portable et accessible. Le problème que KiloClaw for Organizations cherche à résoudre est celui du « shadow AI » — ou BYOAI (Bring Your Own AI) : des développeurs et travailleurs du savoir qui déploient des agents IA autonomes sur des infrastructures personnelles, hors du contrôle de leur employeur, pour gérer agendas, dépôts de code ou flux de travail professionnels. Des directeurs IA de sous-traitants gouvernementaux ont confié à Kilo avoir découvert leurs équipes faisant tourner des agents OpenClaw sur des serveurs VPS non répertoriés. « Nous ne voyons rien : pas de journaux d'audit, pas de gestion des identifiants, aucune idée de quelles données touchent quelle API », aurait déclaré l'un d'eux. Face à cette opacité, certaines organisations ont répondu par des interdictions totales des agents autonomes, faute de stratégie claire. Le nouveau produit permet à une entreprise d'acheter un package organisationnel et d'en distribuer l'accès à chaque membre de l'équipe, dans un environnement géré et auditable. Ce lancement s'inscrit dans une dynamique sectorielle plus large. Des acteurs majeurs comme Nvidia (NemoClaw), Cisco (DefenseClaw), Palo Alto Networks et CrowdStrike ont tous annoncé des déclinaisons entreprise d'OpenClaw, avec des mécanismes de gouvernance et de sécurité. Pourtant, selon Anand Kashyap, PDG de la société de sécurité des données Fortanix, l'adoption en entreprise reste faible : les organisations exigent un contrôle IT centralisé, un comportement prévisible et une conformité stricte des données — trois paramètres que les plateformes agentiques autonomes mettent à rude épreuve. Kashyap souligne que les solutions de périmètre traditionnelles ne réduisent pas la surface d'attaque fondamentale. À terme, le marché devrait converger vers des plateformes agentiques avec des agents pré-packagés, des contrôles centralisés et des accès aux données intégrés directement dans les LLM — des technologies comme le Confidential Computing étant appelées à jouer un rôle clé dans cette transition.

UELes entreprises européennes sont confrontées aux mêmes enjeux de shadow AI, aggravés par les obligations de traçabilité et de contrôle imposées par l'AI Act pour les systèmes d'IA à risque déployés en contexte professionnel.

OutilsOutil
1 source
Découvrez OpenViking : une base de données contextuelle open-source qui apporte la mémoire et la récupération basées sur le système de fichiers aux systèmes d'agents intelligents comme OpenClaw
4MarkTechPost 

Découvrez OpenViking : une base de données contextuelle open-source qui apporte la mémoire et la récupération basées sur le système de fichiers aux systèmes d'agents intelligents comme OpenClaw

OpenViking est une base de données contextuelle open-source pour agents AI développée par Volcengine. Elle utilise un paradigme de système de fichiers pour organiser le contexte, permettant une gestion unifiée des mémoires, ressources et compétences via une structure hiérarchique. Cette approche vise à résoudre cinq problèmes courants dans le développement d'agents : fragmentation du contexte, augmentation volumineuse du contexte pendant les tâches longues, faible qualité de récupération dans des pipelines RAG plats, mauvaise observabilité des comportements de récupération et limitation de l'iteration mémoire au-delà de l'historique de la conversation. Le cœur du design est un système de fichiers virtuel exposant le protocole viking:// pour gérer différents types de contexte via des répertoires (ressources, utilisateur, agent), offrant une navigation plus déterministe par rapport aux recherches de similarité sur un index vecteur plat. La méthode de récupération en arbre de répertoires permet de conserver à la fois la pertinence locale et la structure globale du contexte, améliorant ainsi les modèles de récupération traditionnels. De plus, OpenViking inclut un mécanisme intégré pour la chargement progressif du contexte en couches (L0, L1, L2) pour minimiser la surcharge token lors des requêtes d'agents étendues à plusieurs référentiels et mémoires accumulées.

OutilsActu
1 source