Amazon Finance automatise le traitement des demandes réglementaires grâce à l'IA générative sur AWS
Les équipes Finance Technology (FinTech) d'Amazon ont déployé un système automatisé de gestion des enquêtes réglementaires, construit sur Amazon Bedrock et plusieurs services AWS. Face à des milliers de documents à traiter, en formats PDF, Word, PowerPoint et CSV, et à des délais réglementaires stricts imposés par des autorités aux exigences très différentes selon les juridictions, les équipes ont développé une application basée sur la génération augmentée par récupération (RAG). Le coeur du système repose sur Amazon Bedrock Knowledge Bases couplé à Amazon OpenSearch Serverless pour le stockage vectoriel, Claude Sonnet 4.5 comme modèle de langage via l'API Converse Stream, et Amazon DynamoDB pour la gestion de l'historique des conversations. Chaque équipe FinTech maintient sa propre base de connaissances alimentée par ses documents spécifiques.
Ce système change concrètement la façon dont des équipes internes traitent des demandes réglementaires complexes, qui nécessitent de croiser des milliers de précédents documentaires tout en maintenant le fil de conversations multi-tours sur plusieurs sessions. Avant cette solution, la fragmentation des connaissances entre différents systèmes d'infrastructure Amazon rendait la synthèse d'information lente et risquée. Désormais, les réponses sont contextuelles, s'appuient sur des données historiques précises, et s'affinent de manière itérative au fil des échanges. L'enjeu de conformité est central : une réponse inexacte ou basée sur une directive réglementaire obsolète peut exposer Amazon à des violations juridiques directes.
La difficulté majeure que ce projet révèle est celle de l'observabilité des systèmes d'IA dans des contextes réglementés. Les équipes ont intégré OpenTelemetry et Langfuse en auto-hébergement pour monitorer en continu les décisions du modèle, détecter les hallucinations, c'est-à-dire les cas où le modèle génère des informations absentes des documents sources, et surveiller la dérive de précision dans le temps, inévitable à mesure que les prompts, les modèles et le corpus documentaire évoluent. Le choix de ne pas mettre en cache les réponses LLM est délibéré : les enquêtes réglementaires sont trop contextuelles pour bénéficier d'un cache, dont le taux d'utilisation serait trop faible pour justifier la complexité. Ce déploiement illustre une tendance croissante chez les grandes entreprises tech à internaliser leurs systèmes RAG sur des infrastructures cloud propriétaires, plutôt que de s'appuyer sur des solutions SaaS tierces, notamment pour garder le contrôle sur la traçabilité et la conformité des réponses générées.
Les équipes techniques européennes confrontées aux enquêtes réglementaires (RGPD, AI Act) peuvent s'inspirer de cette architecture RAG multi-sources pour automatiser leur gestion de conformité.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



