Aller au contenu principal
OutilsAWS ML Blog13min

Amazon Finance automatise le traitement des demandes réglementaires grâce à l'IA générative sur AWS

Résumé IASource uniqueImpact UE
Source originale ↗·

Les équipes Finance Technology (FinTech) d'Amazon ont déployé un système automatisé de gestion des enquêtes réglementaires, construit sur Amazon Bedrock et plusieurs services AWS. Face à des milliers de documents à traiter, en formats PDF, Word, PowerPoint et CSV, et à des délais réglementaires stricts imposés par des autorités aux exigences très différentes selon les juridictions, les équipes ont développé une application basée sur la génération augmentée par récupération (RAG). Le coeur du système repose sur Amazon Bedrock Knowledge Bases couplé à Amazon OpenSearch Serverless pour le stockage vectoriel, Claude Sonnet 4.5 comme modèle de langage via l'API Converse Stream, et Amazon DynamoDB pour la gestion de l'historique des conversations. Chaque équipe FinTech maintient sa propre base de connaissances alimentée par ses documents spécifiques.

Ce système change concrètement la façon dont des équipes internes traitent des demandes réglementaires complexes, qui nécessitent de croiser des milliers de précédents documentaires tout en maintenant le fil de conversations multi-tours sur plusieurs sessions. Avant cette solution, la fragmentation des connaissances entre différents systèmes d'infrastructure Amazon rendait la synthèse d'information lente et risquée. Désormais, les réponses sont contextuelles, s'appuient sur des données historiques précises, et s'affinent de manière itérative au fil des échanges. L'enjeu de conformité est central : une réponse inexacte ou basée sur une directive réglementaire obsolète peut exposer Amazon à des violations juridiques directes.

La difficulté majeure que ce projet révèle est celle de l'observabilité des systèmes d'IA dans des contextes réglementés. Les équipes ont intégré OpenTelemetry et Langfuse en auto-hébergement pour monitorer en continu les décisions du modèle, détecter les hallucinations, c'est-à-dire les cas où le modèle génère des informations absentes des documents sources, et surveiller la dérive de précision dans le temps, inévitable à mesure que les prompts, les modèles et le corpus documentaire évoluent. Le choix de ne pas mettre en cache les réponses LLM est délibéré : les enquêtes réglementaires sont trop contextuelles pour bénéficier d'un cache, dont le taux d'utilisation serait trop faible pour justifier la complexité. Ce déploiement illustre une tendance croissante chez les grandes entreprises tech à internaliser leurs systèmes RAG sur des infrastructures cloud propriétaires, plutôt que de s'appuyer sur des solutions SaaS tierces, notamment pour garder le contrôle sur la traçabilité et la conformité des réponses générées.

Impact France/UE

Les équipes techniques européennes confrontées aux enquêtes réglementaires (RGPD, AI Act) peuvent s'inspirer de cette architecture RAG multi-sources pour automatiser leur gestion de conformité.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Sun Finance automatise l'extraction d'identifiants et la détection de fraude avec l'IA générative sur AWS
1AWS ML Blog 

Sun Finance automatise l'extraction d'identifiants et la détection de fraude avec l'IA générative sur AWS

Sun Finance, fintech lettone fondée en 2017, a déployé en janvier 2026 un pipeline de vérification d'identité entièrement repensé grâce à l'intelligence artificielle générative d'AWS. L'entreprise, active dans neuf pays, traite un dossier de prêt toutes les 0,63 secondes et réalise plus de 4 millions d'évaluations par mois. Sur son marché des microcrédits, quelque 80 000 demandes sont soumises chaque mois, dont 60 % aboutissaient jusqu'ici dans des files d'attente de révision manuelle. En partenariat avec l'AWS Generative AI Innovation Center, Sun Finance a reconstruit son pipeline en combinant Amazon Bedrock, Amazon Textract et Amazon Rekognition. Le projet a duré 107 jours ouvrés au total, du lancement le 26 août 2025 à la mise en production le 22 janvier 2026, incluant un gel de deux semaines pendant les fêtes. Résultat : la précision d'extraction des données documentaires est passée de 79,7 % à 90,8 %, le coût unitaire par document a chuté de 91 %, et le temps de traitement est tombé de 20 heures à moins de 5 secondes. L'impact est immédiat et quantifiable. En éliminant la majorité des interventions manuelles, Sun Finance libère environ trois équivalents temps plein dédiés à la vérification dans une seule région. La réduction du coût par dossier rend désormais rentable l'expansion vers des segments de microcrédits à faible valeur unitaire, jusqu'ici bloqués par les contraintes économiques. Pour les clients, le passage de plusieurs heures d'attente à une réponse quasi instantanée transforme radicalement l'expérience de demande de prêt. Sur le plan de la fraude, la détection automatisée par recherche de similarité vectorielle permet d'identifier les schémas répétitifs utilisés par des demandeurs malveillants qui soumettaient de multiples dossiers avec des images légèrement modifiées, environ 10 % des demandes quotidiennes étaient frauduleuses. La première version du système de vérification d'identité de Sun Finance datait de 2019, déjà bâtie sur Rekognition et Textract. L'expansion vers des marchés émergents a mis en évidence ses limites : les langues locales sont sous-représentées dans les corpus d'entraînement des OCR traditionnels, générant des erreurs fréquentes sur des documents bilingues. Parmi les 60 % de dossiers nécessitant une révision manuelle, 80 % étaient dus à des incohérences entre les données extraites et celles saisies par les clients, et dans 60 % de ces cas, la faute revenait à l'OCR, non à l'utilisateur. La solution actuelle, fondée sur une combinaison de reconnaissance de caractères spécialisée et de structuration par grand modèle de langage, surpasse chaque outil pris isolément. Ce projet illustre une tendance de fond dans la fintech : l'IA générative ne se substitue pas aux outils OCR classiques, elle les complète pour atteindre un niveau de fiabilité industrielle que ni l'un ni l'autre n'atteignent seuls.

UESun Finance, fintech lettone opérant dans neuf pays dont plusieurs en Europe, illustre concrètement comment des acteurs européens du crédit en ligne peuvent automatiser la vérification d'identité et réduire la fraude documentaire grâce à l'IA générative, avec des résultats mesurables (−91 % de coût unitaire, précision passée de 79,7 % à 90,8 %).

OutilsOutil
1 source
Automatiser la génération de schémas pour le traitement intelligent de documents
2AWS ML Blog 

Automatiser la génération de schémas pour le traitement intelligent de documents

Amazon Web Services vient d'enrichir son IDP Accelerator, solution open-source et serverless dédiée au traitement automatisé de documents, d'une nouvelle fonctionnalité baptisée "multi-document discovery". Jusqu'ici, exploiter le traitement intelligent de documents (IDP) exigeait de constituer manuellement un schéma de configuration pour chaque type de document à analyser : définir les classes, identifier des exemples représentatifs, spécifier les champs à extraire. Une contrainte rédhibitoire dès lors qu'une organisation se retrouve avec des milliers de documents non étiquetés et aucune visibilité sur les catégories qui les composent. La nouvelle fonctionnalité répond directement à ce problème : elle analyse une collection de documents inconnus, les regroupe automatiquement par type, puis génère les schémas de configuration prêts à l'emploi. Le pipeline repose sur AWS Step Functions pour l'orchestration, AWS Lambda pour le calcul serverless, Amazon S3 pour le stockage, et les modèles disponibles via Amazon Bedrock pour la génération des schémas, dont le modèle d'embeddings Cohere Embed v4 utilisé par défaut. L'intérêt opérationnel est considérable pour les équipes qui traitent des volumes documentaires hétérogènes. Là où le module Discovery existant nécessitait de connaître ses classes de documents à l'avance et de fournir un exemple par classe, la nouvelle approche supprime ce prérequis. Le système génère d'abord un embedding visuel pour chaque document, en se basant sur la première page uniquement pour les documents multi-pages, puis utilise le score de silhouette pour déterminer automatiquement le nombre de clusters pertinents. Un agent construit avec Strands Agents et un LLM Bedrock analyse ensuite chaque cluster pour identifier le type de document et produire un schéma. Une étape de "réflexion" finale compare l'ensemble des schémas générés pour détecter les chevauchements et incohérences avant validation humaine. Cette approche réduit drastiquement le travail préparatoire qui, à grande échelle, pouvait représenter des semaines de labelling manuel. Le choix des embeddings visuels plutôt que textuels, via OCR, est une décision technique délibérée : la mise en page, le formatage et la structure visuelle d'un document permettent de distinguer des types documentaires même lorsque leur contenu textuel se ressemble. Ce positionnement s'inscrit dans la stratégie plus large d'AWS de faire de Bedrock un socle central pour les workflows d'IA en entreprise, en y adossant des briques comme Strands Agents pour la partie agentique. La solution reste open-source, disponible sur GitHub, ce qui permet aux équipes de l'adapter à leurs propres collections. L'enjeu sous-jacent est de rendre accessibles les initiatives IDP à des organisations qui ne disposent pas des ressources pour classifier manuellement leur patrimoine documentaire avant même de commencer à en extraire de la valeur.

OutilsOutil
1 source
3AWS ML Blog 

Les contrôles de raisonnement automatisé dans Amazon Bedrock au service de la conformité de l'IA générative

Amazon Web Services a intégré dans son service Bedrock Guardrails une fonctionnalité appelée Automated Reasoning checks, qui remplace la validation probabiliste des sorties d'IA par une vérification mathématique formelle. Contrairement à l'approche courante qui consiste à utiliser un second LLM pour évaluer les réponses d'un premier, cette technologie s'appuie sur des méthodes issues de la logique formelle, notamment les solveurs SAT et SMT, pour prouver qu'une réponse générée par une IA est cohérente avec un ensemble de règles définies. L'équipe Amazon Logistics figure parmi les premiers cas d'usage concrets, ayant réduit ses cycles de revue d'ingénierie grâce à ce système. Le dispositif se décompose en quatre étapes : encodage des règles métier, traduction des sorties de l'IA, moteur de vérification formelle, puis génération d'un résultat auditabl. L'enjeu est majeur pour les secteurs réglementés, où une réponse incorrecte d'un assistant IA peut avoir des conséquences juridiques ou financières directes. Dans le domaine de l'assurance, si un chatbot indique à un client qu'un sinistre est couvert, une validation par LLM-as-a-judge se contente de dire "ça semble correct". Les Automated Reasoning checks, elles, prouvent mathématiquement que la réponse respecte chaque clause de la police, et si ce n'est pas le cas, indiquent précisément quelle règle est violée et pourquoi. Pour les hôpitaux soumis aux normes de radioprotection, les institutions financières qui doivent se conformer à l'AI Act européen, ou les assureurs qui répondent à des questions de couverture, cette capacité à produire des preuves formelles et auditables représente un changement structurel : les équipes de conformité peuvent remplacer des semaines de revue manuelle et des consultants externes par des traces vérifiables automatiquement générées. Cette innovation s'inscrit dans des décennies de recherche en vérification formelle, une discipline qui sert déjà à valider des conceptions matérielles, des protocoles cryptographiques et des logiciels critiques pour la sécurité. AWS l'applique désormais à l'IA générative en combinant réseaux de neurones et raisonnement logique. L'outil fait partie d'un ensemble plus large de mécanismes d'IA responsable proposés dans Bedrock, aux côtés de garde-fous contre les hallucinations et les contenus inappropriés. Avec la montée en puissance des agents autonomes dans les environnements d'entreprise, et face à des régulateurs de plus en plus exigeants en matière de traçabilité des décisions algorithmiques, la capacité à produire des justifications mathématiquement fondées pourrait rapidement devenir une exigence standard dans les secteurs de la finance, de la santé et de l'énergie.

UELes entreprises européennes des secteurs financier et de la santé soumises à l'AI Act pourraient automatiser leur mise en conformité réglementaire grâce à cet outil, réduisant les coûts de revue manuelle et produisant des traces auditables exigibles par les régulateurs.

OutilsOpinion
1 source
PwC extrait des informations contractuelles grâce à l'annotation IA sur AWS
4AWS ML Blog 

PwC extrait des informations contractuelles grâce à l'annotation IA sur AWS

PwC a développé une solution d'intelligence artificielle baptisée AIDA (AI-Driven Annotation), déployée sur les services cloud d'Amazon Web Services, pour automatiser l'analyse de contrats juridiques et commerciaux. Conçue en collaboration avec les équipes internes du cabinet, cette plateforme combine des modèles de langage de grande taille (LLM) avec des workflows d'extraction automatisés afin de transformer des documents non structurés en données consultables et réutilisables. Concrètement, AIDA offre trois fonctionnalités principales : l'extraction basée sur des modèles personnalisables, un système de questions-réponses en langage naturel à l'échelle d'un seul document, et une interrogation globale sur des milliers de contrats en parallèle. Dans les déploiements clients déjà réalisés, la solution a permis de réduire le temps de relecture manuelle des contrats jusqu'à 90 %, et un grand studio de cinéma et de télévision a vu son temps de recherche de droits chuter de 90 % également. Pour les équipes juridiques, de conformité et d'achats, l'enjeu est considérable. Aujourd'hui, la majorité des entreprises s'appuient encore sur des recherches par mots-clés ou des systèmes de gestion contractuelle classiques, qui peinent à traiter des volumes importants de documents avec une précision constante. AIDA change cette équation en permettant à un utilisateur de poser une question en français ou en anglais sur une clause précise, et d'obtenir une réponse contextuelle assortie de citations directement liées aux passages sources. Cette capacité à interroger simultanément des milliers de contrats en langage naturel réduit les cycles de révision et accélère la prise de décision dans des secteurs comme l'immobilier, les médias ou les achats. Dans le secteur des médias et du divertissement par exemple, AIDA aide producteurs et distributeurs à identifier rapidement les droits de diffusion, de streaming ou de déclinaisons dérivées contenus dans des accords de licence complexes. Cette initiative s'inscrit dans une tendance de fond qui voit les grands cabinets de conseil et d'audit accélérer leur propre transformation par l'IA générative. PwC, comme ses concurrents directs McKinsey, Deloitte ou EY, investit massivement dans des outils propriétaires pour automatiser les tâches à forte intensité documentaire, tout en maintenant une supervision humaine sur les sorties générées par l'IA, ce que la solution impose explicitement avant toute utilisation juridique ou commerciale. Le recours à AWS positionne AIDA dans l'écosystème cloud dominant des grandes entreprises, facilitant son intégration avec des systèmes existants comme les référentiels de documents ou les plateformes de gestion contractuelle. À mesure que les volumes de données contractuelles continuent de croître, ce type d'outil pourrait redéfinir la structure même des équipes juridiques en entreprise, en réorientant les professionnels vers des tâches d'analyse stratégique plutôt que de traitement documentaire.

UEPwC France et ses clients européens peuvent directement adopter AIDA pour automatiser l'analyse contractuelle, la solution supportant explicitement le français pour les équipes juridiques locales.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour