Aller au contenu principal
Créer un système de traitement de documents financiers avec Pulse AI et Amazon Bedrock
OutilsAWS ML Blog1h

Créer un système de traitement de documents financiers avec Pulse AI et Amazon Bedrock

Résumé IASource uniqueImpact UE
Source originale ↗·

Pulse AI et Amazon Bedrock s'associent pour proposer un pipeline de traitement intelligent des documents financiers complexes, ciblant les établissements bancaires, les fonds d'investissement privés et les grandes entreprises. Contrairement aux outils OCR traditionnels qui traitent les documents comme de simples images, la solution combine les modèles de langage visuels de Pulse avec des composants de machine learning classiques spécifiquement conçus pour comprendre la structure des documents financiers : bilans comptables, comptes de résultats, dépôts SEC, rapports de recherche et documents d'audit. Le résultat le plus concret : un lot d'environ 1 000 documents financiers complexes, qui nécessitait auparavant plusieurs jours de traitement, est désormais traité en moins de trois heures, produisant des sorties structurées et auditables prêtes pour l'analyse. La solution est déjà déployée chez Samsung, Cloudera, Howard Hughes, ainsi que dans plusieurs institutions financières du classement Fortune 500.

L'enjeu est critique pour le secteur financier : une erreur OCR dans un bilan ou un tableau à cellules fusionnées ne reste pas isolée, elle se propage en cascade à travers les calculs interconnectés, faussant l'ensemble de l'analyse. Le pipeline Pulse-Bedrock extrait les données de façon structurée et sémantiquement consciente, puis utilise Amazon Bedrock pour affiner les modèles Nova d'Amazon sur ces données de haute qualité. L'organisation obtient ainsi un modèle de langage personnalisé, entraîné sur ses propres conventions financières, capable de traiter les nouveaux documents avec une compréhension spécifique à l'entreprise. La révision manuelle, qui prenait des jours, se réduit à quelques heures.

Ce développement s'inscrit dans une course à l'automatisation documentaire dans laquelle les institutions financières investissent massivement, sous la pression de volumes croissants de rapports réglementaires et de due diligence. Amazon Bedrock se positionne ici comme infrastructure de fine-tuning clé en main, sans gestion d'infrastructure ML ni planification de capacité, ce qui réduit la barrière d'entrée pour les équipes sans expertise MLOps. Pour Pulse AI, ce partenariat valide son approche hybride vision-langage face aux acteurs OCR historiques comme ABBYY ou aux offres cloud génériques de Google Document AI et Azure Form Recognizer. La prochaine étape logique est l'extension à d'autres verticales documentaires lourdes, comme le juridique ou le médical, où les mêmes problèmes de structure complexe et de dépendances contextuelles se posent.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Rocket Close révolutionne le traitement des documents hypothécaires avec Amazon Bedrock et Amazon Textract
1AWS ML Blog 

Rocket Close révolutionne le traitement des documents hypothécaires avec Amazon Bedrock et Amazon Textract

Rocket Close, filiale de gestion de titres et d'évaluations immobilières au sein du groupe Rocket Companies basée à Detroit, a automatisé le traitement de ses dossiers hypothécaires grâce à une solution développée en partenariat avec le AWS Generative AI Innovation Center (GenAIIC). L'entreprise traitait jusqu'à 2 000 dossiers par jour, chacun comptant en moyenne 75 pages, pour un total potentiel de plus de 500 000 documents par an. Le processus manuel exigeait jusqu'à 10 heures par dossier lors des pics de volume, soit environ 1 000 heures de travail humain quotidien, pour un coût annuel se chiffrant en millions de dollars. La nouvelle solution repose sur Amazon Textract pour la reconnaissance optique de caractères et Amazon Bedrock pour accéder à des modèles de fondation via une API unifiée. Elle atteint une précision globale de 90 % sur la segmentation, la classification et l'extraction de données, et rend le traitement 15 fois plus rapide qu'auparavant. L'impact opérationnel est considérable. En remplaçant un processus manuel chronophage par un pipeline automatisé, Rocket Close libère des ressources humaines pour des tâches à plus haute valeur ajoutée, réduit drastiquement ses coûts par dossier et élimine les goulots d'étranglement qui freinaient sa croissance. Pour les clients finaux, cela se traduit par des délais de traitement bien plus courts lors de l'achat ou du refinancement d'un bien immobilier. La solution est conçue pour absorber des volumes croissants sans dégradation de qualité, ce qui change fondamentalement les possibilités de mise à l'échelle dans un secteur où la vitesse d'instruction des prêts est un avantage concurrentiel direct. Le défi technique était loin d'être trivial : les dossiers hypothécaires sont des assemblages hétérogènes de plus de 60 types de documents différents, mêlant textes dactylographiés, notes manuscrites, tableaux, formulaires, tampons et signatures, avec une mise en forme et un ordre variables d'un dossier à l'autre. C'est précisément cette complexité structurelle qui avait jusqu'ici rendu l'automatisation difficile. L'essor des modèles de fondation multimodaux accessibles via des services managés comme Amazon Bedrock a changé la donne, en permettant une classification contextuelle robuste là où les approches règle-par-règle échouaient. Rocket Close s'inscrit ainsi dans une vague plus large de transformation documentaire dans les secteurs financiers et immobiliers, où les grands groupes cherchent à industrialiser des processus restés manuels faute d'outils suffisamment fiables. La prochaine étape pour l'entreprise sera probablement d'étendre ces capacités à d'autres types de documents tout au long de la chaîne de traitement des prêts.

OutilsOutil
1 source
Créer un agent FinOps avec Amazon Bedrock AgentCore
2AWS ML Blog 

Créer un agent FinOps avec Amazon Bedrock AgentCore

Amazon a dévoilé une solution clé en main pour construire un agent FinOps basé sur Amazon Bedrock AgentCore, permettant aux équipes financières de gérer les coûts AWS à travers plusieurs comptes via une interface conversationnelle unique. L'architecture repose sur Claude Sonnet 4.5 d'Anthropic, le Strands Agent SDK et le protocole MCP (Model Context Protocol), déployée via AWS CDK. L'agent consolide les données de trois services AWS — Cost Explorer, Budgets et Compute Optimizer — et propose plus de 20 outils spécialisés couvrant l'intégralité du spectre de la gestion des coûts cloud. La mémoire conversationnelle conserve jusqu'à 30 jours de contexte, permettant des questions de suivi sans répéter les informations préalables. Concrètement, cette solution élimine la nécessité pour les équipes finance et DevOps de naviguer manuellement entre plusieurs consoles AWS pour obtenir une vue consolidée des dépenses. Un responsable peut simplement demander "Quels sont mes principaux postes de dépenses ce mois-ci ?" et obtenir une réponse immédiate, sans requêtes SQL ni exports manuels. L'authentification repose sur Amazon Cognito (gestion des utilisateurs et flux OAuth 2.0 machine-à-machine), tandis qu'AWS Amplify héberge l'interface web. L'accès en langage naturel démocratise la visibilité sur les coûts cloud à l'ensemble de l'organisation, y compris aux profils non techniques — un enjeu majeur dans les entreprises où la facture AWS est souvent opaque pour les décideurs métier. Le FinOps — la pratique de gouvernance financière du cloud — est devenu un domaine à part entière alors que les dépenses cloud des entreprises ont explosé ces cinq dernières années, rendant le suivi des coûts multi-comptes complexe et chronophage. Amazon Bedrock AgentCore, lancé récemment par AWS, est la réponse d'Amazon à la vague d'agents IA d'entreprise : une plateforme d'exécution managée pour déployer des agents LLM avec mémoire, outils et identité gérés nativement. Cette solution illustre parfaitement la stratégie d'AWS de transformer ses propres services (Cost Explorer, Compute Optimizer) en sources de données accessibles via des agents IA, réduisant la friction d'adoption. La concurrence s'intensifie sur ce segment : Microsoft Copilot pour Azure Cost Management et Google Cloud Carbon Footprint poursuivent des ambitions similaires. La prochaine étape logique sera l'automatisation des recommandations d'optimisation, passant d'un agent qui répond à des questions à un agent qui agit directement sur l'infrastructure pour réduire les coûts.

UELes entreprises françaises et européennes utilisant AWS peuvent simplifier leur gestion de coûts cloud multi-comptes via cet agent, sans impact réglementaire ou institutionnel spécifique.

OutilsOutil
1 source
3AWS ML Blog 

Créer un moteur de tests A/B propulsé par l'IA avec Amazon Bedrock

Amazon Bedrock, Amazon ECS, DynamoDB et le protocole MCP peuvent être combinés pour construire un moteur de tests A/B piloté par l'IA, capable d'assigner les variantes en fonction du contexte utilisateur en temps réel plutôt qu'aléatoirement. Ce système réduit le bruit statistique et accélère la convergence vers un gagnant : par exemple, il détecte que les membres premium réagissent négativement à un message "Livraison gratuite" déjà inclus dans leur abonnement, tandis que les visiteurs venant de sites de bons plans y sont très réceptifs. L'approche permet d'identifier ces patterns comportementaux bien plus tôt que les semaines habituellement nécessaires avec un A/B testing classique.

OutilsOutil
1 source
Amazon Bedrock et Amazon OpenSearch : créer un moteur de recherche intelligent pour le RAG hybride
4AWS ML Blog 

Amazon Bedrock et Amazon OpenSearch : créer un moteur de recherche intelligent pour le RAG hybride

Amazon a présenté une approche technique détaillée pour construire des assistants d'IA générative de nouvelle génération, combinant Amazon Bedrock, Amazon Bedrock AgentCore, le framework Strands Agents et Amazon OpenSearch dans une architecture dite "RAG hybride" (Retrieval-Augmented Generation). Ces systèmes, plus sophistiqués que de simples chatbots, sont capables de mener des conversations en plusieurs étapes, d'adapter leurs réponses aux besoins spécifiques de chaque utilisateur, et d'exécuter des tâches en arrière-plan telles que des appels d'API ou des requêtes en base de données en temps réel. L'exemple concret illustré dans l'article est celui d'un assistant de réservation hôtelière : l'agent interroge d'abord une base de données pour identifier les établissements correspondant aux critères du client, puis effectue des appels API pour récupérer disponibilités et tarifs actuels, avant de synthétiser ces informations dans une réponse cohérente. Le coeur de l'innovation réside dans la combinaison de deux approches de recherche d'information : la recherche textuelle classique par mots-clés et la recherche sémantique vectorielle. Cette dernière repose sur des embeddings vectoriels précalculés, stockés dans des bases de données vectorielles comme OpenSearch, qui permettent de trouver des résultats pertinents même lorsque les termes exacts ne correspondent pas. Le système convertit la requête de l'utilisateur en vecteur numérique et identifie les contenus les plus proches dans un espace à haute dimension, en utilisant des métriques de distance comme la similarité cosinus. Un exemple frappant illustre la puissance de cette approche : pour la requête "2x4 lumber board", le système sémantique identifie "building materials" comme résultat pertinent, là où une recherche lexicale aurait échoué. Cette capacité d'alignement sémantique est particulièrement précieuse pour les entreprises dont les bases de connaissances métier utilisent une terminologie différente de celle employée par leurs clients. Cette publication s'inscrit dans la stratégie d'Amazon Web Services de positionner Bedrock comme la plateforme centrale pour le déploiement d'agents d'IA en entreprise. Le RAG hybride répond à un défi bien documenté des LLMs : leur incapacité à accéder nativement à des données récentes ou propriétaires. En greffant une couche de récupération dynamique sur des modèles comme ceux disponibles via Bedrock, AWS propose une alternative aux solutions de fine-tuning, plus coûteuses et moins flexibles. La concurrence dans ce segment est intense, avec des offres similaires chez Microsoft Azure (Azure AI Search) et Google Cloud (Vertex AI Search). L'intégration native d'OpenSearch dans cet écosystème renforce l'attrait pour les entreprises déjà clientes AWS, tandis que l'introduction de Bedrock AgentCore signale une montée en gamme vers des architectures multi-agents plus complexes, capables d'orchestrer plusieurs outils et sources de données simultanément.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour