Aller au contenu principal
Automatiser la génération de schémas pour le traitement intelligent de documents
OutilsAWS ML Blog11min

Automatiser la génération de schémas pour le traitement intelligent de documents

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon Web Services vient d'enrichir son IDP Accelerator, solution open-source et serverless dédiée au traitement automatisé de documents, d'une nouvelle fonctionnalité baptisée "multi-document discovery". Jusqu'ici, exploiter le traitement intelligent de documents (IDP) exigeait de constituer manuellement un schéma de configuration pour chaque type de document à analyser : définir les classes, identifier des exemples représentatifs, spécifier les champs à extraire. Une contrainte rédhibitoire dès lors qu'une organisation se retrouve avec des milliers de documents non étiquetés et aucune visibilité sur les catégories qui les composent. La nouvelle fonctionnalité répond directement à ce problème : elle analyse une collection de documents inconnus, les regroupe automatiquement par type, puis génère les schémas de configuration prêts à l'emploi. Le pipeline repose sur AWS Step Functions pour l'orchestration, AWS Lambda pour le calcul serverless, Amazon S3 pour le stockage, et les modèles disponibles via Amazon Bedrock pour la génération des schémas, dont le modèle d'embeddings Cohere Embed v4 utilisé par défaut.

L'intérêt opérationnel est considérable pour les équipes qui traitent des volumes documentaires hétérogènes. Là où le module Discovery existant nécessitait de connaître ses classes de documents à l'avance et de fournir un exemple par classe, la nouvelle approche supprime ce prérequis. Le système génère d'abord un embedding visuel pour chaque document, en se basant sur la première page uniquement pour les documents multi-pages, puis utilise le score de silhouette pour déterminer automatiquement le nombre de clusters pertinents. Un agent construit avec Strands Agents et un LLM Bedrock analyse ensuite chaque cluster pour identifier le type de document et produire un schéma. Une étape de "réflexion" finale compare l'ensemble des schémas générés pour détecter les chevauchements et incohérences avant validation humaine. Cette approche réduit drastiquement le travail préparatoire qui, à grande échelle, pouvait représenter des semaines de labelling manuel.

Le choix des embeddings visuels plutôt que textuels, via OCR, est une décision technique délibérée : la mise en page, le formatage et la structure visuelle d'un document permettent de distinguer des types documentaires même lorsque leur contenu textuel se ressemble. Ce positionnement s'inscrit dans la stratégie plus large d'AWS de faire de Bedrock un socle central pour les workflows d'IA en entreprise, en y adossant des briques comme Strands Agents pour la partie agentique. La solution reste open-source, disponible sur GitHub, ce qui permet aux équipes de l'adapter à leurs propres collections. L'enjeu sous-jacent est de rendre accessibles les initiatives IDP à des organisations qui ne disposent pas des ressources pour classifier manuellement leur patrimoine documentaire avant même de commencer à en extraire de la valeur.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1AWS ML Blog 

Amazon Finance automatise le traitement des demandes réglementaires grâce à l'IA générative sur AWS

Les équipes Finance Technology (FinTech) d'Amazon ont déployé un système automatisé de gestion des enquêtes réglementaires, construit sur Amazon Bedrock et plusieurs services AWS. Face à des milliers de documents à traiter, en formats PDF, Word, PowerPoint et CSV, et à des délais réglementaires stricts imposés par des autorités aux exigences très différentes selon les juridictions, les équipes ont développé une application basée sur la génération augmentée par récupération (RAG). Le coeur du système repose sur Amazon Bedrock Knowledge Bases couplé à Amazon OpenSearch Serverless pour le stockage vectoriel, Claude Sonnet 4.5 comme modèle de langage via l'API Converse Stream, et Amazon DynamoDB pour la gestion de l'historique des conversations. Chaque équipe FinTech maintient sa propre base de connaissances alimentée par ses documents spécifiques. Ce système change concrètement la façon dont des équipes internes traitent des demandes réglementaires complexes, qui nécessitent de croiser des milliers de précédents documentaires tout en maintenant le fil de conversations multi-tours sur plusieurs sessions. Avant cette solution, la fragmentation des connaissances entre différents systèmes d'infrastructure Amazon rendait la synthèse d'information lente et risquée. Désormais, les réponses sont contextuelles, s'appuient sur des données historiques précises, et s'affinent de manière itérative au fil des échanges. L'enjeu de conformité est central : une réponse inexacte ou basée sur une directive réglementaire obsolète peut exposer Amazon à des violations juridiques directes. La difficulté majeure que ce projet révèle est celle de l'observabilité des systèmes d'IA dans des contextes réglementés. Les équipes ont intégré OpenTelemetry et Langfuse en auto-hébergement pour monitorer en continu les décisions du modèle, détecter les hallucinations, c'est-à-dire les cas où le modèle génère des informations absentes des documents sources, et surveiller la dérive de précision dans le temps, inévitable à mesure que les prompts, les modèles et le corpus documentaire évoluent. Le choix de ne pas mettre en cache les réponses LLM est délibéré : les enquêtes réglementaires sont trop contextuelles pour bénéficier d'un cache, dont le taux d'utilisation serait trop faible pour justifier la complexité. Ce déploiement illustre une tendance croissante chez les grandes entreprises tech à internaliser leurs systèmes RAG sur des infrastructures cloud propriétaires, plutôt que de s'appuyer sur des solutions SaaS tierces, notamment pour garder le contrôle sur la traçabilité et la conformité des réponses générées.

UELes équipes techniques européennes confrontées aux enquêtes réglementaires (RGPD, AI Act) peuvent s'inspirer de cette architecture RAG multi-sources pour automatiser leur gestion de conformité.

OutilsActu
1 source
Sun Finance automatise l'extraction d'identifiants et la détection de fraude avec l'IA générative sur AWS
2AWS ML Blog 

Sun Finance automatise l'extraction d'identifiants et la détection de fraude avec l'IA générative sur AWS

Sun Finance, fintech lettone fondée en 2017, a déployé en janvier 2026 un pipeline de vérification d'identité entièrement repensé grâce à l'intelligence artificielle générative d'AWS. L'entreprise, active dans neuf pays, traite un dossier de prêt toutes les 0,63 secondes et réalise plus de 4 millions d'évaluations par mois. Sur son marché des microcrédits, quelque 80 000 demandes sont soumises chaque mois, dont 60 % aboutissaient jusqu'ici dans des files d'attente de révision manuelle. En partenariat avec l'AWS Generative AI Innovation Center, Sun Finance a reconstruit son pipeline en combinant Amazon Bedrock, Amazon Textract et Amazon Rekognition. Le projet a duré 107 jours ouvrés au total, du lancement le 26 août 2025 à la mise en production le 22 janvier 2026, incluant un gel de deux semaines pendant les fêtes. Résultat : la précision d'extraction des données documentaires est passée de 79,7 % à 90,8 %, le coût unitaire par document a chuté de 91 %, et le temps de traitement est tombé de 20 heures à moins de 5 secondes. L'impact est immédiat et quantifiable. En éliminant la majorité des interventions manuelles, Sun Finance libère environ trois équivalents temps plein dédiés à la vérification dans une seule région. La réduction du coût par dossier rend désormais rentable l'expansion vers des segments de microcrédits à faible valeur unitaire, jusqu'ici bloqués par les contraintes économiques. Pour les clients, le passage de plusieurs heures d'attente à une réponse quasi instantanée transforme radicalement l'expérience de demande de prêt. Sur le plan de la fraude, la détection automatisée par recherche de similarité vectorielle permet d'identifier les schémas répétitifs utilisés par des demandeurs malveillants qui soumettaient de multiples dossiers avec des images légèrement modifiées, environ 10 % des demandes quotidiennes étaient frauduleuses. La première version du système de vérification d'identité de Sun Finance datait de 2019, déjà bâtie sur Rekognition et Textract. L'expansion vers des marchés émergents a mis en évidence ses limites : les langues locales sont sous-représentées dans les corpus d'entraînement des OCR traditionnels, générant des erreurs fréquentes sur des documents bilingues. Parmi les 60 % de dossiers nécessitant une révision manuelle, 80 % étaient dus à des incohérences entre les données extraites et celles saisies par les clients, et dans 60 % de ces cas, la faute revenait à l'OCR, non à l'utilisateur. La solution actuelle, fondée sur une combinaison de reconnaissance de caractères spécialisée et de structuration par grand modèle de langage, surpasse chaque outil pris isolément. Ce projet illustre une tendance de fond dans la fintech : l'IA générative ne se substitue pas aux outils OCR classiques, elle les complète pour atteindre un niveau de fiabilité industrielle que ni l'un ni l'autre n'atteignent seuls.

UESun Finance, fintech lettone opérant dans neuf pays dont plusieurs en Europe, illustre concrètement comment des acteurs européens du crédit en ligne peuvent automatiser la vérification d'identité et réduire la fraude documentaire grâce à l'IA générative, avec des résultats mesurables (−91 % de coût unitaire, précision passée de 79,7 % à 90,8 %).

OutilsOutil
1 source
Anthropic dévoile des agents IA pour automatiser les tâches financières
3Le Big Data 

Anthropic dévoile des agents IA pour automatiser les tâches financières

Anthropic a dévoilé le 5 mai 2026 une suite de dix agents IA spécialisés dans l'automatisation des tâches financières complexes. Construits sur Claude Opus 4.7, ces agents ciblent les banques, sociétés de gestion d'actifs et équipes finance d'entreprise. Ils couvrent un spectre large : préparation de pitchs commerciaux, analyse de résultats d'entreprises, suivi de marchés, modélisation financière, rapprochement comptable, clôture mensuelle, audit d'états financiers et vérification KYC. Chaque agent combine des compétences métiers, des connecteurs de données et des sous-agents spécialisés. Sur le benchmark Finance Agent de Vals AI, Anthropic revendique un score de 64,37 % pour Claude Opus 4.7, ce qui en ferait le modèle le plus performant du marché sur les usages financiers selon l'entreprise. En parallèle, Anthropic intègre nativement Claude à Microsoft 365 via des modules complémentaires pour Excel, PowerPoint et Word, avec une extension Outlook annoncée prochainement. Une fonctionnalité appelée Dispatch permet également d'assigner des tâches à distance par message ou commande vocale, l'agent poursuivant alors le travail en arrière-plan sur les fichiers locaux. L'enjeu opérationnel est considérable pour les services financiers, où une part significative du temps des analystes est absorbée par des tâches répétitives à faible valeur ajoutée. L'intégration native avec Microsoft 365 est particulièrement stratégique : Claude peut construire un modèle financier dans Excel, le transférer automatiquement dans PowerPoint et générer une présentation qui se met à jour en temps réel quand les données changent. Dans Word, il peut adapter des notes de crédit aux standards internes d'une institution. La continuité contextuelle entre applications, argument central d'Anthropic, élimine la friction habituelle : les analystes n'ont plus à réexpliquer leur travail lorsqu'ils changent d'outil. Pour les institutions qui souhaiteraient personnaliser les agents, Anthropic permet d'adapter les modèles aux règles de conformité, politiques de risque ou méthodes d'évaluation propres à chaque organisation. Cette offensive s'inscrit dans une compétition féroce entre les grands laboratoires d'IA pour s'implanter durablement dans les workflows des services financiers, secteur perçu comme l'un des plus rentables pour les déploiements à grande échelle. Anthropic s'appuie sur des connecteurs vers les plateformes de données de référence du secteur, FactSet, S&P Capital IQ, PitchBook, Morningstar, LSEG, pour crédibiliser son offre face à des acteurs comme OpenAI ou Microsoft Copilot, déjà bien installés dans les grandes institutions. D'après le Wall Street Journal, la demande des institutions financières pour des outils IA pleinement intégrés dans les processus métiers est en forte croissance, et Anthropic cherche à se positionner non plus comme un fournisseur de modèle, mais comme une véritable plateforme opérationnelle. Le déploiement en quelques jours promis par l'entreprise reste à vérifier à l'échelle, mais le signal envoyé au marché est clair : Claude vise désormais le cœur des opérations financières.

UELes institutions financières européennes (banques, sociétés de gestion d'actifs) peuvent accéder à ces agents via Microsoft 365, mais devront évaluer leur conformité avec l'AI Act et les réglementations sectorielles avant tout déploiement à grande échelle.

💬 C'est le virage qu'on attendait : Anthropic arrête d'être un fournisseur de modèle pour devenir une plateforme métier à part entière. L'intégration dans M365, avec Claude qui garde le fil entre Excel, PowerPoint et Word sans qu'on lui réexplique tout à chaque changement d'outil, c'est là que ça peut vraiment mordre face à Copilot. Le 64,37% sur le benchmark Finance, bon, c'est leur propre terrain de jeu, faut attendre les vrais déploiements pour voir si ça tient.

OutilsOutil
1 source
Siemens lance un système d'IA pour l'ingénierie d'automatisation
4AI News 

Siemens lance un système d'IA pour l'ingénierie d'automatisation

Siemens a dévoilé l'Eigen Engineering Agent, un système d'intelligence artificielle conçu pour planifier et valider des tâches d'ingénierie en automatisation industrielle. Intégré directement dans la plateforme TIA Portal (Totally Integrated Automation Engineering), qui compte plus de 600 000 utilisateurs dans le monde, cet agent autonome est capable d'interpréter des cahiers des charges, de générer du code pour automates programmables (PLC), de configurer des interfaces homme-machine (HMI) et d'affiner ses résultats jusqu'à ce qu'ils atteignent les critères de performance définis. Le système décompose les problèmes d'ingénierie en étapes séquentielles, évalue chaque résultat en boucle fermée, puis soumet la version finale à la validation d'un ingénieur humain. Selon Siemens, il exécute ces tâches deux à cinq fois plus vite que les workflows manuels équivalents. Des pilotes ont été menés auprès de plus de 100 entreprises dans 19 pays, impliquant notamment ANDRITZ Metals, CASMT et Prism Systems. Prism Systems a utilisé l'outil pour générer et importer du code SCL (Structured Control Language), tandis que CASMT l'a appliqué à la configuration de dispositifs, la génération de code et la visualisation HMI dans des lignes de production, réduisant ainsi les transferts entre spécialistes et les délais de livraison. L'Eigen Engineering Agent est disponible au sein du portfolio Xcelerator de Siemens. L'enjeu est considérable pour un secteur industriel sous pression. Les estimations du marché prévoient un déficit mondial pouvant atteindre sept millions de travailleurs dans la fabrication d'ici 2030, avec environ un poste d'ingénieur sur cinq actuellement non pourvu dans certains secteurs. Un outil capable d'automatiser des tâches d'ingénierie complexes et répétitives sans sacrifier la précision représente donc une réponse directe à cette pénurie structurelle. Pour les industriels, cela signifie concrètement des cycles de développement raccourcis, moins de dépendance à des spécialistes rares, et la possibilité d'intégrer des environnements hérités ou non documentés grâce à la capacité du système à lire les hiérarchies de contrôle et les dépendances de composants existants. Cette annonce s'inscrit dans une stratégie d'investissement massive de Siemens dans l'IA industrielle, matérialisée par un engagement d'un milliard d'euros annoncé précédemment. Le groupe allemand mobilise aujourd'hui plus de 1 500 spécialistes en IA et détient plus de 2 000 familles de brevets liés à l'IA à l'échelle mondiale. Le lancement de l'Eigen Engineering Agent illustre la transition du secteur industriel vers des systèmes d'IA agentiques, capables non plus seulement d'assister, mais d'exécuter des workflows complets de bout en bout. Les déploiements initiaux se concentrent sur l'ingénierie d'automatisation, mais Siemens indique que l'architecture est conçue pour s'étendre à d'autres segments de la chaîne de valeur industrielle, ouvrant la voie à une automatisation plus large des processus d'ingénierie dans les usines connectées.

UESiemens, groupe industriel allemand de référence en Europe, déploie cet agent directement dans les usines manufacturières européennes confrontées à une pénurie structurelle d'ingénieurs en automatisation, avec un potentiel de réduction des délais de livraison et de la dépendance aux spécialistes rares dans le tissu industriel français et européen.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour