Aller au contenu principal
Accélérer la reconnaissance d'entités personnalisées avec les outils Claude dans Amazon Bedrock
OutilsAWS ML Blog6sem

Accélérer la reconnaissance d'entités personnalisées avec les outils Claude dans Amazon Bedrock

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon Bedrock intègre désormais une solution clé en main pour l'extraction d'entités personnalisées à partir de documents non structurés, en s'appuyant sur les capacités de Claude Tool use (aussi appelé function calling). Cette approche permet d'identifier et d'extraire des informations précises — noms, dates, adresses — sans entraînement de modèle préalable, simplement via des prompts en langage naturel.

L'enjeu est considérable pour les entreprises qui traitent de grands volumes de documents : factures, pièces d'identité, contrats. Les pipelines traditionnels d'extraction d'entités exigent des modèles spécialisés, des données d'entraînement étiquetées et une infrastructure dédiée. La combinaison Bedrock + Claude court-circuite cette complexité en rendant le processus dynamique et adaptable à tout type de document, sans configuration lourde.

L'architecture proposée est entièrement serverless et s'appuie sur trois services AWS : Amazon S3 reçoit les documents uploadés, AWS Lambda se déclenche automatiquement à chaque dépôt de fichier et interroge Amazon Bedrock, qui invoque Anthropic Claude pour extraire les entités. Les résultats sont tracés dans Amazon CloudWatch. L'exemple concret retenu est l'extraction de champs d'un permis de conduire — un cas d'usage représentatif de la reconnaissance de documents d'identité en production.

La solution est conçue pour monter en charge automatiquement, qu'il s'agisse de traiter quelques dizaines ou plusieurs milliers de documents. Elle suit les bonnes pratiques AWS en matière de gestion des permissions IAM et d'inférence cross-région pour les modèles Claude, ouvrant la voie à des déploiements en production robustes sans dépendance à une infrastructure fixe.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Amazon SageMaker AI accélère les appels d'outils des agents autonomes avec la personnalisation de modèles sans serveur
1AWS ML Blog 

Amazon SageMaker AI accélère les appels d'outils des agents autonomes avec la personnalisation de modèles sans serveur

Amazon a introduit une fonctionnalité de personnalisation de modèles sans serveur dans SageMaker AI, permettant aux équipes d'améliorer drastiquement les capacités d'appel d'outils des agents IA sans gérer d'infrastructure GPU. Dans un cas concret publié début avril 2026, des ingénieurs ont affiné le modèle Qwen 2.5 7B Instruct en utilisant la technique RLVR (Reinforcement Learning with Verifiable Rewards) et ont obtenu une amélioration de 57% du score de qualité des appels d'outils sur des scénarios inédits, c'est-à-dire des outils que le modèle n'avait jamais vus lors de l'entraînement. La méthode repose sur un principe simple : le modèle génère huit réponses candidates par prompt, une fonction de récompense vérifie lesquelles sont correctes, et l'algorithme GRPO (Group Relative Policy Optimization) renforce les comportements qui surpassent la moyenne du groupe. SageMaker AI prend en charge les familles de modèles Amazon Nova, Llama, Qwen et DeepSeek, avec un suivi des métriques via MLflow intégré. L'enjeu est concret : les agents IA en production échouent fréquemment lors des appels d'outils, qu'il s'agisse d'halluciner des fonctions inexistantes, de passer des paramètres incorrects, ou de déclencher une action là où ils devraient demander une clarification. Ces erreurs bloquent le déploiement en production et détruisent la confiance des utilisateurs. La nouvelle approche serverless d'Amazon supprime l'obstacle opérationnel majeur que représentait jusqu'ici le fine-tuning par renforcement : achat de GPU, orchestration mémoire entre les phases de rollout et d'entraînement, infrastructure de récompenses, gestion des checkpoints. Les équipes peuvent désormais se concentrer sur leurs données, leur modèle et leur fonction de récompense, le reste étant géré par la plateforme. Le fine-tuning supervisé classique (SFT) montre ses limites pour ce type de tâche : il nécessite des exemples étiquetés pour chaque comportement souhaité, mais peine à généraliser la prise de décision entre appeler un outil, demander des informations supplémentaires, ou refuser d'agir. RLVR contourne ce problème en exploitant la nature vérifiable des appels d'outils : soit le modèle a appelé la bonne fonction avec les bons paramètres, soit non. Cette objectivité binaire rend l'appel d'outils particulièrement adapté à l'apprentissage par renforcement. Amazon positionne cette offre dans un marché de l'IA agentique en forte croissance, où des acteurs comme Google (Vertex AI), Microsoft (Azure ML) et des startups spécialisées se disputent les équipes qui cherchent à industrialiser des agents fiables, avec un accès simplifié via SageMaker Studio et un compte AWS standard.

OutilsActu
1 source
Des workflows guidés par agents pour accélérer la personnalisation de modèles dans Amazon SageMaker AI
2AWS ML Blog 

Des workflows guidés par agents pour accélérer la personnalisation de modèles dans Amazon SageMaker AI

Amazon a lancé une expérience agentique intégrée dans SageMaker AI pour simplifier radicalement la personnalisation des modèles de langage. Jusqu'ici, adapter un modèle fondation à un cas d'usage métier exigeait de maîtriser des techniques comme le Supervised Fine-Tuning (SFT), le Direct Preference Optimization (DPO) ou le Reinforcement Learning Verifiable Rewards (RLVR), de naviguer entre des APIs fragmentées et des formats de données spécifiques à chaque modèle, et de gérer des cycles d'expérimentation qui s'étiraient sur plusieurs mois. Désormais, un développeur peut décrire son cas d'usage en langage naturel, et l'agent de codage prend en charge l'ensemble du parcours: définition du problème, préparation des données, sélection de la technique d'entraînement, évaluation de la qualité du modèle, puis déploiement vers Amazon Bedrock ou un endpoint SageMaker AI. Amazon Kiro, l'agent de développement logiciel d'Amazon, est préconfiguré par défaut dans l'environnement JupyterLab de SageMaker AI Studio, avec complétion de code, débogage assisté et support interactif. Les agents compatibles avec le protocole ACP (Agent Communication Protocol), dont Claude Code d'Anthropic, peuvent également être intégrés et bénéficier des mêmes fonctionnalités. La version 4.1 ou supérieure de SageMaker AI Distribution est requise, ainsi qu'un rôle IAM avec la politique gérée AmazonSageMakerFullAccess. Le coeur du dispositif repose sur des "Skills", des modules d'instructions préconçus et modulaires qui encapsulent l'expertise AWS et data science sur l'ensemble du cycle de personnalisation. Lorsqu'un développeur décrit son besoin, l'agent active automatiquement les Skills pertinents, qui le guident à travers la validation des données, la configuration des hyperparamètres et l'évaluation du modèle via des métriques LLM-as-a-Judge. Chaque étape génère des notebooks directement exécutables, entièrement modifiables et réutilisables dans des workflows existants. Un avantage opérationnel concret: les Skills réduisent la consommation de tokens tout en augmentant la précision des réponses, car l'agent dispose d'un contexte spécialisé plutôt que de connaissances génériques. Les organisations peuvent personnaliser ces Skills pour les aligner sur leurs standards de gouvernance, leurs outils internes et leurs pratiques d'équipe, résolvant ainsi un problème récurrent avec les assistants de codage généralistes qui ne reproduisent pas de manière fiable les conventions maison. L'annonce s'inscrit dans une dynamique plus large où la personnalisation des modèles devient le principal levier de différenciation concurrentielle, tous les acteurs ayant accès aux mêmes modèles fondations publics. Amazon positionne SageMaker AI comme une plateforme bout-en-bout pour les équipes qui veulent exploiter leurs données propriétaires sans assembler elles-mêmes une chaîne d'outils dispersés. La prise en charge du protocole ACP ouvre la voie à un écosystème d'agents tiers, signalant une stratégie d'interopérabilité plutôt que de verrouillage. Les prochaines étapes naturelles incluent l'extension de ce type d'expérience agentique à d'autres phases du cycle MLOps, comme la surveillance des modèles en production ou la gestion des dérives de données.

UELes équipes data européennes utilisant AWS SageMaker AI peuvent accélérer leurs projets de fine-tuning de modèles fondation sans expertise MLOps avancée, réduisant les délais de personnalisation sur données propriétaires.

OutilsOutil
1 source
Personnaliser l'expérience spectateur avec un assistant cinéma IA à base d'agents — Amazon Bedrock AgentCore et Nova Sonic 2.0
3AWS ML Blog 

Personnaliser l'expérience spectateur avec un assistant cinéma IA à base d'agents — Amazon Bedrock AgentCore et Nova Sonic 2.0

Amazon a dévoilé une architecture d'assistant IA conversationnel pour les plateformes de streaming vidéo, combinant Amazon Bedrock AgentCore et le nouveau modèle vocal Amazon Nova Sonic 2.0. Le système permet deux cas d'usage principaux : des recommandations de films personnalisées en temps réel selon l'humeur et le contexte de l'utilisateur, et une assistance contextuelle en cours de visionnage — permettant par exemple de demander à voix haute « qui est cet acteur ? » ou « résume ce qui vient de se passer » sans quitter le film. L'infrastructure repose sur AWS Fargate pour le traitement serveur, Amazon CloudFront et S3 pour le frontend, Amazon Cognito pour l'authentification, et OpenSearch combiné à S3 Vector pour la recherche sémantique. La communication entre le client et le serveur s'effectue via WebSocket avec validation de token JWT, tandis que le modèle vocal Nova Sonic 2.0 gère le streaming bidirectionnel en temps réel via un protocole RPC Smithy. Ce type de système représente un changement de paradigme pour les services de streaming : là où les moteurs de recommandation classiques — basés sur le filtrage collaboratif ou par contenu — se contentent de prolonger les habitudes passées, l'approche agentique intègre le contexte immédiat. Un utilisateur qui vient de regarder « Les Évadés » et veut se détendre ne se verra pas proposer un autre drame carcéral, mais quelque chose d'adapté à son état d'esprit exprimé en langage naturel. Pour les plateformes, cela ouvre la voie à une réduction du taux de désabonnement lié à la friction de découverte, l'une des principales causes d'attrition dans le secteur. Pour les utilisateurs, c'est l'équivalent d'un programmateur culturel personnel disponible en permanence. Le projet s'inscrit dans la montée en puissance des architectures dites « agentiques », où les modèles de langage ne se contentent plus de répondre à des requêtes isolées mais orchestrent des chaînes d'outils complexes. Amazon positionne ici son écosystème — Bedrock AgentCore, le protocole MCP (Model Context Protocol) pour exposer des fonctions Lambda comme outils d'agent, et Nova Sonic pour la voix — comme une pile verticale intégrée pour ce type d'application. C'est une réponse directe aux initiatives similaires de Google (avec Gemini Live) et d'OpenAI (avec les capacités vocales temps réel de GPT-4o). Le code source de la démonstration est disponible sur GitHub, signalant une stratégie d'adoption par les développeurs avant un déploiement commercial plus large. La bataille pour devenir l'infrastructure standard des expériences média augmentées par l'IA ne fait que commencer.

UELes plateformes de streaming européennes disposant d'une infrastructure AWS peuvent expérimenter cette architecture, mais aucune adoption ou réglementation spécifique à la France ou à l'UE n'est mentionnée.

OutilsOutil
1 source
4AWS ML Blog 

Les contrôles de raisonnement automatisé dans Amazon Bedrock au service de la conformité de l'IA générative

Amazon Web Services a intégré dans son service Bedrock Guardrails une fonctionnalité appelée Automated Reasoning checks, qui remplace la validation probabiliste des sorties d'IA par une vérification mathématique formelle. Contrairement à l'approche courante qui consiste à utiliser un second LLM pour évaluer les réponses d'un premier, cette technologie s'appuie sur des méthodes issues de la logique formelle, notamment les solveurs SAT et SMT, pour prouver qu'une réponse générée par une IA est cohérente avec un ensemble de règles définies. L'équipe Amazon Logistics figure parmi les premiers cas d'usage concrets, ayant réduit ses cycles de revue d'ingénierie grâce à ce système. Le dispositif se décompose en quatre étapes : encodage des règles métier, traduction des sorties de l'IA, moteur de vérification formelle, puis génération d'un résultat auditabl. L'enjeu est majeur pour les secteurs réglementés, où une réponse incorrecte d'un assistant IA peut avoir des conséquences juridiques ou financières directes. Dans le domaine de l'assurance, si un chatbot indique à un client qu'un sinistre est couvert, une validation par LLM-as-a-judge se contente de dire "ça semble correct". Les Automated Reasoning checks, elles, prouvent mathématiquement que la réponse respecte chaque clause de la police, et si ce n'est pas le cas, indiquent précisément quelle règle est violée et pourquoi. Pour les hôpitaux soumis aux normes de radioprotection, les institutions financières qui doivent se conformer à l'AI Act européen, ou les assureurs qui répondent à des questions de couverture, cette capacité à produire des preuves formelles et auditables représente un changement structurel : les équipes de conformité peuvent remplacer des semaines de revue manuelle et des consultants externes par des traces vérifiables automatiquement générées. Cette innovation s'inscrit dans des décennies de recherche en vérification formelle, une discipline qui sert déjà à valider des conceptions matérielles, des protocoles cryptographiques et des logiciels critiques pour la sécurité. AWS l'applique désormais à l'IA générative en combinant réseaux de neurones et raisonnement logique. L'outil fait partie d'un ensemble plus large de mécanismes d'IA responsable proposés dans Bedrock, aux côtés de garde-fous contre les hallucinations et les contenus inappropriés. Avec la montée en puissance des agents autonomes dans les environnements d'entreprise, et face à des régulateurs de plus en plus exigeants en matière de traçabilité des décisions algorithmiques, la capacité à produire des justifications mathématiquement fondées pourrait rapidement devenir une exigence standard dans les secteurs de la finance, de la santé et de l'énergie.

UELes entreprises européennes des secteurs financier et de la santé soumises à l'AI Act pourraient automatiser leur mise en conformité réglementaire grâce à cet outil, réduisant les coûts de revue manuelle et produisant des traces auditables exigibles par les régulateurs.

OutilsOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour