Aller au contenu principal
OutilsAWS ML Blog1h

Amazon Lex améliore la précision des bots grâce au NLU assisté

Résumé IASource uniqueImpact UE
Source originale ↗·
Amazon Lex améliore la précision des bots grâce au NLU assisté
▶ Voir sur YouTube

Amazon a enrichi son service de création de chatbots Amazon Lex avec une fonctionnalité baptisée Assisted NLU (Natural Language Understanding), qui intègre des grands modèles de langage pour améliorer significativement la compréhension des requêtes utilisateurs. Concrètement, le système atteint en moyenne 92 % de précision dans la classification des intentions et 84 % dans la résolution des paramètres de conversation (les "slots"). Parmi les centaines de clients déjà déployés sur cette fonctionnalité, les retours terrain font état d'une amélioration de 11 à 15 % de la classification des intentions, d'une réduction de 23,5 % des réponses de type "je n'ai pas compris", et d'une meilleure gestion de 30 % des entrées ambiguës ou mal formulées. La fonctionnalité est disponible en deux modes : un mode primaire où le LLM traite chaque entrée utilisateur, et un mode de secours où il n'intervient que lorsque le système traditionnel est en faible confiance. Elle est incluse sans surcoût dans la tarification standard d'Amazon Lex.

L'enjeu est de taille pour toutes les entreprises qui déploient des assistants conversationnels en production. Les systèmes classiques basés sur des règles imposaient aux développeurs de configurer manuellement des dizaines de variantes pour chaque formulation possible, sans jamais couvrir l'exhaustivité du langage naturel. Un bot de réservation hôtelière entraîné sur "réserver une chambre" échouait dès qu'un client disait "j'aimerais prendre une suite pour mon séjour à Seattle du 15 au 18 décembre", perdant au passage le type de chambre, la ville et les dates. Avec Assisted NLU, ces requêtes complexes ou ambiguës sont gérées sans configuration supplémentaire, ce qui réduit directement le taux d'abandon des conversations et allège la charge de maintenance pour les équipes techniques.

Amazon Lex existe depuis 2017, initialement comme le moteur NLU d'Alexa adapté aux développeurs tiers. La montée en puissance des LLMs a créé une pression sur tous les fournisseurs de plateformes conversationnelles pour intégrer ces modèles dans leurs pipelines. L'approche hybride retenue ici, combiner le ML traditionnel avec un LLM en mode fallback ou primaire, reflète une tendance de fond dans l'industrie : ne pas remplacer les anciens systèmes d'un coup, mais les augmenter progressivement pour amortir la transition. Plusieurs clients pilotes auraient déjà annoncé un déploiement plus large après leurs tests initiaux. La prochaine étape pour les équipes produit sera probablement d'affiner la façon dont les descriptions d'intentions et de slots alimentent le LLM, car c'est là que se joue désormais l'essentiel de la qualité de compréhension.

Impact France/UE

Les entreprises européennes déployant des chatbots en production peuvent bénéficier de cette amélioration de précision sans surcoût, réduisant directement les coûts de maintenance de leurs systèmes conversationnels.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google Home améliore la compréhension des commandes vocales grâce à Gemini
1The Verge AI 

Google Home améliore la compréhension des commandes vocales grâce à Gemini

Google a déployé une nouvelle mise à jour de son application Home intégrant des améliorations significatives à son assistant Gemini, rendant le contrôle de la maison connectée plus naturel et fiable. Désormais, les utilisateurs peuvent décrire l'ambiance lumineuse souhaitée en termes abstraits, comme "la couleur de l'océan", et Gemini choisit automatiquement la teinte correspondante. Il est également possible de formuler des commandes précises et conversationnelles, comme "préchauffe le four connecté à 180 degrés" ou définir un taux d'humidité spécifique, sans avoir à naviguer dans des menus. Ces améliorations ciblent directement l'un des points de friction majeurs de la domotique : la rigidité des commandes vocales traditionnelles. En permettant un langage plus libre et contextuel, Google abaisse la barrière d'usage pour des millions de foyers équipés d'appareils connectés. La capacité de Gemini à mieux identifier les appareils spécifiques réduit aussi les erreurs d'interprétation qui frustraient régulièrement les utilisateurs, rendant l'écosystème Home plus compétitif face à Amazon Alexa et Apple HomeKit. Google intensifie depuis plusieurs mois l'intégration de Gemini dans ses produits grand public, après avoir progressivement remplacé Google Assistant sur Android et les enceintes Nest. La maison connectée représente un terrain stratégique où la qualité de compréhension du langage naturel est décisive pour la fidélisation des utilisateurs. Cette mise à jour s'inscrit dans une course à l'IA conversationnelle appliquée au quotidien, où chaque grand acteur technologique cherche à rendre ses assistants indispensables dans les usages les plus concrets.

UEGoogle Home étant disponible en France, les utilisateurs français d'appareils connectés Nest et compatibles bénéficient directement de ces améliorations de compréhension vocale en langage naturel.

OutilsOutil
1 source
Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents
2AWS ML Blog 

Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents

Amazon a lancé Nova Act, un service AWS conçu pour automatiser les tests d'assurance qualité (QA) dans les pipelines de livraison logicielle. Contrairement aux frameworks traditionnels qui s'appuient sur des sélecteurs CSS, des identifiants d'éléments ou des références structurelles pour naviguer dans les interfaces, Nova Act utilise un modèle de compréhension visuelle et le langage naturel — exactement comme le ferait un utilisateur humain. La solution s'accompagne de QA Studio, une interface de référence incluant un frontend web, une API et une CLI, construite sur une infrastructure serverless AWS. Les équipes peuvent y créer des suites de tests via un assistant de parcours utilisateur, déclencher des exécutions à la demande, les planifier ou les intégrer directement dans leurs pipelines CI/CD. L'ensemble s'appuie sur Amazon Bedrock AgentCore Browser pour la prévisualisation en direct et AWS Secrets Manager pour la saisie sécurisée des données sensibles. L'enjeu est considérable pour les équipes produit et engineering. Dans les organisations actuelles, les critères d'acceptance sont définis par les product managers en langage métier, implémentés par les développeurs, puis retranscrits en code d'automatisation — souvent par ces mêmes développeurs. Ce fossé entre ceux qui comprennent les besoins utilisateurs et ceux qui maintiennent les tests crée une dette technique permanente : chaque refactoring d'interface ou ajustement de layout casse des dizaines de tests, même quand les fonctionnalités restent intactes. Nova Act supprime ce goulot d'étranglement en permettant à n'importe quel membre de l'équipe — y compris des non-développeurs — de rédiger et maintenir des tests en langage naturel. Quand un designer déplace un bouton ou qu'un développeur restructure un composant React, les tests s'adaptent automatiquement sans intervention manuelle. Cette annonce s'inscrit dans une course plus large des grands fournisseurs cloud à proposer des agents capables d'interagir avec des interfaces graphiques. OpenAI avec Operator, Anthropic avec Computer Use, et désormais AWS avec Nova Act ciblent tous le même marché : remplacer les scripts d'automatisation fragiles par des agents visuels autonomes. Pour AWS, l'intégration native dans l'écosystème Bedrock et les services managés représente un avantage compétitif face aux solutions standalone. Le marché du test logiciel automatisé pèse plusieurs milliards de dollars et souffre d'un taux d'échec élevé des projets d'automatisation traditionnels — souvent abandonnés après quelques mois faute de ressources pour maintenir les scripts. Si Nova Act tient ses promesses de résilience aux changements UI, il pourrait redistribuer significativement les cartes dans ce secteur et accélérer l'adoption de l'approche "shift-left" où les tests sont écrits dès la définition des exigences.

UELes équipes engineering européennes utilisant AWS peuvent intégrer Nova Act dans leurs pipelines CI/CD, mais aucun impact réglementaire ou institutionnel direct sur la France ou l'UE.

OutilsOutil
1 source
AgentCore Optimization : AWS lance une boucle d'amélioration des performances des agents
3AWS ML Blog 

AgentCore Optimization : AWS lance une boucle d'amélioration des performances des agents

Amazon a annoncé le lancement en préversion d'AgentCore Optimization, une nouvelle fonctionnalité intégrée à sa plateforme Amazon Bedrock AgentCore. Cette brique complète ce qu'Amazon appelle la boucle "observer, évaluer, améliorer" pour les agents IA en production. Concrètement, le système analyse automatiquement les traces de production, génère des recommandations d'optimisation pour les prompts système ou les descriptions d'outils, puis propose deux mécanismes de validation : l'évaluation par lot sur des jeux de données prédéfinis, et les tests A/B en conditions réelles via AgentCore Gateway, avec découpage du trafic en production à un pourcentage configurable et résultats assortis d'intervalles de confiance et de signification statistique. NTT DATA, partenaire annoncé lors du lancement, indique que des processus qui nécessitaient auparavant plusieurs semaines d'ajustement manuel de prompts peuvent désormais s'exécuter en cycles rapides et reproductibles. L'enjeu est de taille pour les équipes produit qui déploient des agents IA : la qualité d'un agent se dégrade silencieusement à mesure que les modèles évoluent, que le comportement des utilisateurs change, et que les prompts sont réutilisés dans des contextes imprévus. Jusqu'ici, la remédiation reposait entièrement sur l'intuition du développeur, lire des traces, formuler une hypothèse, réécrire le prompt, tester quelques cas, déployer, un cycle qui introduit souvent de nouveaux problèmes en corrigeant les anciens. AgentCore Optimization remplace cette boucle artisanale par un processus systématique fondé sur les données : les recommandations sont générées à partir des traces réelles et validées avant tout déploiement, éliminant la part de pari inhérente aux corrections en aveugle. Amazon Bedrock AgentCore, déjà utilisé par des milliers de développeurs pour construire des agents capables de raisonner et d'agir dans des workflows complexes, s'enrichit ainsi d'une couche d'amélioration continue qui manquait jusqu'à présent à l'écosystème. Les grandes équipes disposent certes d'équipes scientifiques dédiées et de benchmarks centralisés, mais ces dispositifs fonctionnent sur des cycles hebdomadaires ou mensuels, pendant que les agents dérivent en production chaque jour. En intégrant la traçabilité OpenTelemetry, les évaluateurs built-in (taux de succès, précision de sélection d'outils, sécurité), et la possibilité de simuler des jeux de données via un acteur LLM jouant le rôle de l'utilisateur final, Amazon positionne AgentCore comme une plateforme complète pour industrialiser l'optimisation des agents, une capacité qui pourrait devenir un critère de choix déterminant face à des concurrents comme Google Vertex AI ou Microsoft Azure AI Foundry.

UELes équipes européennes déployant des agents IA sur Amazon Bedrock peuvent désormais automatiser l'optimisation de leurs prompts et outils, réduisant des cycles d'ajustement manuel qui duraient plusieurs semaines à des itérations rapides et reproductibles.

OutilsOutil
1 source
Amazon Quick : accélérer le chemin des données d'entreprise vers les décisions assistées par IA
4AWS ML Blog 

Amazon Quick : accélérer le chemin des données d'entreprise vers les décisions assistées par IA

Amazon vient d'annoncer cinq nouvelles fonctionnalités pour Amazon Quick, sa plateforme d'analyse de données propulsée par l'IA, pensées pour les grandes entreprises qui gèrent des dizaines de millions de lignes de données réparties sur de multiples domaines métier. La fonctionnalité phare, Dataset Q&A, permet à n'importe quel utilisateur de poser une question en langage naturel directement sur ses datasets et d'obtenir une réponse en quelques secondes, sans passer par un analyste ni attendre la création d'un tableau de bord sur mesure. Le système génère automatiquement du SQL, l'exécute sur l'intégralité des données sans échantillonnage, et renvoie un résultat chiffré accompagné d'une explication complète de la logique utilisée : requête SQL générée, filtres appliqués, hypothèses formulées, et résumé en langage courant pour les non-techniciens. Le programme AWS Technical Field Communities a déjà mis cette approche en pratique : la précision des requêtes a progressé de plus de 48 %, et le temps de résolution est passé de 90 minutes à moins de 5 minutes pour une communauté de plus de 15 000 membres. Ce que change Amazon Quick, c'est l'élimination du goulet d'étranglement humain qui ralentit habituellement la prise de décision en entreprise. Lorsqu'un dirigeant veut savoir comment évolue le taux de désabonnement d'un produit, la réponse nécessite aujourd'hui soit un tableau de bord préexistant, soit une requête manuelle par un analyste, soit l'attente d'un ticket résolu en heures, voire en jours. En rendant l'accès aux données aussi direct que poser une question, Amazon Quick réduit ce délai à quelques secondes tout en préservant la gouvernance : les politiques de sécurité au niveau des lignes et des colonnes déjà configurées s'appliquent automatiquement aux requêtes générées par l'IA, sans configuration supplémentaire. L'utilisateur ne voit que ce qu'il est autorisé à voir, peu importe la formulation de sa question. Amazon Quick s'inscrit dans une tendance de fond qui voit les grands fournisseurs cloud chercher à démocratiser l'accès aux données d'entreprise via des interfaces conversationnelles. Face à des concurrents comme Microsoft Fabric avec Copilot ou Google Looker Studio, Amazon mise sur la fiabilité et l'auditabilité des réponses, deux points critiques pour les grandes organisations soumises à des exigences réglementaires strictes. Le défi technique central n'est pas la génération de SQL, mais la résolution des ambiguïtés sémantiques : quand un utilisateur parle de "croissance", entend-il des transactions, des clients, du revenu ou des unités vendues ? La fonctionnalité d'enrichissement sémantique permet aux équipes data de codifier les définitions métier directement dans les métadonnées des datasets, afin que l'IA réponde selon le vocabulaire réel de l'organisation plutôt qu'une interprétation approximative des noms de colonnes.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour