Aller au contenu principal
Amazon QuickSight va plus loin que la BI classique avec sa fonction Questions-Réponses sur les données
OutilsAWS ML Blog1h

Amazon QuickSight va plus loin que la BI classique avec sa fonction Questions-Réponses sur les données

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon a dévoilé une fonctionnalité appelée Dataset Q&A, intégrée à son outil de business intelligence Amazon QuickSight, qui permet aux équipes d'interroger leurs données en langage naturel sans avoir à construire de nouveaux tableaux de bord. Concrètement, un responsable peut poser une question complexe directement dans une interface de chat et obtenir une réponse précise en quelques secondes, en s'appuyant sur les jeux de données existants. Pour illustrer le potentiel de cette technologie, AWS a développé en interne un agent analytique baptisé TARA (Technical Analysis Research Agent), conçu par l'équipe Specialist Data Lens. TARA connecte plusieurs ensembles de données intégrés, des API système en temps réel et des agents de recherche spécialisés via le protocole MCP, le tout au travers d'une interface conversationnelle unifiée. Le programme AWS Technical Field Communities, qui gère des centaines de milliers d'engagements clients par an dans des dizaines de domaines technologiques, utilise déjà TARA pour piloter ses opérations au quotidien.

L'enjeu est considérable pour toute organisation qui dépend de la donnée pour prendre des décisions rapides. Avant l'arrivée de ce type d'outil, une question d'un dirigeant se transformait en interruption pour un ingénieur BI : ce dernier suspendait ses travaux planifiés, construisait l'agrégation demandée, renvoyait une réponse qui générait inévitablement de nouvelles questions. Le vrai coût n'était pas dans l'exécution de la requête, mais dans le délai de transmission entre celui qui pose la question et celui qui dispose des outils pour y répondre. Avec Dataset Q&A, ce goulot d'étranglement disparaît : les équipes explorent librement des dimensions multiples sans file d'attente, sans perturber les tableaux de bord opérationnels dont dépendent leurs collègues. Par ailleurs, TARA gère la protection des données personnelles (PII) de manière native, permettant de faire remonter du contexte qualitatif sensible de façon sécurisée, ce qui était jusqu'ici un obstacle majeur à l'analyse conversationnelle en entreprise.

Cette évolution s'inscrit dans une tendance de fond : les outils de BI traditionnels, pensés pour répondre à des questions connues à l'avance, montrent leurs limites face à la complexité croissante des opérations à grande échelle. AWS n'est pas seul sur ce terrain. Microsoft, Google et des acteurs spécialisés comme ThoughtSpot ou Databricks investissent massivement dans des interfaces en langage naturel pour démocratiser l'accès à la donnée. Ce qui distingue l'approche d'Amazon est l'intégration native dans QuickSight, déjà largement déployé chez les entreprises clientes du cloud AWS, et la possibilité de connecter des sources hétérogènes via MCP. TARA reste pour l'instant un outil interne à AWS, mais les capacités Dataset Q&A sur lesquelles il repose sont disponibles pour tous les clients QuickSight, ouvrant la voie à des déploiements similaires dans d'autres secteurs.

Impact France/UE

Les entreprises européennes clientes d'Amazon QuickSight peuvent adopter dès maintenant cette fonctionnalité d'interrogation en langage naturel, réduisant leur dépendance aux équipes BI pour l'analyse ad hoc.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick
1AWS ML Blog 

Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick

Visier, plateforme d'intelligence des ressources humaines basée dans le cloud, et Amazon Quick, l'espace de travail agentique d'IA d'Amazon, ont annoncé une intégration technique permettant à leurs systèmes de fonctionner de concert via le Model Context Protocol (MCP), un standard ouvert d'interopérabilité pour agents IA. Concrètement, Visier centralise les données RH d'une organisation, SIRH, paie, gestion des talents, suivi des candidatures, et les rend accessibles en temps réel à travers son assistant IA interne appelé Vee. Amazon Quick, de son côté, sert d'interface unifiée où les collaborateurs posent leurs questions, automatisent des processus et construisent des agents travaillant en leur nom. Le MCP joue le rôle d'adaptateur universel entre les deux systèmes, sans nécessiter d'intégration personnalisée. L'intérêt concret de cette connexion est illustré par deux profils types : Maya, Business Partner RH qui prépare un bilan de santé organisationnel pour un comité de direction, et David, responsable financier qui suit l'évolution des effectifs par rapport aux budgets prévisionnels. Avant cette intégration, chacun devait interroger plusieurs outils séparément, recouper manuellement des données issues de sources hétérogènes, et passer d'un tableau de bord à l'autre. Désormais, depuis Amazon Quick, ils peuvent poser une question en langage naturel et obtenir une réponse qui croise simultanément les données live de Visier, les politiques internes de recrutement, les objectifs financiers et le contexte historique, sans changer d'outil. Pour Maya, cela signifie accéder instantanément aux taux d'attrition, aux performances moyennes par département ou à la durée de tenure. Pour David, obtenir les chiffres d'effectifs en temps réel mesurés contre les cibles budgétaires. Cette intégration s'inscrit dans une tendance de fond : la multiplication des architectures dites "multi-agents", où des plateformes spécialisées exposent leurs capacités via des protocoles standardisés plutôt que des connecteurs ad hoc. Le MCP, popularisé depuis fin 2024, est devenu le langage commun qui permet à des outils comme Visier de s'insérer dans des écosystèmes IA plus larges sans friction technique. Visier, qui s'appuie sur des données anonymisées de millions de salariés pour ses benchmarks sectoriels, cherche ainsi à étendre sa portée au-delà des équipes RH vers l'ensemble des décideurs de l'entreprise. Amazon Quick, en agrégeant ces sources d'intelligence métier dans un seul espace conversationnel, parie sur le fait que la valeur de l'IA en entreprise réside moins dans les modèles eux-mêmes que dans leur capacité à connecter des silos de données jusqu'ici cloisonnés.

OutilsOutil
1 source
2AWS ML Blog 

Créer des fonctions de récompense efficaces avec AWS Lambda pour personnaliser Amazon Nova

Amazon Web Services propose une méthode concrète pour personnaliser ses modèles de langage Amazon Nova grâce à AWS Lambda comme moteur d'évaluation. L'approche repose sur le Reinforcement Fine-tuning (RFT), une technique d'apprentissage par renforcement qui se distingue du traditionnel Supervised Fine-tuning (SFT) : là où le SFT exige des milliers d'exemples annotés avec des raisonnements détaillés, le RFT apprend à partir de signaux d'évaluation appliqués aux réponses finales du modèle. Concrètement, une fonction Lambda reçoit les réponses générées par Nova lors de l'entraînement, les évalue selon plusieurs critères (exactitude, sécurité, formatage, concision) et retourne un score numérique, généralement compris entre -1 et 1. Les scores élevés renforcent les comportements positifs ; les scores faibles les découragent. Ce cycle se répète des milliers de fois pour affiner progressivement le modèle, avec Amazon CloudWatch qui surveille la distribution des scores en temps réel. L'intérêt de cette architecture est double, technique et économique. Sur le plan technique, elle permet de définir des systèmes de récompense multi-dimensionnels qui capturent des critères de qualité nuancés, réduisant ainsi le risque de "reward hacking", ces situations où un modèle exploite des raccourcis pour maximiser son score sans réellement progresser sur les objectifs visés. Un cas typique serait une réponse de service client qui doit simultanément être précise, empathique, concise et conforme à l'identité de la marque : autant de critères difficiles à couvrir avec des exemples annotés. Sur le plan économique, Lambda s'adapte automatiquement à la charge d'entraînement sans qu'une équipe ait à gérer une infrastructure dédiée, rendant la personnalisation de modèles fondamentaux accessible à des développeurs sans expertise approfondie en machine learning. Cette publication s'inscrit dans une concurrence intense entre les grands fournisseurs cloud pour démocratiser la personnalisation des grands modèles de langage. Google, Microsoft et AWS se disputent les entreprises qui souhaitent adapter des modèles fondamentaux à leurs cas d'usage métier sans repartir de zéro. Amazon Nova, lancé fin 2024, représente l'offensive d'AWS sur ce marché avec une gamme de modèles positionnés sur le rapport performance/coût. En proposant une intégration native entre RFT, Lambda et CloudWatch, AWS cherche à réduire la friction technique qui freine encore l'adoption en entreprise. Deux variantes coexistent selon les besoins : RLVR (Reinforcement Learning via Verifiable Rewards) pour les tâches à réponses objectivement vérifiables comme du code ou des calculs, et RLAIF (Reinforcement Learning via AI Feedback) pour des évaluations plus subjectives. Les prochaines étapes logiques seront l'extension de ces outils à d'autres modèles Nova et une intégration plus poussée avec les pipelines MLOps existants sur AWS.

OutilsOutil
1 source
Exploiter l'analyse IA à base d'agents sur Amazon SageMaker avec Amazon Athena et Amazon Quick
3AWS ML Blog 

Exploiter l'analyse IA à base d'agents sur Amazon SageMaker avec Amazon Athena et Amazon Quick

Amazon a dévoilé une architecture d'analyse de données intégrant de l'intelligence artificielle agentique sur Amazon SageMaker, combinant Amazon Athena et Amazon QuickSight pour permettre aux utilisateurs métier d'interroger des lacs de données complexes en langage naturel. La solution repose sur une architecture lakehouse construite à partir des jeux de données de référence TPC-H (100 Go hébergés sur S3), et s'appuie sur plusieurs couches technologiques : Amazon S3 comme stockage principal, AWS Glue pour le catalogage des métadonnées, Athena pour les requêtes SQL serverless, et QuickSight avec son moteur SPICE (Super-fast, Parallel, In-memory Calculation Engine) pour la visualisation et l'interface conversationnelle. Les données sont stockées en trois formats distincts, CSV, Apache Iceberg-Parquet avec support ACID et time-travel, et Amazon S3 Tables avec support natif Iceberg, afin d'illustrer la polyvalence d'une architecture data lake moderne. Un agent IA conversationnel, alimenté par des bases de connaissances enrichies via un crawler web, permet ensuite d'interroger ces données structurées et non structurées depuis une interface en langage naturel. L'enjeu principal est la démocratisation de l'accès aux données au sein des grandes organisations. Aujourd'hui, interroger un lac de données pétaoctet exige des compétences pointues en SQL, en modélisation de données et en outils de business intelligence, autant de barrières qui ralentissent la prise de décision dans des secteurs comme la finance, la santé, le retail ou la logistique. En substituant ces interfaces techniques par un agent conversationnel, Amazon permet à des profils non-techniques d'obtenir des insights directement exploitables sans passer par des équipes data. Pour les entreprises, cela signifie moins de goulots d'étranglement, des cycles d'analyse raccourcis, et une gouvernance des données maintenue grâce aux contrôles de sécurité intégrés dans l'écosystème AWS. Cette annonce s'inscrit dans une course plus large entre les grands fournisseurs cloud, AWS, Google et Microsoft, pour intégrer des agents IA directement dans leurs plateformes analytiques. Amazon capitalise ici sur son écosystème existant : QuickSight Q, lancé il y a plusieurs années comme interface NLP pour la BI, monte en puissance avec l'intégration de bases de connaissances et d'espaces collaboratifs (Quick Spaces). La combinaison d'Athena, qui facture à la requête sans serveur à maintenir, et d'agents capables de mélanger données structurées et documentation non structurée, positionne AWS comme un acteur sérieux dans l'analytics agentique d'entreprise. La prochaine étape logique sera l'automatisation complète du cycle analyse-décision-action, où l'agent ne se contente plus de répondre mais déclenche directement des workflows métier.

UELes entreprises européennes déployées sur AWS peuvent adopter cette architecture d'analytics agentique pour réduire leur dépendance aux équipes data, mais l'annonce ne cible pas spécifiquement le marché ou les régulations européennes.

OutilsOutil
1 source
4AWS ML Blog 

Optimiser la recherche sémantique vidéo avec la distillation de modèles Amazon Nova sur Amazon Bedrock

Amazon Web Services a publié un tutoriel détaillé expliquant comment utiliser la technique de distillation de modèles sur Amazon Bedrock pour optimiser les systèmes de recherche sémantique vidéo. Le cœur du problème : les modèles de grande taille comme Claude Haiku d'Anthropic offrent une excellente précision pour interpréter l'intention de recherche des utilisateurs, mais ils allongent le temps de réponse à 2 à 4 secondes, représentant à eux seuls 75 % de la latence totale. La solution proposée consiste à transférer l'intelligence de routage d'un grand modèle dit "enseignant", Amazon Nova Premier, vers un modèle beaucoup plus léger dit "étudiant", Amazon Nova Micro. Le résultat : une réduction des coûts d'inférence de plus de 95 % et une baisse de la latence de 50 %, sans sacrifier la qualité de routage. L'enjeu est considérable pour les entreprises qui gèrent de larges catalogues vidéo. Lorsqu'un utilisateur tape "Olivia qui parle de son enfance dans la pauvreté", le système doit décider automatiquement quels aspects de la vidéo interroger en priorité : les métadonnées textuelles, la transcription audio, les données visuelles ou les informations structurées. Cette logique de routage devient rapidement complexe à l'échelle enterprise, où les attributs peuvent inclure les angles de caméra, le sentiment, les droits de diffusion ou des taxonomies métier propriétaires. Un modèle plus petit et distillé qui maîtrise cette tâche précise permet de traiter davantage de requêtes simultanément, à un coût marginal quasi nul, ce qui change fondamentalement l'équation économique des moteurs de recherche multimodaux. La distillation de modèles se distingue du fine-tuning supervisé classique par un avantage pratique majeur : elle ne nécessite pas de dataset entièrement étiqueté par des humains. Amazon Bedrock génère automatiquement jusqu'à 15 000 paires prompt-réponse en interrogeant le modèle enseignant, en appliquant des techniques de synthèse et d'augmentation de données. Dans ce pipeline, 10 000 exemples synthétiques ont été produits via Nova Premier, chargés sur Amazon S3, puis utilisés pour entraîner Nova Micro. Le modèle résultant est ensuite évalué via Amazon Bedrock Model Evaluation, comparé à la base Nova Micro et au Claude Haiku original. AWS a publié l'intégralité du notebook Jupyter, le script de génération des données et les utilitaires d'évaluation sur GitHub, rendant cette approche reproductible pour toute équipe souhaitant industrialiser la recherche vidéo à grande échelle.

OutilsTuto
1 source