Aller au contenu principal
Exploiter l'analyse IA à base d'agents sur Amazon SageMaker avec Amazon Athena et Amazon Quick
OutilsAWS ML Blog1h

Exploiter l'analyse IA à base d'agents sur Amazon SageMaker avec Amazon Athena et Amazon Quick

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon a dévoilé une architecture d'analyse de données intégrant de l'intelligence artificielle agentique sur Amazon SageMaker, combinant Amazon Athena et Amazon QuickSight pour permettre aux utilisateurs métier d'interroger des lacs de données complexes en langage naturel. La solution repose sur une architecture lakehouse construite à partir des jeux de données de référence TPC-H (100 Go hébergés sur S3), et s'appuie sur plusieurs couches technologiques : Amazon S3 comme stockage principal, AWS Glue pour le catalogage des métadonnées, Athena pour les requêtes SQL serverless, et QuickSight avec son moteur SPICE (Super-fast, Parallel, In-memory Calculation Engine) pour la visualisation et l'interface conversationnelle. Les données sont stockées en trois formats distincts, CSV, Apache Iceberg-Parquet avec support ACID et time-travel, et Amazon S3 Tables avec support natif Iceberg, afin d'illustrer la polyvalence d'une architecture data lake moderne. Un agent IA conversationnel, alimenté par des bases de connaissances enrichies via un crawler web, permet ensuite d'interroger ces données structurées et non structurées depuis une interface en langage naturel.

L'enjeu principal est la démocratisation de l'accès aux données au sein des grandes organisations. Aujourd'hui, interroger un lac de données pétaoctet exige des compétences pointues en SQL, en modélisation de données et en outils de business intelligence, autant de barrières qui ralentissent la prise de décision dans des secteurs comme la finance, la santé, le retail ou la logistique. En substituant ces interfaces techniques par un agent conversationnel, Amazon permet à des profils non-techniques d'obtenir des insights directement exploitables sans passer par des équipes data. Pour les entreprises, cela signifie moins de goulots d'étranglement, des cycles d'analyse raccourcis, et une gouvernance des données maintenue grâce aux contrôles de sécurité intégrés dans l'écosystème AWS.

Cette annonce s'inscrit dans une course plus large entre les grands fournisseurs cloud, AWS, Google et Microsoft, pour intégrer des agents IA directement dans leurs plateformes analytiques. Amazon capitalise ici sur son écosystème existant : QuickSight Q, lancé il y a plusieurs années comme interface NLP pour la BI, monte en puissance avec l'intégration de bases de connaissances et d'espaces collaboratifs (Quick Spaces). La combinaison d'Athena, qui facture à la requête sans serveur à maintenir, et d'agents capables de mélanger données structurées et documentation non structurée, positionne AWS comme un acteur sérieux dans l'analytics agentique d'entreprise. La prochaine étape logique sera l'automatisation complète du cycle analyse-décision-action, où l'agent ne se contente plus de répondre mais déclenche directement des workflows métier.

Impact France/UE

Les entreprises européennes déployées sur AWS peuvent adopter cette architecture d'analytics agentique pour réduire leur dépendance aux équipes data, mais l'annonce ne cible pas spécifiquement le marché ou les régulations européennes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Des agents d'intégration des employés par IA avec Amazon Quick
1AWS ML Blog 

Des agents d'intégration des employés par IA avec Amazon Quick

Amazon a lancé Quick, un service d'agents IA entièrement géré et sans code, conçu pour automatiser l'onboarding des nouveaux employés en entreprise. Concrètement, Quick permet aux équipes RH de créer des assistants conversationnels capables de répondre aux questions des nouvelles recrues sur les politiques internes, les avantages sociaux ou les procédures administratives, de suivre la complétion des documents de conformité, et de traiter automatiquement les tickets courants, comme une demande d'équipement IT via ServiceNow ou l'envoi d'un message de bienvenue sur Slack. Le service s'intègre aux outils existants de l'entreprise : SharePoint, OneDrive, Confluence, Amazon S3, et les outils de gestion de projet. Il repose sur trois composants clés : des bases de connaissances indexées depuis ces sources multiples, des connecteurs d'actions permettant à l'agent d'agir directement dans les systèmes tiers, et des espaces collaboratifs qui regroupent fichiers, tableaux de bord et bases de connaissances pour une équipe donnée. L'enjeu est significatif pour les grandes organisations : les entreprises perdent un temps considérable par nouvelle recrue pendant la période d'intégration, les employés n'atteignant souvent qu'une fraction de leur productivité potentielle durant le premier mois. Les équipes RH, elles, s'épuisent à répondre aux mêmes questions répétitives, à basculer entre wikis, emails, outils de ticketing et plateformes de messagerie pour coordonner chaque étape. Avec Quick, un agent unifié centralise toutes ces interactions : il présente la checklist d'onboarding à jour, répond avec un langage validé par l'entreprise, ouvre des demandes dans les outils métier, et oriente le nouvel arrivant vers l'étape suivante, le tout sans intervention manuelle d'un chargé RH. Ce lancement s'inscrit dans la stratégie plus large d'Amazon Web Services d'imposer ses services managés dans les workflows d'entreprise, face à des concurrents comme Microsoft Copilot ou ServiceNow Now Assist qui occupent déjà ce terrain. L'approche sans code de Quick vise explicitement les équipes RH non techniques, qui peuvent configurer leurs agents via une interface visuelle plutôt que du développement sur mesure. Deux modes coexistent : un assistant système généraliste disponible par défaut, et des agents personnalisés adaptés aux processus spécifiques de chaque organisation. La question qui se pose désormais est celle de l'adoption réelle dans des environnements enterprise souvent fragmentés, où les intégrations avec des dizaines d'outils legacy restent le principal frein, et où la gouvernance des données RH sensibles transitant par un service cloud tiers soulèvera inévitablement des questions de conformité.

UELes entreprises européennes devront évaluer la conformité RGPD avant de confier des données RH sensibles à ce service cloud américain.

OutilsOutil
1 source
Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick
2AWS ML Blog 

Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick

Visier, plateforme d'intelligence des ressources humaines basée dans le cloud, et Amazon Quick, l'espace de travail agentique d'IA d'Amazon, ont annoncé une intégration technique permettant à leurs systèmes de fonctionner de concert via le Model Context Protocol (MCP), un standard ouvert d'interopérabilité pour agents IA. Concrètement, Visier centralise les données RH d'une organisation, SIRH, paie, gestion des talents, suivi des candidatures, et les rend accessibles en temps réel à travers son assistant IA interne appelé Vee. Amazon Quick, de son côté, sert d'interface unifiée où les collaborateurs posent leurs questions, automatisent des processus et construisent des agents travaillant en leur nom. Le MCP joue le rôle d'adaptateur universel entre les deux systèmes, sans nécessiter d'intégration personnalisée. L'intérêt concret de cette connexion est illustré par deux profils types : Maya, Business Partner RH qui prépare un bilan de santé organisationnel pour un comité de direction, et David, responsable financier qui suit l'évolution des effectifs par rapport aux budgets prévisionnels. Avant cette intégration, chacun devait interroger plusieurs outils séparément, recouper manuellement des données issues de sources hétérogènes, et passer d'un tableau de bord à l'autre. Désormais, depuis Amazon Quick, ils peuvent poser une question en langage naturel et obtenir une réponse qui croise simultanément les données live de Visier, les politiques internes de recrutement, les objectifs financiers et le contexte historique, sans changer d'outil. Pour Maya, cela signifie accéder instantanément aux taux d'attrition, aux performances moyennes par département ou à la durée de tenure. Pour David, obtenir les chiffres d'effectifs en temps réel mesurés contre les cibles budgétaires. Cette intégration s'inscrit dans une tendance de fond : la multiplication des architectures dites "multi-agents", où des plateformes spécialisées exposent leurs capacités via des protocoles standardisés plutôt que des connecteurs ad hoc. Le MCP, popularisé depuis fin 2024, est devenu le langage commun qui permet à des outils comme Visier de s'insérer dans des écosystèmes IA plus larges sans friction technique. Visier, qui s'appuie sur des données anonymisées de millions de salariés pour ses benchmarks sectoriels, cherche ainsi à étendre sa portée au-delà des équipes RH vers l'ensemble des décideurs de l'entreprise. Amazon Quick, en agrégeant ces sources d'intelligence métier dans un seul espace conversationnel, parie sur le fait que la valeur de l'IA en entreprise réside moins dans les modèles eux-mêmes que dans leur capacité à connecter des silos de données jusqu'ici cloisonnés.

OutilsOutil
1 source
Personnaliser l'expérience spectateur avec un assistant cinéma IA à base d'agents — Amazon Bedrock AgentCore et Nova Sonic 2.0
3AWS ML Blog 

Personnaliser l'expérience spectateur avec un assistant cinéma IA à base d'agents — Amazon Bedrock AgentCore et Nova Sonic 2.0

Amazon a dévoilé une architecture d'assistant IA conversationnel pour les plateformes de streaming vidéo, combinant Amazon Bedrock AgentCore et le nouveau modèle vocal Amazon Nova Sonic 2.0. Le système permet deux cas d'usage principaux : des recommandations de films personnalisées en temps réel selon l'humeur et le contexte de l'utilisateur, et une assistance contextuelle en cours de visionnage — permettant par exemple de demander à voix haute « qui est cet acteur ? » ou « résume ce qui vient de se passer » sans quitter le film. L'infrastructure repose sur AWS Fargate pour le traitement serveur, Amazon CloudFront et S3 pour le frontend, Amazon Cognito pour l'authentification, et OpenSearch combiné à S3 Vector pour la recherche sémantique. La communication entre le client et le serveur s'effectue via WebSocket avec validation de token JWT, tandis que le modèle vocal Nova Sonic 2.0 gère le streaming bidirectionnel en temps réel via un protocole RPC Smithy. Ce type de système représente un changement de paradigme pour les services de streaming : là où les moteurs de recommandation classiques — basés sur le filtrage collaboratif ou par contenu — se contentent de prolonger les habitudes passées, l'approche agentique intègre le contexte immédiat. Un utilisateur qui vient de regarder « Les Évadés » et veut se détendre ne se verra pas proposer un autre drame carcéral, mais quelque chose d'adapté à son état d'esprit exprimé en langage naturel. Pour les plateformes, cela ouvre la voie à une réduction du taux de désabonnement lié à la friction de découverte, l'une des principales causes d'attrition dans le secteur. Pour les utilisateurs, c'est l'équivalent d'un programmateur culturel personnel disponible en permanence. Le projet s'inscrit dans la montée en puissance des architectures dites « agentiques », où les modèles de langage ne se contentent plus de répondre à des requêtes isolées mais orchestrent des chaînes d'outils complexes. Amazon positionne ici son écosystème — Bedrock AgentCore, le protocole MCP (Model Context Protocol) pour exposer des fonctions Lambda comme outils d'agent, et Nova Sonic pour la voix — comme une pile verticale intégrée pour ce type d'application. C'est une réponse directe aux initiatives similaires de Google (avec Gemini Live) et d'OpenAI (avec les capacités vocales temps réel de GPT-4o). Le code source de la démonstration est disponible sur GitHub, signalant une stratégie d'adoption par les développeurs avant un déploiement commercial plus large. La bataille pour devenir l'infrastructure standard des expériences média augmentées par l'IA ne fait que commencer.

UELes plateformes de streaming européennes disposant d'une infrastructure AWS peuvent expérimenter cette architecture, mais aucune adoption ou réglementation spécifique à la France ou à l'UE n'est mentionnée.

OutilsOutil
1 source
Créer des agents Strands avec les modèles SageMaker AI et MLflow
4AWS ML Blog 

Créer des agents Strands avec les modèles SageMaker AI et MLflow

Amazon Web Services a publié un guide technique détaillant la construction d'agents d'intelligence artificielle en combinant trois de ses outils : le SDK open source Strands Agents, les endpoints de modèles Amazon SageMaker AI, et la plateforme d'observabilité MLflow hébergée sur SageMaker Serverless. Le SDK Strands, à approche pilotée par le modèle, permet de créer un agent fonctionnel en quelques lignes de code en associant un modèle de langage, un prompt système et un ensemble d'outils. Les modèles sont déployés via SageMaker JumpStart, un hub machine learning qui permet d'évaluer et de sélectionner rapidement des modèles de fondation selon des critères de qualité et de responsabilité prédéfinis. L'intégration de MLflow permet ensuite de tracer les appels d'agents, de versionner les modèles et d'implémenter des tests A/B entre plusieurs variantes de modèles pour en évaluer les performances à l'aide de métriques objectives. Cette architecture répond à un besoin concret des grandes entreprises qui ne peuvent pas se contenter des services de modèles entièrement gérés : contrôle précis sur les instances de calcul, politiques de mise à l'échelle, configuration réseau compatible avec les architectures de sécurité existantes, et conformité en matière de résidence des données. Là où Amazon Bedrock simplifie l'accès aux modèles de fondation en masquant l'infrastructure, SageMaker AI laisse à l'organisation la maîtrise de l'endroit et de la manière dont l'inférence se produit, ce qui est décisif pour les secteurs réglementés comme la finance ou la santé. La couche MLflow ajoute une dimension industrielle : les équipes peuvent comparer les performances de différents modèles dans des conditions réelles, réduire les coûts en sélectionnant le modèle le plus efficace pour chaque tâche, et maintenir un historique d'expériences exploitable dans le temps. La publication de ce guide s'inscrit dans une course plus large pour capter les déploiements d'agents IA en production. AWS répond ainsi à la demande croissante des équipes MLOps qui veulent bénéficier de la commodité du cloud tout en conservant une maîtrise fine de l'infrastructure, une position souvent impossible avec les APIs gérées de type Bedrock ou OpenAI. Strands Agents, rendu open source par Amazon, concurrence directement des frameworks comme LangChain ou CrewAI, avec l'avantage d'une intégration native dans l'écosystème AWS. L'accent mis sur les tests A/B et l'évaluation continue des agents signale que le secteur entre dans une phase de maturité : il ne s'agit plus seulement de faire fonctionner un agent, mais de le mesurer, le comparer, et l'améliorer de façon systématique en production.

UECette architecture de déploiement d'agents avec contrôle fin sur la résidence des données répond aux exigences du RGPD, la rendant pertinente pour les secteurs réglementés européens comme la finance et la santé.

OutilsOutil
1 source