Aller au contenu principal
Affiner les LLM avec des données non structurées via SageMaker Unified Studio et S3
OutilsAWS ML Blog6sem

Affiner les LLM avec des données non structurées via SageMaker Unified Studio et S3

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon Web Services vient de détailler une intégration permettant d'affiner des modèles de langage directement depuis des données non structurées stockées dans Amazon S3, en s'appuyant sur Amazon SageMaker Unified Studio. La démonstration s'appuie sur le modèle Llama 3.2 11B Vision Instruct de Meta, appliqué à des tâches de questions-réponses visuelles (VQA), comme l'extraction automatique d'informations depuis des reçus ou des documents scannés.

Cette intégration représente une avancée notable pour les équipes de data science et de machine learning qui travaillent avec des volumes importants de données brutes. Elle supprime la friction habituelle entre la couche de stockage et la couche d'entraînement, permettant une orchestration end-to-end — ingestion, prétraitement, entraînement, évaluation — au sein d'un même environnement unifié. Pour les entreprises ayant déjà massivement investi dans S3 comme lac de données, le passage à l'affinage de modèles devient considérablement plus accessible.

Sur le plan technique, AWS utilise le dataset DocVQA de Hugging Face, qui contient 39 500 lignes de données d'entraînement associant images, questions et réponses attendues. Le modèle de base atteint un score ANLS de 85,3 % — une métrique mesurant la similarité entre les réponses prédites et les réponses de référence. Trois versions affinées sont ensuite produites avec des volumes variables (1 000, 5 000 et 10 000 images), et leur performance est suivie via Amazon SageMaker MLflow en mode serverless. L'infrastructure d'entraînement repose sur des instances p4de.24xlarge, nécessitant une demande d'augmentation de quota auprès d'AWS.

Cette publication s'inscrit dans la stratégie d'AWS de démocratiser le fine-tuning de grands modèles en abaissant les barrières d'accès, notamment pour les équipes sans expertise MLOps approfondie. En centralisant catalogage, gouvernance des données et entraînement dans SageMaker Unified Studio, le cloud américain renforce sa position face aux offres concurrentes de Google Vertex AI et Microsoft Azure AI Foundry.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Créer des agents Strands avec les modèles SageMaker AI et MLflow
1AWS ML Blog 

Créer des agents Strands avec les modèles SageMaker AI et MLflow

Amazon Web Services a publié un guide technique détaillant la construction d'agents d'intelligence artificielle en combinant trois de ses outils : le SDK open source Strands Agents, les endpoints de modèles Amazon SageMaker AI, et la plateforme d'observabilité MLflow hébergée sur SageMaker Serverless. Le SDK Strands, à approche pilotée par le modèle, permet de créer un agent fonctionnel en quelques lignes de code en associant un modèle de langage, un prompt système et un ensemble d'outils. Les modèles sont déployés via SageMaker JumpStart, un hub machine learning qui permet d'évaluer et de sélectionner rapidement des modèles de fondation selon des critères de qualité et de responsabilité prédéfinis. L'intégration de MLflow permet ensuite de tracer les appels d'agents, de versionner les modèles et d'implémenter des tests A/B entre plusieurs variantes de modèles pour en évaluer les performances à l'aide de métriques objectives. Cette architecture répond à un besoin concret des grandes entreprises qui ne peuvent pas se contenter des services de modèles entièrement gérés : contrôle précis sur les instances de calcul, politiques de mise à l'échelle, configuration réseau compatible avec les architectures de sécurité existantes, et conformité en matière de résidence des données. Là où Amazon Bedrock simplifie l'accès aux modèles de fondation en masquant l'infrastructure, SageMaker AI laisse à l'organisation la maîtrise de l'endroit et de la manière dont l'inférence se produit, ce qui est décisif pour les secteurs réglementés comme la finance ou la santé. La couche MLflow ajoute une dimension industrielle : les équipes peuvent comparer les performances de différents modèles dans des conditions réelles, réduire les coûts en sélectionnant le modèle le plus efficace pour chaque tâche, et maintenir un historique d'expériences exploitable dans le temps. La publication de ce guide s'inscrit dans une course plus large pour capter les déploiements d'agents IA en production. AWS répond ainsi à la demande croissante des équipes MLOps qui veulent bénéficier de la commodité du cloud tout en conservant une maîtrise fine de l'infrastructure, une position souvent impossible avec les APIs gérées de type Bedrock ou OpenAI. Strands Agents, rendu open source par Amazon, concurrence directement des frameworks comme LangChain ou CrewAI, avec l'avantage d'une intégration native dans l'écosystème AWS. L'accent mis sur les tests A/B et l'évaluation continue des agents signale que le secteur entre dans une phase de maturité : il ne s'agit plus seulement de faire fonctionner un agent, mais de le mesurer, le comparer, et l'améliorer de façon systématique en production.

UECette architecture de déploiement d'agents avec contrôle fin sur la résidence des données répond aux exigences du RGPD, la rendant pertinente pour les secteurs réglementés européens comme la finance et la santé.

OutilsOutil
1 source
Construire un système de détection des éruptions solaires sur SageMaker AI avec des réseaux LSTM et les données ESA STIX
2AWS ML Blog 

Construire un système de détection des éruptions solaires sur SageMaker AI avec des réseaux LSTM et les données ESA STIX

Amazon Web Services propose une solution de détection automatique des éruptions solaires en combinant les réseaux de neurones LSTM (Long Short-Term Memory) et les données du spectromètre STIX de l'Agence spatiale européenne (ESA), le tout déployé sur la plateforme SageMaker AI. Le système analyse les émissions de rayons X solaires sur trois bandes d'énergie distinctes : basse (4–10 keV), moyenne (10–25 keV) et haute (25+ keV). Concrètement, l'architecture repose sur deux algorithmes complémentaires : le Random Cut Forest (RCF), un algorithme d'apprentissage non supervisé qui attribue des scores d'anomalie selon la densité des points de données, et le réseau LSTM, capable de mémoriser des dépendances temporelles sur de longues séquences — une propriété rare dans les réseaux de neurones classiques. L'instrument STIX, embarqué sur la sonde Solar Orbiter lancée par l'ESA, collecte en continu des volumes massifs de mesures X que ce pipeline est conçu à ingérer et analyser à grande échelle. L'enjeu est considérable : les éruptions solaires perturbent les communications radio, dégradent les orbites satellitaires et peuvent mettre en danger les astronautes. Une détection précoce et fiable conditionne directement la protection des infrastructures spatiales et des réseaux électriques terrestres. L'approche multi-canal apporte ici une valeur ajoutée concrète — les canaux basse énergie captent les phénomènes précurseurs, tandis que les canaux haute énergie trahissent les pics d'intensité les plus violents. Grâce aux propriétés de mémoire à long terme du LSTM, le modèle peut identifier des schémas d'évolution sur des périodes étendues, là où des méthodes statistiques classiques échoueraient. Pour les opérateurs de satellites commerciaux et les agences spatiales, cela se traduit par une fenêtre d'alerte élargie pour mettre en mode sécurisé les équipements sensibles. Cette publication s'inscrit dans une tendance plus large : l'application du machine learning à la physique solaire connaît une accélération marquée depuis que le volume de données issues des observatoires spatiaux dépasse les capacités d'analyse humaine. L'ESA et la NASA multiplient les missions dédiées à la météorologie spatiale — Solar Orbiter, Parker Solar Probe — générant des flux de mesures sans précédent. AWS, de son côté, cherche à positionner SageMaker comme la plateforme de référence pour les applications scientifiques à fort volume de données, en proposant des exemples concrets dans des domaines aussi variés que la climatologie ou l'astrophysique. La prochaine étape logique serait l'intégration de ce système dans des pipelines d'alerte opérationnels en temps réel, potentiellement couplés aux centres de prévision météorologique spatiale comme le Space Weather Prediction Center de la NOAA.

UEL'ESA est directement impliquée via l'instrument STIX de Solar Orbiter, et les opérateurs de satellites européens pourraient exploiter ce type de pipeline pour protéger leurs infrastructures face aux éruptions solaires.

OutilsOutil
1 source
Amazon SageMaker AI accélère les appels d'outils des agents autonomes avec la personnalisation de modèles sans serveur
3AWS ML Blog 

Amazon SageMaker AI accélère les appels d'outils des agents autonomes avec la personnalisation de modèles sans serveur

Amazon a introduit une fonctionnalité de personnalisation de modèles sans serveur dans SageMaker AI, permettant aux équipes d'améliorer drastiquement les capacités d'appel d'outils des agents IA sans gérer d'infrastructure GPU. Dans un cas concret publié début avril 2026, des ingénieurs ont affiné le modèle Qwen 2.5 7B Instruct en utilisant la technique RLVR (Reinforcement Learning with Verifiable Rewards) et ont obtenu une amélioration de 57% du score de qualité des appels d'outils sur des scénarios inédits, c'est-à-dire des outils que le modèle n'avait jamais vus lors de l'entraînement. La méthode repose sur un principe simple : le modèle génère huit réponses candidates par prompt, une fonction de récompense vérifie lesquelles sont correctes, et l'algorithme GRPO (Group Relative Policy Optimization) renforce les comportements qui surpassent la moyenne du groupe. SageMaker AI prend en charge les familles de modèles Amazon Nova, Llama, Qwen et DeepSeek, avec un suivi des métriques via MLflow intégré. L'enjeu est concret : les agents IA en production échouent fréquemment lors des appels d'outils, qu'il s'agisse d'halluciner des fonctions inexistantes, de passer des paramètres incorrects, ou de déclencher une action là où ils devraient demander une clarification. Ces erreurs bloquent le déploiement en production et détruisent la confiance des utilisateurs. La nouvelle approche serverless d'Amazon supprime l'obstacle opérationnel majeur que représentait jusqu'ici le fine-tuning par renforcement : achat de GPU, orchestration mémoire entre les phases de rollout et d'entraînement, infrastructure de récompenses, gestion des checkpoints. Les équipes peuvent désormais se concentrer sur leurs données, leur modèle et leur fonction de récompense, le reste étant géré par la plateforme. Le fine-tuning supervisé classique (SFT) montre ses limites pour ce type de tâche : il nécessite des exemples étiquetés pour chaque comportement souhaité, mais peine à généraliser la prise de décision entre appeler un outil, demander des informations supplémentaires, ou refuser d'agir. RLVR contourne ce problème en exploitant la nature vérifiable des appels d'outils : soit le modèle a appelé la bonne fonction avec les bons paramètres, soit non. Cette objectivité binaire rend l'appel d'outils particulièrement adapté à l'apprentissage par renforcement. Amazon positionne cette offre dans un marché de l'IA agentique en forte croissance, où des acteurs comme Google (Vertex AI), Microsoft (Azure ML) et des startups spécialisées se disputent les équipes qui cherchent à industrialiser des agents fiables, avec un accès simplifié via SageMaker Studio et un compte AWS standard.

OutilsActu
1 source
Vanguard construit une infrastructure de données pour son analyste virtuel IA
4AWS ML Blog 

Vanguard construit une infrastructure de données pour son analyste virtuel IA

Vanguard, l'une des plus grandes sociétés de gestion d'actifs au monde avec plus de 8 000 milliards de dollars sous gestion, a développé un outil interne baptisé « Virtual Analyst » pour permettre à ses analystes financiers d'interroger des données complexes en langage naturel. Avant ce projet, obtenir une réponse à une question pourtant simple nécessitait de rédiger des requêtes SQL sophistiquées et de solliciter les équipes data, un processus qui pouvait s'étaler sur plusieurs jours. Désormais, les analystes et parties prenantes métier accèdent directement aux données en quelques secondes, sans expertise technique préalable. L'infrastructure repose sur plusieurs services AWS : Amazon Bedrock pour les modèles de langage assurant la compréhension du langage naturel, Amazon Redshift pour l'analytique avancée, et AWS Glue pour le catalogage automatisé des données. Vanguard a formulé huit principes directeurs pour construire ce qu'ils nomment une infrastructure de données « AI-ready ». La principale leçon du projet dépasse le simple cas d'usage : déployer de l'IA conversationnelle dans une entreprise n'est pas d'abord un défi de machine learning, mais un défi d'architecture de données. Les modèles de fondation les plus puissants ne peuvent pas compenser une infrastructure sémantique défaillante. Vanguard a donc restructuré la façon dont ses équipes définissent, possèdent et maintiennent les données, en établissant des standards de qualité, des définitions sémantiques claires pour chaque métrique financière, et des modèles de gouvernance partagés. Pour les utilisateurs finaux, le gain est immédiat : l'accès à l'information pour la prise de décision n'est plus conditionné par la disponibilité d'une équipe technique. Pour l'industrie financière, c'est une démonstration concrète qu'une infrastructure réglementée et sensible peut être rendue compatible avec l'IA générative, à condition d'y consacrer le travail fondamental en amont. Le projet a nécessité de briser des silos organisationnels profondément ancrés. Vanguard a réuni des ingénieurs data, des analystes métier, des équipes de conformité réglementaire, de sécurité et des utilisateurs finaux dans un modèle opérationnel transversal inédit pour la firme. La conformité et la sécurité, souvent perçues comme des freins à l'innovation dans les services financiers, ont été intégrées dès la conception plutôt qu'ajoutées après coup, ce qui a permis de respecter les exigences strictes du secteur. Ce projet s'inscrit dans une tendance plus large : les grandes institutions financières, Vanguard, JPMorgan, BlackRock, investissent massivement dans des couches de données sémantiques pour rendre leurs systèmes historiques compatibles avec l'IA. Le Virtual Analyst de Vanguard est présenté comme un modèle illustratif plutôt que prescriptif, mais il offre un cadre concret à toute organisation confrontée au même problème : comment transformer des décennies de données métier en une ressource exploitable par l'IA sans sacrifier la fiabilité ni la conformité.

UECe cas d'usage illustre une tendance applicable aux institutions financières européennes souhaitant rendre compatibles leurs systèmes legacy avec l'IA générative, sans impact direct sur la réglementation ou les acteurs français.

OutilsOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour