Aller au contenu principal
Affiner les LLM avec des données non structurées via SageMaker Unified Studio et S3
OutilsAWS ML Blog2h

Affiner les LLM avec des données non structurées via SageMaker Unified Studio et S3

1 source couvre ce sujet·Source originale ↗·

Amazon Web Services a annoncé une intégration entre Amazon SageMaker Unified Studio et les buckets Amazon S3 grand public, permettant d'exploiter des données non structurées directement dans les workflows de machine learning. Le cas d'usage présenté illustre l'affinage du modèle Llama 3.2 11B Vision Instruct — développé par Meta — pour des tâches de questions-réponses visuelles (VQA), comme l'extraction automatique d'informations depuis des reçus ou documents scannés. Le modèle de base atteint un score ANLS de 85,3 % sur le benchmark DocVQA, une métrique mesurant la similarité entre réponse prédite et réponse attendue. Pour l'affinage, AWS utilise le dataset DocVQA de Hugging Face, qui contient 39 500 exemples d'entraînement associant image, question et réponse. Trois versions affinées sont produites avec des volumes de données variables : 1 000, 5 000 et 10 000 images, orchestrées entièrement via SageMaker Unified Studio et évaluées avec Amazon SageMaker MLflow en mode serverless.

Cet affinement ciblé permet aux équipes data de dépasser les limites d'un modèle généraliste sans reconstruire une infrastructure complexe de bout en bout. Pour les entreprises traitant des documents à haute valeur — contrats, factures, rapports médicaux — gagner quelques points de précision au-delà de 85 % peut représenter une différence opérationnelle significative. L'intégration native entre S3 et le catalogue SageMaker supprime une friction majeure : les données non structurées (images, PDF, textes bruts) deviennent des actifs directement exploitables par les équipes ML sans pipeline d'ingestion personnalisé. Le suivi des expériences via MLflow serverless permet en outre de comparer objectivement les trois variantes affinées et de documenter les gains de performance, une exigence croissante dans les déploiements enterprise.

Cette annonce s'inscrit dans la stratégie d'AWS pour faire de SageMaker Unified Studio une plateforme unifiée couvrant l'ensemble du cycle MLOps, depuis l'ingestion des données brutes jusqu'au déploiement en production. La montée en puissance des modèles multimodaux — capables de traiter simultanément texte et image — crée une demande forte pour des outils d'affinage accessibles, sans que chaque équipe doive maîtriser les subtilités de l'entraînement distribué. AWS positionne ici SageMaker JumpStart comme point d'accès aux modèles fondamentaux, tandis que l'infrastructure d'entraînement repose sur des instances p4de.24xlarge, des GPU haute performance nécessitant une demande d'augmentation de quota. La prochaine étape logique pour AWS sera d'élargir cette intégration à d'autres formats de données non structurées et à davantage de modèles fondamentaux, dans un contexte où Google, Microsoft Azure et les plateformes spécialisées comme Modal ou Together AI se disputent le même terrain des équipes ML entreprise.

À lire aussi

1The Information AI 

Apple prévoit d'ouvrir Siri à d'autres assistants IA

Apple prévoit d'ouvrir Siri à d'autres assistants d'intelligence artificielle tiers, selon Bloomberg. Cette évolution majeure sera annoncée en juin lors de la Worldwide Developers Conference (WWDC) 2026, dans le cadre d'une refonte en profondeur de l'assistant vocal d'Apple. L'intégration permettrait à des assistants comme ChatGPT d'OpenAI, Gemini de Google ou d'autres solutions IA de se connecter directement à Siri, offrant aux utilisateurs la possibilité de basculer vers ces outils sans quitter l'écosystème Apple. Ce changement représente un tournant stratégique considérable pour Apple, qui a longtemps maintenu Siri comme un système fermé. Pour les utilisateurs d'iPhone et d'iPad, cela signifie un accès direct aux modèles les plus puissants du marché depuis l'interface native d'iOS, sans friction. Pour les développeurs d'IA, c'est une opportunité d'atteindre des centaines de millions d'appareils Apple dans le monde. Cette ouverture pourrait également répondre aux critiques persistantes sur les lacunes de Siri face à des concurrents comme ChatGPT ou Claude. Cette décision intervient alors qu'Apple accuse un retard notable dans la course à l'IA générative. Apple Intelligence, lancé en 2024, a reçu des retours mitigés, et plusieurs fonctionnalités promises ont été reportées. En ouvrant son assistant à des partenaires extérieurs, Cupertino adopte une stratégie de plateforme plutôt que de tout développer en interne — une approche qui rappelle ce qu'Apple a fait avec l'App Store en 2008. Les modalités exactes de ces partenariats, notamment les conditions commerciales et les accès aux données, restent à préciser avant la WWDC.

UELes utilisateurs européens d'iPhone pourraient accéder directement à ChatGPT ou Gemini via Siri, une évolution qui pourrait attirer l'attention des régulateurs EU sur l'interopérabilité et les conditions de partage des données.

OutilsActu
1 source
201net 

Il n’y a pas que ChatGPT dans la vie : Apple préparerait un Siri compatible avec toutes les IA

Avec iOS 27, Apple préparerait une refonte majeure de Siri en lui permettant de dialoguer avec n'importe quel chatbot d'intelligence artificielle installé sur l'iPhone, et non plus uniquement ChatGPT. Selon les informations disponibles, cette nouvelle architecture transformerait Siri en véritable hub d'IA, capable de router les requêtes des utilisateurs vers le modèle de leur choix — qu'il s'agisse de Gemini, Claude, Mistral ou d'autres assistants à venir. Ce changement représente un virage stratégique considérable pour Apple, qui reconnaît implicitement que son assistant vocal natif ne peut rivaliser seul avec les grands modèles de langage du marché. Pour les utilisateurs, cela signifie une liberté de choix inédite sur iPhone : accéder à la puissance de n'importe quel LLM sans quitter l'écosystème Apple, simplement en ayant l'application correspondante installée. Cette évolution s'inscrit dans un contexte où Apple accuse un retard significatif en IA générative face à Google, Microsoft et OpenAI. Le partenariat avec OpenAI, annoncé en 2024 et intégré dès iOS 18, n'était qu'une première étape. En ouvrant Siri à toutes les IA tierces, Apple adopte une posture de plateforme plutôt que de compétiteur direct — une approche qui rappelle sa stratégie avec les applications tierces lors du lancement de l'App Store.

UELes utilisateurs européens d'iPhone pourraient bénéficier d'un accès facilité à des modèles comme Mistral directement via Siri, renforçant la visibilité des LLMs européens sur iOS.

OutilsOutil
1 source
3Le Monde Pixels 

Manus, une IA chinoise dernier cri prise dans la bataille technologique entre la Chine et les Etats-Unis

Manus, l'agent IA développé par la startup chinoise Butterfly Effect (filiale de Monica), a fait irruption sur la scène mondiale début mars 2025, déclenchant une vague d'enthousiasme sans précédent. En quelques jours, la liste d'attente pour accéder à la version bêta a dépassé un million de personnes, tandis que les démonstrations virales montraient l'agent accomplir de manière autonome des tâches complexes : recherche approfondie, rédaction de rapports, gestion de fichiers, navigation web. Contrairement aux chatbots classiques, Manus agit sans supervision humaine continue. L'émergence de Manus s'inscrit dans un contexte de compétition technologique féroce entre Pékin et Washington. Après le choc DeepSeek en janvier 2025, qui avait démontré qu'une IA chinoise pouvait rivaliser avec les meilleurs modèles américains à moindre coût, Manus confirme que la Chine n'entend pas rester en marge de la révolution des agents IA — un segment jugé stratégique par les deux puissances. Cette montée en puissance intervient alors que les États-Unis ont renforcé leurs restrictions sur l'exportation de puces vers la Chine. Nvidia, dont les GPU H100 sont au cœur du développement IA, se retrouve au centre de ces tensions. La capacité des équipes chinoises à produire des résultats compétitifs malgré ces contraintes matérielles soulève des questions sur l'efficacité réelle des sanctions américaines, et laisse présager une intensification de la rivalité technologique entre les deux blocs.

UELa rivalité sino-américaine sur les puces IA et l'émergence d'agents autonomes chinois compétitifs renforcent la pression sur l'Europe pour accélérer sa propre souveraineté technologique en matière d'IA.

OutilsOpinion
1 source
4Le Big Data 

OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA

OpenClaw, l'agent IA local et open source lancé fin 2025, a rapidement dépassé Linux et React sur GitHub pour atteindre plus de 330 000 étoiles, s'imposant comme l'un des projets les plus suivis de la plateforme. Contrairement aux chatbots classiques, OpenClaw agit directement sur la machine de l'utilisateur de manière autonome. Pour étendre ses capacités, la communauté a développé une marketplace d'extensions appelée ClawHub, proposant des milliers de modules baptisés Skills. Parmi les plus plébiscités : le Skill Obsidian, qui synchronise l'agent avec une base de notes locale en Markdown ; le module RAG (Retrieval-Augmented Generation) pour interroger des documents PDF et archives internes sans envoyer de données vers des serveurs externes ; le Skill GOG pour connecter l'agent à Gmail, Google Calendar et Drive via OAuth ; et enfin le Skill GitHub, qui s'appuie sur le CLI officiel gh pour gérer le cycle de vie complet d'un dépôt de code. Ce qui distingue OpenClaw des assistants IA classiques, c'est précisément cette capacité à passer de la consultation à l'exécution concrète. Un utilisateur peut demander à l'agent de trier sa boîte mail, rédiger une note structurée dans Obsidian, ou créer une pull request sur GitHub — le tout sans ouvrir un seul onglet de navigateur. Le module RAG est particulièrement stratégique pour les entreprises : il permet d'interroger des gigaoctets de documentation interne sensible en restant entièrement en local, éliminant le risque de fuite de données vers des API tierces. Pour les développeurs, le Skill GitHub transforme l'agent en ingénieur DevOps autonome capable de gérer des workflows complexes sans supervision constante. OpenClaw s'inscrit dans une tendance de fond : la montée des agents IA locaux, souverains et extensibles, portée par la communauté open source. Son ascension fulgurante rappelle celle de projets comme Docker ou Kubernetes en leur temps — des outils qui ont redéfini les pratiques professionnelles en quelques mois. La marketplace ClawHub joue un rôle central dans cet écosystème, en reproduisant le modèle de distribution des extensions de VS Code ou des plugins npm, mais appliqué à l'automatisation par IA. Les prochains enjeux tournent autour de la sécurité des Skills tiers, de la standardisation des interfaces entre modules, et de l'émergence d'agents capables de chaîner plusieurs Skills de manière fiable sur des tâches longues — un défi technique que la communauté commence à peine à adresser.

UELe module RAG local d'OpenClaw répond aux exigences de souveraineté des données imposées par le RGPD, permettant aux entreprises européennes de traiter des documents internes sensibles sans transférer de données vers des serveurs tiers.

OutilsOutil
1 source