Aller au contenu principal
OutilsAWS ML Blog1h

Affinage par renforcement sur Amazon Bedrock : bonnes pratiques

1 source couvre ce sujet·Source originale ↗·

Amazon a intégré le Reinforcement Fine-Tuning (RFT) à sa plateforme Bedrock, permettant aux entreprises de personnaliser ses modèles maison Amazon Nova ainsi que plusieurs modèles open source sans avoir besoin de vastes jeux de données étiquetés. Selon les résultats publiés par l'entreprise, cette technique peut générer jusqu'à 66 % de gain de précision par rapport aux modèles de base, à un coût et une complexité réduits. Concrètement, le RFT fonctionne différemment de l'apprentissage supervisé classique : au lieu de s'entraîner sur des paires entrée/sortie correctes, le modèle génère des réponses candidates, qui sont ensuite notées par une fonction de récompense, et ses paramètres sont mis à jour pour favoriser les réponses les mieux notées. Cette boucle itéractive, générer, scorer, ajuster, permet au modèle de découvrir des stratégies que de simples exemples statiques ne pourraient pas lui enseigner. La fonction de récompense est implémentée via AWS Lambda, directement appelée par Bedrock pendant l'entraînement.

Cette approche ouvre des possibilités concrètes pour deux grandes familles de tâches. D'un côté, les tâches à critères vérifiables automatiquement : génération de code devant passer des tests unitaires, raisonnement mathématique avec réponses exactes, extraction de données structurées devant respecter un schéma strict, ou orchestration d'API. C'est ce qu'Amazon appelle le RLVR (Reinforcement Learning with Verifiable Rewards). De l'autre côté, les tâches subjectives comme la modération de contenu, les chatbots ou la rédaction créative, où un modèle juge évalue les sorties selon une grille d'évaluation détaillée, approche baptisée RLAIF (Reinforcement Learning with AI Feedback). Pour les équipes techniques, l'intérêt est d'éviter la collecte laborieuse de milliers d'exemples annotés, particulièrement difficile à réaliser pour des tâches de raisonnement complexe où l'expertise humaine est coûteuse.

Le RFT s'inscrit dans une tendance lourde de l'industrie IA depuis les succès de DeepSeek-R1 début 2025, qui avait démontré que l'entraînement par renforcement sur des tâches vérifiables pouvait produire des capacités de raisonnement spectaculaires à moindre coût. Amazon emboîte le pas en industrialisant cette technique dans un service cloud managé, ce qui la rend accessible aux équipes sans infrastructure d'entraînement propre. En proposant RFT directement dans Bedrock avec des métriques de suivi intégrées et des guidelines de tuning d'hyperparamètres, Amazon cherche à s'imposer face à Azure et Google Cloud sur le segment de la personnalisation de modèles en entreprise. Le dataset GSM8K, utilisé comme exemple de référence dans la documentation, illustre bien l'ambition : transformer des modèles généralistes en spécialistes fiables sur des domaines métier précis, sans expertise en machine learning approfondie.

Impact France/UE

Les entreprises européennes sur AWS peuvent désormais affiner des modèles IA sans jeux de données annotés massifs ni infrastructure ML propre, abaissant la barrière d'entrée pour la personnalisation de modèles en production.

À lire aussi

1AWS ML Blog 

Supervision humaine dans les workflows d'agents autonomes en santé et sciences du vivant

Amazon Web Services a publié un guide technique détaillant quatre approches concrètes pour intégrer une supervision humaine dans les workflows d'agents IA déployés dans le secteur de la santé et des sciences du vivant. Ces architectures s'appuient sur le framework Strands Agents, Amazon Bedrock AgentCore Runtime et le Model Context Protocol (MCP), et sont conçues pour répondre aux exigences réglementaires GxP qui imposent une traçabilité complète de chaque décision sensible. Les quatre méthodes présentées couvrent des scénarios différents : interruption via un système de hooks dans la boucle agentique, contrôle intégré directement dans la logique des outils, délégation asynchrone à un approbateur externe via AWS Step Functions et Amazon SNS, et enfin l'élicitation native du protocole MCP pour une approbation interactive en temps réel via des événements server-sent (SSE). L'enjeu est considérable pour les établissements de santé et les laboratoires pharmaceutiques qui automatisent des opérations à fort impact : codification médicale, soumissions réglementaires, accès aux données de patients ou modification de protocoles d'essais cliniques. Sans point de contrôle humain formalisé, ces systèmes ne peuvent pas satisfaire aux exigences GxP, qui imposent une autorisation documentée avant toute action sur des données de santé protégées (PHI). L'architecture proposée distingue explicitement les niveaux de risque : une recherche du nom d'un patient s'exécute sans validation, la consultation de ses constantes vitales ou antécédents médicaux déclenche une demande d'autorisation humaine, et un acte comme une sortie hospitalière nécessite l'approbation d'un superviseur externe notifié par email. Cette gradation permet de préserver les gains d'efficacité de l'automatisation tout en maintenant la sécurité des patients et la conformité réglementaire. L'émergence des agents IA dans les environnements GxP crée une tension fondamentale entre autonomie des systèmes et obligations légales de surveillance. Le secteur pharmaceutique et hospitalier est soumis à des audits stricts qui exigent de pouvoir retracer qui a approuvé quoi, et à quel moment, pour chaque opération sensible. AWS positionne ici ses services managés comme une infrastructure d'entreprise capable d'absorber ces contraintes sans ralentir les pipelines de traitement clinique. Le choix d'une architecture serverless via AgentCore Runtime vise l'isolation des sessions et la scalabilité, deux propriétés critiques pour des environnements multi-établissements. Le code de l'ensemble des patterns est disponible publiquement sur GitHub, ce qui suggère une stratégie d'adoption large : AWS cherche à s'imposer comme la référence d'infrastructure pour l'IA agentique réglementée, un marché en forte croissance à mesure que les hôpitaux et les grands groupes pharmaceutiques passent à l'échelle leurs expérimentations en production.

UELes établissements de santé et laboratoires pharmaceutiques européens soumis aux réglementations GxP et à la certification HDS peuvent adapter ces patterns d'architecture pour conformer leurs déploiements d'agents IA aux exigences de traçabilité et d'approbation documentée imposées par les autorités sanitaires européennes.

OutilsOutil
1 source
2AWS ML Blog 

Amazon Nova Embeddings : construire un moteur de recherche audio intelligent par analyse sémantique

Amazon a lancé le 28 octobre 2025 Amazon Nova Multimodal Embeddings, un modèle d'embedding unifié disponible via Amazon Bedrock, capable de traiter simultanément du texte, des documents, des images, des vidéos et de l'audio au sein d'un seul et même système. Concrètement, ce modèle convertit n'importe quel contenu audio en vecteurs numériques denses dans un espace à haute dimension, avec quatre options de taille : 3 072 dimensions (par défaut), 1 024, 384 ou 256. Chaque vecteur encode à la fois les propriétés acoustiques d'un son, rythme, hauteur tonale, timbre, couleur émotionnelle, et son sens sémantique. Deux extraits musicaux similaires, par exemple un violon et un violoncelle jouant la même mélodie, obtiendront une similarité cosinus de 0,87, les plaçant proches dans cet espace vectoriel, tandis qu'un morceau de rock avec batterie n'obtiendra que 0,23 face à ces mêmes clips. L'enjeu est considérable pour tous ceux qui gèrent de grandes bibliothèques audio : studios de production, plateformes de podcast, services de streaming, équipes de post-production. Les méthodes traditionnelles, transcription manuelle, balisage de métadonnées, conversion parole-texte, ne capturent que le contenu linguistique. Elles sont aveugles aux propriétés acoustiques pures : l'ambiance d'une pièce, l'émotion dans une voix, le genre musical, les sons environnementaux. Nova Multimodal Embeddings comble ce vide en permettant des requêtes en langage naturel comme "musique mélancolique avec piano" ou "bruit de foule dans un stade", sans qu'aucune transcription préalable ne soit nécessaire. Le résultat est une recherche sémantique sur le son lui-même, pas seulement sur ses métadonnées. Le modèle repose sur une technique appelée Matryoshka Representation Learning (MRL), qui structure les embeddings de façon hiérarchique, à la manière des poupées russes : un vecteur de 3 072 dimensions contient toute l'information, mais on peut tronquer aux 256 premières dimensions et conserver des résultats précis. Cela permet de générer les embeddings une seule fois, puis d'ajuster la taille selon les contraintes de coût de stockage ou de performance, sans retraiter l'audio. Cette approche s'inscrit dans la tendance plus large des modèles d'embedding multimodaux unifiés, où Amazon rivalise directement avec Google (Vertex AI Embeddings) et OpenAI (CLIP, Whisper). L'intégration native dans Bedrock facilite le déploiement en production via des bases de données vectorielles compatibles k-NN. La prochaine étape logique sera l'intégration de ces capacités dans des pipelines RAG (retrieval-augmented generation) pour des agents conversationnels capables de répondre à des questions sur du contenu audio sans intervention humaine préalable.

UELes studios de production, plateformes de podcast et services de streaming européens peuvent intégrer cette API via Amazon Bedrock pour améliorer leurs moteurs de recherche audio sémantique.

OutilsOutil
1 source
Une startup crée un logiciel de gestion de code pour les adeptes du tokenmaxxing
3The Information AI 

Une startup crée un logiciel de gestion de code pour les adeptes du tokenmaxxing

GitButler, une startup berlinoise spécialisée dans la gestion de code, vient de lever 17 millions de dollars lors d'un tour de table de série A mené par Andreessen Horowitz. L'opération inclut également les investisseurs existants A.Capital Ventures et Fly Ventures. L'annonce a été faite par Scott Chacon, PDG de l'entreprise, qu'il a cofondée il y a trois ans avec les entrepreneurs Anne Leuschner et Kiril Videlov. Le logiciel de GitButler vise à faciliter la coordination entre développeurs humains et agents de codage IA, en modernisant les outils de gestion de versions qui existent depuis plusieurs décennies. Cette levée de fonds s'inscrit dans un contexte où les entreprises technologiques poussent leurs équipes à utiliser massivement l'IA pour écrire du code. Meta, notamment, a vu émerger en interne un classement informel mesurant quels ingénieurs consomment le plus de tokens IA, une pratique baptisée "tokenmaxxing". Cette course à l'utilisation de l'IA génère une demande croissante pour des outils capables d'organiser, de tracer et de superviser le code produit par ces agents, qui travaillent en parallèle des développeurs humains et à un rythme que les systèmes traditionnels de contrôle de versions peinent à suivre. Les outils de versioning classiques comme Git ont été conçus pour un flux de travail entièrement humain, où les modifications sont soumises de façon réfléchie et espacée. L'irruption d'agents IA capables de générer des milliers de lignes de code en continu bouscule ces paradigmes établis. GitButler parie que ce changement structurel crée un nouveau marché pour des couches logicielles intermédiaires entre les agents et les dépôts de code. Avec le soutien d'Andreessen Horowitz, l'un des fonds les plus influents de la Silicon Valley, la startup dispose désormais des ressources pour s'imposer dans cet espace encore peu défriché, à mesure que le "tokenmaxxing" se généralise au-delà de Meta.

UEGitButler, startup berlinoise, s'impose comme acteur européen des outils de développement IA avec ce financement d'Andreessen Horowitz, renforçant l'écosystème tech allemand face à la Silicon Valley.

💬 Le tokenmaxxing chez Meta, c'est le genre d'anecdote qui te dit que l'époque a vraiment changé, et moi je la crois. Git a 20 ans, il n'a jamais été conçu pour des agents qui crachent du code en continu, le tuyau est trop étroit. GitButler parie sur la bonne couche au bon moment, avec 17M et a16z dans le dos, reste à voir si la prod suit.

OutilsActu
1 source
[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances
4Next INpact 

[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances

Faire tourner un grand modèle de langage sur sa propre machine est désormais accessible à quiconque dispose d'un ordinateur suffisamment puissant. Des outils comme Ollama permettent d'installer et d'utiliser localement des LLM tels que Mistral, LLaMA ou Qwen, sans connexion internet et sans envoyer la moindre donnée à un serveur tiers. L'article propose un tutoriel pas à pas pour configurer cet environnement en local, accompagné d'un comparatif de performances entre deux configurations : un serveur équipé de 24 cœurs CPU sans GPU, et un autre disposant d'une carte graphique dédiée. Le résultat est sans appel : l'écart de vitesse d'inférence entre les deux setups est énorme, le GPU surclassant massivement le CPU seul pour ce type de charge de travail. L'enjeu central est la confidentialité des données. Utiliser ChatGPT, Claude ou Le Chat implique d'envoyer ses requêtes sur les serveurs d'OpenAI, Anthropic ou Mistral, où elles peuvent potentiellement servir à l'entraînement ou à l'amélioration des modèles. Pour les professionnels manipulant des données sensibles, documents juridiques, médicaux, financiers, code propriétaire, cette dépendance aux infrastructures cloud représente un risque réel. L'exécution locale supprime complètement ce vecteur : le modèle tourne sur la machine de l'utilisateur, les données n'en sortent jamais. C'est aussi une question d'autonomie : pas de quota d'API, pas d'abonnement mensuel, pas de coupure de service. Deux contraintes techniques conditionnent la faisabilité de cette approche. D'abord la mémoire : les poids d'un modèle de 7 milliards de paramètres occupent environ 4 à 8 Go selon le niveau de quantisation, tandis qu'un modèle de 70 milliards en requiert facilement 40 Go ou plus. Ensuite la puissance de calcul : un GPU accélère les opérations matricielles qui constituent le cœur de l'inférence, là où un CPU seul produit des réponses lentes et difficilement utilisables en pratique. Cette architecture locale n'est pas nouvelle, la communauté open source travaille dessus depuis la publication de LLaMA par Meta en 2023, mais elle est devenue beaucoup plus accessible grâce à des outils comme Ollama, LM Studio ou llama.cpp, qui abstraient la complexité technique. L'essor des modèles compacts et quantisés (3B, 7B, 14B paramètres) rend aujourd'hui possible une expérience satisfaisante même sur du matériel grand public, à condition de disposer d'une carte graphique avec suffisamment de VRAM.

UELes professionnels européens soumis au RGPD peuvent éliminer le risque d'envoi de données sensibles vers des serveurs américains en exécutant leurs modèles en local.

OutilsTuto
1 source