Aller au contenu principal
Netflix introduit le "Model Lifecycle Graph" pour industrialiser le machine learning en entreprise
OutilsInfoQ AI1h

Netflix introduit le "Model Lifecycle Graph" pour industrialiser le machine learning en entreprise

Résumé IASource uniqueImpact UE
Source originale ↗·

Netflix a développé et déployé en interne une nouvelle architecture baptisée "Model Lifecycle Graph", conçue pour gérer à grande échelle ses systèmes de machine learning. Présenté par l'ingénieur Matt Foster, ce système repose sur une structure en graphe qui cartographie l'ensemble des interconnexions entre les jeux de données, les features, les modèles et les workflows d'entraînement et de déploiement qui constituent l'infrastructure ML du géant du streaming.

L'enjeu est de taille : à mesure que le nombre de modèles en production augmente, la gestion de leurs dépendances mutuelles devient un vrai casse-tête pour les équipes. Le Model Lifecycle Graph répond à ce défi en améliorant la découvrabilité des composants existants, en renforçant la gouvernance des modèles, et en favorisant la réutilisation des assets ML déjà développés. L'architecture permet également une approche en libre-service, où ingénieurs et data scientists peuvent naviguer, comprendre et exploiter l'écosystème ML sans dépendre d'équipes centralisées pour chaque nouvelle intégration.

Ce projet s'inscrit dans une tendance de fond chez les grandes entreprises tech : l'industrialisation du machine learning, couramment désignée sous le terme "MLOps". Netflix, qui exploite des centaines de modèles pour alimenter ses systèmes de recommandation, optimiser l'encodage vidéo et personnaliser l'expérience de ses 300 millions d'abonnés, se heurte à une complexité opérationnelle croissante. Des outils similaires de lignage et de gouvernance ML émergent chez d'autres acteurs comme Google, Meta et Airbnb, mais en publiant sa propre approche, Netflix contribue au débat sur les standards de l'ingénierie ML en production à l'échelle industrielle.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1AWS ML Blog 

Nova Forge SDK : une solution simple pour personnaliser les modèles Nova pour l'IA en entreprise

Amazon lance le Nova Forge SDK, un outil unifié permettant aux entreprises de personnaliser les modèles LLM Nova sans les contraintes techniques habituelles (gestion des dépendances, configuration d'infrastructure). Le SDK couvre l'ensemble du cycle de personnalisation — préparation des données, entraînement, déploiement — et supporte toutes les options de customisation d'Amazon Bedrock et Amazon SageMaker AI, dont le SFT, RFT, DPO, LoRA et full rank. Il s'attaque notamment au problème du catastrophic forgetting en permettant aux équipes de partir de checkpoints précoces des modèles Nova et de fusionner leurs données propriétaires avec les datasets curés par Amazon.

UELes équipes data européennes utilisant des services cloud peuvent désormais personnaliser des modèles LLM via un SDK unifié sans expertise infrastructure spécifique.

OutilsOutil
1 source
Construire un pipeline de machine learning en production avec ZenML : matérialiseurs, métadonnées et hyperparamètres
2MarkTechPost 

Construire un pipeline de machine learning en production avec ZenML : matérialiseurs, métadonnées et hyperparamètres

ZenML, framework open-source dédié à l'orchestration de pipelines de machine learning, propose une approche structurée pour construire des pipelines de bout en bout de niveau production. Un tutoriel détaillé publié récemment illustre comment assembler un système complet incluant des matérialiseurs personnalisés, un suivi de métadonnées et une optimisation d'hyperparamètres, en s'appuyant sur Python 3, scikit-learn, pandas et PyArrow. Le pipeline construit charge des données depuis le dataset Breast Cancer de scikit-learn, les prétraite via un StandardScaler, puis lance une recherche parallèle sur trois architectures de modèles, RandomForest, GradientBoosting et LogisticRegression, avant de sélectionner et promouvoir automatiquement le meilleur modèle selon ses métriques d'évaluation (accuracy, F1-score, AUC-ROC). Ce type de pipeline répond à un besoin concret des équipes data : garantir la reproductibilité complète des expériences ML sans intervention manuelle. Le mécanisme de cache de ZenML évite de réexécuter des étapes coûteuses si les données ou le code n'ont pas changé, ce qui réduit significativement les temps de cycle en production. Le suivi automatique des artefacts, chaque dataset, modèle intermédiaire et métrique est versionné, permet à une équipe de remonter précisément à quelle version des données correspond quel modèle déployé. La stratégie fan-out/fan-in, où plusieurs modèles sont entraînés en parallèle puis comparés dans une étape de synthèse, est particulièrement utile pour les équipes qui veulent industrialiser la sélection de modèles sans scripts ad hoc. ZenML s'inscrit dans un écosystème d'outils MLOps en pleine consolidation, aux côtés de MLflow, Kubeflow et Metaflow. Sa particularité est de proposer un "model control plane" centralisé qui abstrait le stockage des artefacts et l'exécution des étapes, quel que soit l'infrastructure sous-jacente, local, cloud, ou Kubernetes. La notion de matérialiseur personnalisé, illustrée ici avec un objet DatasetBundle sérialisant séparément les arrays NumPy et les métadonnées JSON, est au cœur de son extensibilité : elle permet d'intégrer n'importe quel type de données métier dans le système de tracking. Avec la montée en complexité des projets ML en entreprise, ce type d'approche normalisée devient un standard de fait pour les équipes qui cherchent à passer du notebook expérimental au déploiement répétable en production.

OutilsTuto
1 source
Amazon Polly introduit le streaming bidirectionnel pour la synthèse vocale en temps réel
3AWS ML Blog 

Amazon Polly introduit le streaming bidirectionnel pour la synthèse vocale en temps réel

Amazon vient d'annoncer une nouvelle API de streaming bidirectionnel pour son service de synthèse vocale Amazon Polly, baptisée StartSpeechSynthesisStream. Contrairement aux approches traditionnelles, cette API permet d'envoyer du texte et de recevoir de l'audio simultanément, en flux continu sur une connexion HTTP/2 unique. Les tests de performance réalisés par Amazon portaient sur 7 045 caractères (970 mots) avec la voix Matthew et le moteur Generative en MP3 24 kHz, en simulant une génération de tokens à environ 30 ms par mot — soit les conditions réelles d'un grand modèle de langage en production. L'API accepte des fragments de texte au fil de l'eau via des TextEvent, retourne des chunks audio via des AudioEvent, et confirme la fin du flux avec un StreamClosedEvent. Pour les applications d'IA conversationnelle, cette avancée supprime un goulot d'étranglement fondamental. Jusqu'ici, il fallait attendre que le LLM ait terminé de générer l'intégralité de sa réponse, puis envoyer ce texte complet au service TTS, puis attendre l'audio avant de lancer la lecture — trois étapes séquentielles qui s'ajoutaient les unes aux autres. Avec le streaming bidirectionnel, la synthèse vocale démarre dès les premiers tokens générés, ce qui réduit drastiquement la latence perçue par l'utilisateur final. Pour les assistants virtuels, les agents téléphoniques automatisés ou les interfaces vocales en temps réel, cela se traduit par des conversations nettement plus naturelles, sans les silences artificiels qui trahissent une architecture en pipeline. Le lancement s'inscrit dans une course plus large à la latence dans l'écosystème de l'IA générative vocale, où des acteurs comme ElevenLabs, OpenAI (avec son API audio temps réel) et Google se disputent le marché des applications conversationnelles. AWS avait déjà un avantage avec Polly grâce au streaming audio sortant, mais l'entrée simultanée était jusqu'ici absente. La nouvelle API élimine également la complexité côté serveur : les développeurs n'ont plus besoin d'implémenter leur propre logique de découpage de texte en phrases, ni de gérer plusieurs appels API parallèles et le réassemblage audio qui en découlait. Une seule connexion persistante remplace cette infrastructure maison. Les prochaines étapes logiques concerneront probablement l'extension à davantage de voix et de langues avec le moteur Generative, ainsi que l'intégration native dans les frameworks d'agents AWS comme Bedrock.

OutilsOutil
1 source
4InfoQ AI 

AWS lance un registre d'agents en aperçu pour gérer la prolifération des agents IA en entreprise

Amazon Web Services a lancé Agent Registry en version préliminaire, une nouvelle fonctionnalité intégrée à Amazon Bedrock AgentCore, destinée à répondre à un problème croissant dans les grandes entreprises : la prolifération incontrôlée d'agents IA déployés en silo. Concrètement, cette solution propose un catalogue centralisé permettant de découvrir, gouverner et réutiliser des agents IA, des outils et des serveurs MCP au sein d'une même organisation, quel que soit l'endroit où ces agents s'exécutent. Le registre prend en charge nativement les protocoles MCP (Model Context Protocol) et A2A (Agent-to-Agent). Pour les équipes techniques des grandes entreprises, l'enjeu est considérable : sans inventaire central, les organisations se retrouvent avec des dizaines d'agents redondants, difficiles à auditer, à maintenir ou à faire évoluer. Agent Registry entend résoudre ce problème de gouvernance en offrant une visibilité unifiée sur l'ensemble du parc d'agents, facilitant ainsi la réutilisation des composants existants et réduisant les coûts de développement. Cette initiative s'inscrit dans une course entre les grands fournisseurs cloud pour imposer leur standard de gestion d'agents IA. Microsoft et Google Cloud proposent leurs propres solutions concurrentes, tandis que l'ACP Registry constitue une alternative indépendante. Le choix d'intégrer nativement les protocoles MCP et A2A signale la volonté d'AWS de s'aligner sur les standards émergents de l'industrie, dans un contexte où l'interopérabilité entre agents de différentes plateformes devient un critère décisif pour les entreprises qui multiplient les déploiements.

UELes grandes entreprises européennes utilisant AWS peuvent désormais centraliser la gouvernance de leurs agents IA via ce registre, facilitant l'audit et la conformité dans un contexte de multiplication des déploiements.

OutilsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour