Aller au contenu principal
Les entreprises peuvent entraîner des modèles d'IA personnalisés depuis leurs workflows de production, sans équipe ML
OutilsVentureBeat AI2h

Les entreprises peuvent entraîner des modèles d'IA personnalisés depuis leurs workflows de production, sans équipe ML

Résumé IASource uniqueImpact UE
Source originale ↗·

Empromptu AI, une startup basée à San Francisco, a lancé jeudi une plateforme baptisée Alchemy Models, conçue pour transformer automatiquement les workflows de production d'entreprise en données d'entraînement pour des modèles d'IA personnalisés. Le principe est simple : chaque requête traitée par une application IA, chaque correction apportée par un expert métier à ses résultats, constitue un signal d'apprentissage. Jusqu'ici, ces données disparaissaient dans le vide. Alchemy les capte en continu via une infrastructure appelée Golden Data Pipelines, soumet les sorties de l'application à des experts internes pour validation, puis utilise ces données vérifiées pour lancer des cycles de fine-tuning successifs. Les modèles résultants, que la société appelle Expert Nano Models, sont de petits modèles spécialisés sur une tâche précise plutôt que sur le raisonnement général. L'entreprise est dirigée par Shanea Leven, qui a présenté la plateforme en exclusivité à VentureBeat. Les clients conservent la propriété intégrale des poids du modèle, qui sont portables et exportables moyennant frais. La plateforme est compatible avec Llama, Qwen et d'autres modèles de base.

L'enjeu commercial est direct pour les entreprises qui s'appuient aujourd'hui sur des API de modèles fondamentaux : les coûts d'inférence augmentent avec l'usage, les données qui entraînent ces modèles profitent aux fournisseurs et non aux clients, et la personnalisation pour des tâches métier spécifiques reste limitée. Alchemy propose une sortie de cette dépendance en faisant de l'application elle-même la source de données d'entraînement, sans équipe ML ni étape séparée de collecte et d'étiquetage. Comme le résume Leven : "L'application IA que les clients construisent déjà nettoie les données." La gouvernance, les garde-fous et les contrôles de conformité sont intégrés au même pipeline, ce qui signifie que la traçabilité suit le processus d'entraînement. La contrainte principale reste le volume : les premiers déploiements tournent sur le modèle de base le temps que l'application accumule suffisamment de données de production pour déclencher un cycle de fine-tuning utile.

Sur le marché du fine-tuning entreprise, Empromptu se positionne face à des acteurs établis comme OpenAI avec son API de fine-tuning et Amazon Web Services avec Bedrock Custom Models. Ces deux solutions imposent aux organisations d'apporter leurs propres jeux de données préparés séparément et de gérer le processus en dehors de leur stack applicatif, ce qui nécessite une équipe ML dédiée. La différenciation d'Alchemy repose sur l'intégration : le workflow applicatif est le pipeline d'entraînement, et non un projet distinct. La question de la soutenabilité économique et du délai avant le premier cycle de fine-tuning efficace reste ouverte, Leven elle-même reconnaissant sans détour que "l'entraînement du modèle prendra du temps". La startup s'adresse à un moment charnière où de nombreuses entreprises cherchent à protéger leur avantage compétitif face à la généralisation rapide des outils IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Des workflows guidés par agents pour accélérer la personnalisation de modèles dans Amazon SageMaker AI
1AWS ML Blog 

Des workflows guidés par agents pour accélérer la personnalisation de modèles dans Amazon SageMaker AI

Amazon a lancé une expérience agentique intégrée dans SageMaker AI pour simplifier radicalement la personnalisation des modèles de langage. Jusqu'ici, adapter un modèle fondation à un cas d'usage métier exigeait de maîtriser des techniques comme le Supervised Fine-Tuning (SFT), le Direct Preference Optimization (DPO) ou le Reinforcement Learning Verifiable Rewards (RLVR), de naviguer entre des APIs fragmentées et des formats de données spécifiques à chaque modèle, et de gérer des cycles d'expérimentation qui s'étiraient sur plusieurs mois. Désormais, un développeur peut décrire son cas d'usage en langage naturel, et l'agent de codage prend en charge l'ensemble du parcours: définition du problème, préparation des données, sélection de la technique d'entraînement, évaluation de la qualité du modèle, puis déploiement vers Amazon Bedrock ou un endpoint SageMaker AI. Amazon Kiro, l'agent de développement logiciel d'Amazon, est préconfiguré par défaut dans l'environnement JupyterLab de SageMaker AI Studio, avec complétion de code, débogage assisté et support interactif. Les agents compatibles avec le protocole ACP (Agent Communication Protocol), dont Claude Code d'Anthropic, peuvent également être intégrés et bénéficier des mêmes fonctionnalités. La version 4.1 ou supérieure de SageMaker AI Distribution est requise, ainsi qu'un rôle IAM avec la politique gérée AmazonSageMakerFullAccess. Le coeur du dispositif repose sur des "Skills", des modules d'instructions préconçus et modulaires qui encapsulent l'expertise AWS et data science sur l'ensemble du cycle de personnalisation. Lorsqu'un développeur décrit son besoin, l'agent active automatiquement les Skills pertinents, qui le guident à travers la validation des données, la configuration des hyperparamètres et l'évaluation du modèle via des métriques LLM-as-a-Judge. Chaque étape génère des notebooks directement exécutables, entièrement modifiables et réutilisables dans des workflows existants. Un avantage opérationnel concret: les Skills réduisent la consommation de tokens tout en augmentant la précision des réponses, car l'agent dispose d'un contexte spécialisé plutôt que de connaissances génériques. Les organisations peuvent personnaliser ces Skills pour les aligner sur leurs standards de gouvernance, leurs outils internes et leurs pratiques d'équipe, résolvant ainsi un problème récurrent avec les assistants de codage généralistes qui ne reproduisent pas de manière fiable les conventions maison. L'annonce s'inscrit dans une dynamique plus large où la personnalisation des modèles devient le principal levier de différenciation concurrentielle, tous les acteurs ayant accès aux mêmes modèles fondations publics. Amazon positionne SageMaker AI comme une plateforme bout-en-bout pour les équipes qui veulent exploiter leurs données propriétaires sans assembler elles-mêmes une chaîne d'outils dispersés. La prise en charge du protocole ACP ouvre la voie à un écosystème d'agents tiers, signalant une stratégie d'interopérabilité plutôt que de verrouillage. Les prochaines étapes naturelles incluent l'extension de ce type d'expérience agentique à d'autres phases du cycle MLOps, comme la surveillance des modèles en production ou la gestion des dérives de données.

UELes équipes data européennes utilisant AWS SageMaker AI peuvent accélérer leurs projets de fine-tuning de modèles fondation sans expertise MLOps avancée, réduisant les délais de personnalisation sur données propriétaires.

OutilsOutil
1 source
Salesforce lance Agentforce Operations pour corriger les workflows qui bloquent l'IA en entreprise
2VentureBeat AI 

Salesforce lance Agentforce Operations pour corriger les workflows qui bloquent l'IA en entreprise

Salesforce a lancé Agentforce Operations, une nouvelle plateforme de gestion des workflows d'entreprise conçue pour rendre les processus back-office compatibles avec les agents IA. Présentée lors d'un entretien accordé à VentureBeat par Sanjna Parulekar, vice-présidente senior des Produits chez Salesforce, cette solution permet aux entreprises de télécharger leurs processus existants ou d'utiliser des modèles prédéfinis appelés Blueprints. Le système décompose ensuite ces workflows en tâches précises et structurées, assignées à des agents spécialisés. L'objectif est de créer une couche intermédiaire de contrôle d'exécution qui impose une structure déterministe aux processus que les agents sont censés suivre, là où la plupart des outils d'automatisation traditionnels s'appuient sur des décisions probabilistes. Le problème que Salesforce cherche à résoudre est fondamental pour toute organisation qui déploie des agents IA à grande échelle : les workflows d'entreprise ont été conçus autour du jugement humain, pas de l'exécution machine. Des années de contournements, d'étapes implicites et de décisions tacites ont produit des processus qui se brisent dès qu'un agent tente de les suivre à la lettre. Parulekar a résumé le constat de son équipe : "La défaillance d'un processus se trouve souvent dans votre document de spécifications produit." Sans couche de contrôle, les entreprises risquent de déployer des agents qui aggravent les coûts au lieu de les réduire. Agentforce Operations introduit aussi de l'observabilité via un modèle de traçage des sessions, et permet d'intégrer des points de validation humaine pour rendre le processus plus transparent et auditable. La plateforme arrive dans un contexte où les entreprises commencent à mesurer que la capacité de raisonnement des modèles IA n'est pas le goulot d'étranglement principal, c'est la cohérence des processus qui les sous-tendent. Mais cette approche soulève un risque structurel : codifier un workflow défaillant l'ancre à l'échelle. Une fois les processus distribués entre agents, la question du gouvernance se pose avec acuité, qui possède le processus, qui le valide, qui le fait évoluer quand les conditions changent ? Brandon Metcalf, fondateur et CEO d'Asymbl, une entreprise d'orchestration de la main-d'œuvre, souligne que la clé reste un objectif partagé entre humains et agents : "Il faut que quelqu'un soit responsable du résultat à livrer, que ce soit une personne ou un agent." Le vrai défi de l'IA en entreprise n'est donc plus technique, il est organisationnel et politique.

UELes organisations françaises et européennes qui déploient des agents IA en entreprise disposent d'un nouveau référentiel d'orchestration et d'observabilité pour sécuriser leurs workflows back-office.

OutilsOutil
1 source
OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
3VentureBeat AI 

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

💬 C'est exactement le verrou qui bloquait l'adoption en entreprise depuis deux ans. Un modèle léger, déployable en local, qui filtre les données personnelles avant d'envoyer vers le cloud : sur le papier, c'est le genre de brique qu'on attendait. Et distribuer ça sous Apache 2.0, c'est malin : si ton pipeline s'appuie sur leurs outils gratuits, tu vas finir par appeler leurs modèles payants derrière.

OutilsOutil
1 source
Comment les Workflows de Mistral AI transforment l’IA en moteur opérationnel ?
4Le Big Data 

Comment les Workflows de Mistral AI transforment l’IA en moteur opérationnel ?

Mistral AI a lancé une fonctionnalité baptisée Workflows, intégrée à sa plateforme Studio, qui vise à résoudre l'un des problèmes les plus documentés de l'IA en entreprise : moins de 20 % des projets d'IA atteignent réellement la production. La startup française propose une couche d'orchestration permettant de passer d'un prototype à un déploiement opérationnel en quelques jours. Techniquement, la solution s'appuie sur le moteur Temporal, déjà adopté par des entreprises comme Salesforce, Netflix ou Stripe, mais adapté aux contraintes spécifiques de l'IA générative : gestion du streaming, mutualisation des ressources, traçage des exécutions et reprise automatique en cas d'erreur. Le modèle de déploiement sépare le plan de contrôle, hébergé par Mistral, du plan de données, qui reste dans l'environnement de l'entreprise via Kubernetes. Des acteurs comme CMA-CGM et La Banque Postale figurent parmi les premiers déploiements concrets. L'enjeu est majeur pour les équipes techniques qui, jusqu'ici, devaient assembler elles-mêmes agents, connecteurs, outils d'observabilité et gestion des erreurs à partir de briques hétérogènes, mobilisant parfois des mois de développement avant d'atteindre une version stable. Les Workflows de Mistral proposent un cadre unifié où ces composants fonctionnent ensemble dès le départ. Le SDK simplifie la configuration des politiques de reprise, des délais d'attente et de la gestion des erreurs en quelques lignes de Python, ce qui permet aux développeurs de se concentrer sur la logique métier plutôt que sur l'infrastructure. L'intégration avec Le Chat permet également aux équipes non techniques d'exécuter ces workflows sans friction, ce qui réduit la fracture habituelle entre développeurs et utilisateurs métiers. Ce lancement s'inscrit dans une compétition accélérée entre fournisseurs de modèles qui cherchent à monter dans la chaîne de valeur, au-delà de la simple inférence. OpenAI, Google et Anthropic investissent tous dans des couches d'orchestration et d'agents, mais Mistral joue une carte différente : la souveraineté des données et le déploiement en environnement contrôlé, un argument central pour les entreprises européennes soumises au RGPD et aux exigences sectorielles strictes du secteur financier ou logistique. En positionnant Workflows comme une infrastructure industrielle plutôt qu'un outil d'expérimentation, Mistral tente de s'imposer comme le partenaire de référence pour les grandes organisations qui ont besoin de garanties sur la fiabilité, l'observabilité et la conformité de leurs systèmes d'IA en production.

UELe lancement de Mistral Workflows renforce la position de cette startup française comme alternative souveraine pour les grandes organisations européennes soumises au RGPD, avec des premiers déploiements concrets chez CMA-CGM et La Banque Postale.

💬 Ce problème des 20% de projets IA qui n'atteignent jamais la prod, tout dev qui bosse en entreprise le connaît. Mistral n'a pas réinventé la roue : ils ont pris Temporal (déjà chez Netflix et Stripe) et l'ont adapté aux contraintes du génératif, ce qui évite de passer six mois à assembler soi-même des briques qui ne se parlent pas. L'argument souveraineté RGPD, c'est pas du flan quand tes premiers clients sont CMA-CGM et La Banque Postale.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour