Aller au contenu principal
Salesforce lance Agentforce Operations pour corriger les workflows qui bloquent l'IA en entreprise
OutilsVentureBeat AI22min

Salesforce lance Agentforce Operations pour corriger les workflows qui bloquent l'IA en entreprise

Résumé IASource uniqueImpact UE
Source originale ↗·

Salesforce a lancé Agentforce Operations, une nouvelle plateforme de gestion des workflows d'entreprise conçue pour rendre les processus back-office compatibles avec les agents IA. Présentée lors d'un entretien accordé à VentureBeat par Sanjna Parulekar, vice-présidente senior des Produits chez Salesforce, cette solution permet aux entreprises de télécharger leurs processus existants ou d'utiliser des modèles prédéfinis appelés Blueprints. Le système décompose ensuite ces workflows en tâches précises et structurées, assignées à des agents spécialisés. L'objectif est de créer une couche intermédiaire de contrôle d'exécution qui impose une structure déterministe aux processus que les agents sont censés suivre, là où la plupart des outils d'automatisation traditionnels s'appuient sur des décisions probabilistes.

Le problème que Salesforce cherche à résoudre est fondamental pour toute organisation qui déploie des agents IA à grande échelle : les workflows d'entreprise ont été conçus autour du jugement humain, pas de l'exécution machine. Des années de contournements, d'étapes implicites et de décisions tacites ont produit des processus qui se brisent dès qu'un agent tente de les suivre à la lettre. Parulekar a résumé le constat de son équipe : "La défaillance d'un processus se trouve souvent dans votre document de spécifications produit." Sans couche de contrôle, les entreprises risquent de déployer des agents qui aggravent les coûts au lieu de les réduire. Agentforce Operations introduit aussi de l'observabilité via un modèle de traçage des sessions, et permet d'intégrer des points de validation humaine pour rendre le processus plus transparent et auditable.

La plateforme arrive dans un contexte où les entreprises commencent à mesurer que la capacité de raisonnement des modèles IA n'est pas le goulot d'étranglement principal, c'est la cohérence des processus qui les sous-tendent. Mais cette approche soulève un risque structurel : codifier un workflow défaillant l'ancre à l'échelle. Une fois les processus distribués entre agents, la question du gouvernance se pose avec acuité, qui possède le processus, qui le valide, qui le fait évoluer quand les conditions changent ? Brandon Metcalf, fondateur et CEO d'Asymbl, une entreprise d'orchestration de la main-d'œuvre, souligne que la clé reste un objectif partagé entre humains et agents : "Il faut que quelqu'un soit responsable du résultat à livrer, que ce soit une personne ou un agent." Le vrai défi de l'IA en entreprise n'est donc plus technique, il est organisationnel et politique.

Impact France/UE

Les organisations françaises et européennes qui déploient des agents IA en entreprise disposent d'un nouveau référentiel d'orchestration et d'observabilité pour sécuriser leurs workflows back-office.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1InfoQ AI 

AWS lance un registre d'agents en aperçu pour gérer la prolifération des agents IA en entreprise

Amazon Web Services a lancé Agent Registry en version préliminaire, une nouvelle fonctionnalité intégrée à Amazon Bedrock AgentCore, destinée à répondre à un problème croissant dans les grandes entreprises : la prolifération incontrôlée d'agents IA déployés en silo. Concrètement, cette solution propose un catalogue centralisé permettant de découvrir, gouverner et réutiliser des agents IA, des outils et des serveurs MCP au sein d'une même organisation, quel que soit l'endroit où ces agents s'exécutent. Le registre prend en charge nativement les protocoles MCP (Model Context Protocol) et A2A (Agent-to-Agent). Pour les équipes techniques des grandes entreprises, l'enjeu est considérable : sans inventaire central, les organisations se retrouvent avec des dizaines d'agents redondants, difficiles à auditer, à maintenir ou à faire évoluer. Agent Registry entend résoudre ce problème de gouvernance en offrant une visibilité unifiée sur l'ensemble du parc d'agents, facilitant ainsi la réutilisation des composants existants et réduisant les coûts de développement. Cette initiative s'inscrit dans une course entre les grands fournisseurs cloud pour imposer leur standard de gestion d'agents IA. Microsoft et Google Cloud proposent leurs propres solutions concurrentes, tandis que l'ACP Registry constitue une alternative indépendante. Le choix d'intégrer nativement les protocoles MCP et A2A signale la volonté d'AWS de s'aligner sur les standards émergents de l'industrie, dans un contexte où l'interopérabilité entre agents de différentes plateformes devient un critère décisif pour les entreprises qui multiplient les déploiements.

UELes grandes entreprises européennes utilisant AWS peuvent désormais centraliser la gouvernance de leurs agents IA via ce registre, facilitant l'audit et la conformité dans un contexte de multiplication des déploiements.

OutilsActu
1 source
Comment les Workflows de Mistral AI transforment l’IA en moteur opérationnel ?
2Le Big Data 

Comment les Workflows de Mistral AI transforment l’IA en moteur opérationnel ?

Mistral AI a lancé une fonctionnalité baptisée Workflows, intégrée à sa plateforme Studio, qui vise à résoudre l'un des problèmes les plus documentés de l'IA en entreprise : moins de 20 % des projets d'IA atteignent réellement la production. La startup française propose une couche d'orchestration permettant de passer d'un prototype à un déploiement opérationnel en quelques jours. Techniquement, la solution s'appuie sur le moteur Temporal, déjà adopté par des entreprises comme Salesforce, Netflix ou Stripe, mais adapté aux contraintes spécifiques de l'IA générative : gestion du streaming, mutualisation des ressources, traçage des exécutions et reprise automatique en cas d'erreur. Le modèle de déploiement sépare le plan de contrôle, hébergé par Mistral, du plan de données, qui reste dans l'environnement de l'entreprise via Kubernetes. Des acteurs comme CMA-CGM et La Banque Postale figurent parmi les premiers déploiements concrets. L'enjeu est majeur pour les équipes techniques qui, jusqu'ici, devaient assembler elles-mêmes agents, connecteurs, outils d'observabilité et gestion des erreurs à partir de briques hétérogènes, mobilisant parfois des mois de développement avant d'atteindre une version stable. Les Workflows de Mistral proposent un cadre unifié où ces composants fonctionnent ensemble dès le départ. Le SDK simplifie la configuration des politiques de reprise, des délais d'attente et de la gestion des erreurs en quelques lignes de Python, ce qui permet aux développeurs de se concentrer sur la logique métier plutôt que sur l'infrastructure. L'intégration avec Le Chat permet également aux équipes non techniques d'exécuter ces workflows sans friction, ce qui réduit la fracture habituelle entre développeurs et utilisateurs métiers. Ce lancement s'inscrit dans une compétition accélérée entre fournisseurs de modèles qui cherchent à monter dans la chaîne de valeur, au-delà de la simple inférence. OpenAI, Google et Anthropic investissent tous dans des couches d'orchestration et d'agents, mais Mistral joue une carte différente : la souveraineté des données et le déploiement en environnement contrôlé, un argument central pour les entreprises européennes soumises au RGPD et aux exigences sectorielles strictes du secteur financier ou logistique. En positionnant Workflows comme une infrastructure industrielle plutôt qu'un outil d'expérimentation, Mistral tente de s'imposer comme le partenaire de référence pour les grandes organisations qui ont besoin de garanties sur la fiabilité, l'observabilité et la conformité de leurs systèmes d'IA en production.

UELe lancement de Mistral Workflows renforce la position de cette startup française comme alternative souveraine pour les grandes organisations européennes soumises au RGPD, avec des premiers déploiements concrets chez CMA-CGM et La Banque Postale.

💬 Ce problème des 20% de projets IA qui n'atteignent jamais la prod, tout dev qui bosse en entreprise le connaît. Mistral n'a pas réinventé la roue : ils ont pris Temporal (déjà chez Netflix et Stripe) et l'ont adapté aux contraintes du génératif, ce qui évite de passer six mois à assembler soi-même des briques qui ne se parlent pas. L'argument souveraineté RGPD, c'est pas du flan quand tes premiers clients sont CMA-CGM et La Banque Postale.

OutilsOutil
1 source
L'IA qui fait vraiment la différence pour les entreprises
3VentureBeat AI 

L'IA qui fait vraiment la différence pour les entreprises

Après deux ans de démonstrations spectaculaires et de prototypes précipités, les dirigeants technologiques des grandes entreprises adoptent en 2026 un discours nettement plus pragmatique sur l'intelligence artificielle. Lors d'un webinaire organisé par OutSystems, des responsables techniques issus d'entreprises comme Thermo Fisher Scientific et McConkey Auction Group ont témoigné d'une même priorité : faire passer les agents IA du stade expérimental à la production réelle, avec des résultats mesurables. Chez Thermo Fisher, Rajkiran Vajreshwari, responsable du développement applicatif, a décrit comment son équipe a abandonné les assistants IA mono-tâches au profit d'un système multi-agents coordonné : à l'arrivée d'un ticket de support, un agent de triage classe la demande et la route dynamiquement vers un agent spécialisé — intention et priorité, contexte produit, dépannage ou conformité — chacun opérant dans un périmètre strict et auditable. L'enjeu central n'est plus le choix du bon modèle de langage, mais l'orchestration : comment router les tâches, coordonner les workflows, gouverner l'exécution et intégrer les agents dans des systèmes construits sur des décennies. Une nouvelle catégorie de risque est apparue en parallèle : le « shadow AI », autrement dit le code de niveau production généré par des employés sans supervision informatique. Ces outils maison sont exposés aux hallucinations, aux fuites de données, aux violations de politique et à la dérive des modèles. Luis Blando, CPTO d'OutSystems, résume la réponse des organisations les plus avancées en trois actions : fournir des garde-fous aux utilisateurs, utiliser l'IA pour gouverner l'IA à l'échelle du portefeuille applicatif, et s'appuyer sur des plateformes qui intègrent ces contrôles nativement plutôt que de les construire manuellement. Ce tournant pragmatique survient alors que les premières vagues d'enthousiasme autour des LLM se heurtent à leurs limites réelles en environnement d'entreprise : sans orchestration, sans connexion aux données métier existantes et sans gouvernance, les modèles les plus puissants produisent peu de valeur durable. Les profils les plus recherchés ne sont plus les data scientists spécialisés, mais les développeurs généralistes et les architectes d'entreprise capables de faire dialoguer agents IA, systèmes legacy et processus métier. La compétition se joue désormais moins sur la puissance brute des modèles que sur la capacité des plateformes — OutSystems, mais aussi Microsoft, Salesforce ou ServiceNow — à proposer des environnements où les agents peuvent être déployés, surveillés et gouvernés à l'échelle industrielle.

OutilsOutil
1 source
4VentureBeat AI 

Le développement piloté par les spécifications s'impose pour le code agentique en entreprise

Le développement logiciel piloté par les spécifications s'impose comme la méthode de référence pour déployer des agents de codage autonomes à l'échelle des grandes entreprises. Amazon Web Services en est l'exemple le plus documenté : l'équipe derrière le nouvel environnement de développement Kiro IDE a utilisé Kiro pour construire Kiro lui-même, réduisant les cycles de développement de deux semaines à deux jours. Une équipe d'ingénieurs AWS a mené à bien un projet de refonte architecturale initialement prévu sur dix-huit mois avec trente développeurs, en six personnes en soixante-seize jours. Chez Amazon.com, la fonctionnalité "Add to Delivery", qui permet aux acheteurs d'ajouter des articles après validation de leur commande, a été livrée deux mois avant le calendrier prévu grâce à cette approche. Alexa+, Amazon Finance, Amazon Stores, Fire TV, Last Mile Delivery et Prime Video intègrent désormais tous le développement piloté par les spécifications dans leurs méthodes de production. Ce qui rend cette méthode structurante, c'est qu'elle résout le problème de confiance fondamental posé par le code généré par l'IA. Un agent qui produit cent cinquante commits par semaine dépasse largement la capacité de relecture humaine : aucune équipe ne peut valider manuellement ce volume. La spec devient alors un moteur de vérification automatique. Rédigée avant qu'une seule ligne de code soit écrite, elle définit ce que le système doit faire, ses propriétés attendues et ce que "correct" signifie concrètement. À partir de cette base, des techniques de test basées sur les propriétés et de l'IA neurosymbolique génèrent automatiquement des centaines de cas de test dérivés directement de la spécification, couvrant des cas limites qu'aucun développeur n'aurait envisagé. L'agent peut ainsi se corriger en boucle, en réinjectant les échecs de build et de test dans son propre raisonnement, jusqu'à produire un code à la fois fonctionnel et vérifiable. Cette évolution s'inscrit dans une transformation plus large du secteur. Il y a un an, le "vibe coding" avait popularisé l'idée que n'importe qui pouvait produire du code avec l'IA, au prix d'une qualité souvent médiocre. Le développement piloté par les spécifications répond à la question suivante : comment faire confiance à ce code à grande échelle ? Les équipes qui adoptent cette méthode ne traitent plus l'IA comme un outil ponctuellement consulté, mais comme un agent autonome ancré à une source de vérité permanente. La prochaine étape annoncée est celle d'agents capables de rédiger leurs propres spécifications, utilisant la spec comme mécanisme d'autocorrection et de vérification. Les entreprises qui maîtriseront ce modèle prendront une avance structurelle significative sur celles qui continuent à coder sans cadre formel.

OutilsOutil
1 source