Aller au contenu principal
BusinessVentureBeat AI4h

Le prochain défi de Claude en entreprise : pas les modèles, mais le plan de contrôle des agents

Résumé IASource uniqueImpact UE
Source originale ↗·

Selon de nouvelles données publiées par VentureBeat Pulse, la prochaine bataille stratégique dans l'IA d'entreprise ne portera pas sur la qualité des modèles, mais sur le contrôle de la couche d'orchestration des agents. Le tracker indépendant VB Pulse, qui mesure régulièrement les préférences de décideurs techniques qualifiés en entreprise, révèle que Microsoft Copilot Studio et Azure AI Studio dominent ce segment avec 38,6 % d'adoption principale en février 2026, en hausse depuis 35,7 % en janvier. L'API Assistants et Responses d'OpenAI occupe la deuxième place avec 25,7 %, contre 23,2 % un mois plus tôt. Anthropic, lui, fait sa première apparition dans ce tracker : passant de 0 % en janvier à 5,7 % en février pour l'usage de ses outils et workflows natifs, soit quatre répondants sur un panel de 70 décideurs. Sur la couche modèle, les données sont encore plus spectaculaires pour l'entreprise de Dario Amodei : Claude est passé de 23,9 % en janvier à 28,6 % en février, puis à 56,2 % en mars, bien que cette dernière mesure soit qualifiée de directionnelle en raison d'un échantillon réduit à 16 répondants.

Ce glissement d'Anthropic depuis la couche modèle vers l'orchestration native représente un signal stratégique significatif, même si les chiffres absolus restent modestes. Les entreprises ne choisissent plus seulement un chatbot ou un moteur de génération de texte : elles décident où installer la machinerie opérationnelle de leur IA, quels outils les agents peuvent appeler, quelles données ils peuvent consulter, quels workflows ils peuvent déclencher, et comment prouver aux équipes de sécurité que ces agents n'ont rien fait d'interdit. Tom Findling, PDG de la startup de cybersécurité IA Conifers, résume l'enjeu : les entreprises déplacent leur focus de la qualité du modèle vers le plan de contrôle qui l'entoure, notamment en matière de gouvernance, d'auditabilité et d'orchestration dans des environnements clients complexes.

L'enjeu est d'autant plus lourd que remplacer un modèle reste relativement simple en théorie, une entreprise peut router une tâche vers Claude, une autre vers GPT, une troisième vers Gemini. Remplacer un runtime d'agents, en revanche, implique de reconfigurer des pipelines entiers, des intégrations d'outils, des politiques d'accès aux données et des mécanismes d'audit. Celui qui contrôle cette couche crée une dépendance bien plus profonde que celle d'un modèle. Microsoft dispose d'un avantage de distribution considérable dans les entreprises, et OpenAI d'une base installée bien plus large en orchestration. Mais la montée en puissance de Claude sur la couche modèle commence visiblement à se propager vers l'orchestration, et c'est précisément là que se joueront les parts de marché les plus durables des prochaines années.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle
1AI News 

Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle

La majorité des entreprises déploient aujourd'hui l'intelligence artificielle de manière progressive et encadrée, loin des systèmes autonomes qui font régulièrement la une. Selon une étude de McKinsey & Company, la plupart des organisations utilisent désormais l'IA dans au moins un domaine de leur activité, mais rares sont celles qui l'ont déployée à l'échelle de l'ensemble de l'entreprise. Un exemple concret illustre cette tendance : S&P Global Market Intelligence a intégré des outils d'IA dans sa plateforme Capital IQ Pro, utilisée par des analystes financiers pour examiner des dépôts réglementaires, des transcriptions d'appels de résultats et des données de marché. Le système permet d'interroger de vastes ensembles de données via une interface conversationnelle, mais les résultats restent systématiquement ancrés dans des sources financières vérifiées, avec la possibilité de remonter aux documents d'origine pour limiter les erreurs. Ce choix d'une IA d'assistance plutôt qu'autonome n'est pas anodin dans des secteurs où une erreur peut entraîner des pertes financières importantes ou engager des responsabilités légales. En finance, les outils comme Capital IQ Pro sont conçus pour éclairer le jugement des analystes, pas pour le remplacer. La décision finale reste humaine. McKinsey souligne par ailleurs un écart croissant entre le déploiement de l'IA et la génération de valeur mesurable : de nombreuses organisations peinent à traduire leurs investissements en résultats concrets. Ce fossé pousse les directions à exiger des systèmes capables d'expliquer leurs sorties, de citer leurs sources et d'opérer dans des périmètres définis, trois conditions essentielles pour établir la confiance dans des environnements réglementés. Derrière cette prudence se dessine un enjeu de gouvernance qui mobilise de plus en plus d'acteurs. S&P Global Market Intelligence note que les organisations bâtissent activement des cadres pour gérer les risques liés à l'IA, notamment la qualité des données et les biais des modèles. Les systèmes agents, capables de planifier et d'agir sans intervention humaine directe, suscitent un intérêt grandissant, mais la majorité des entreprises en est encore aux premières étapes d'expérimentation. Les progrès continus sur les grands modèles de langage laissent entrevoir des usages plus autonomes à terme, en analyse financière, support client ou gestion de chaîne logistique. Ces questions seront au coeur de l'AI & Big Data Expo North America 2026, qui se tiendra les 18 et 19 mai prochains, avec S&P Global Market Intelligence parmi les sponsors, et des sessions dédiées à la gouvernance de l'IA et à son usage dans les industries régulées.

UELes entreprises européennes opérant dans des secteurs réglementés (finance, santé) sont directement concernées par les cadres de gouvernance IA décrits, notamment dans le contexte de la mise en conformité avec l'AI Act.

BusinessOpinion
1 source
Anthropic veut contrôler mémoire, évaluations et orchestration des agents, de quoi inquiéter les entreprises
2VentureBeat AI 

Anthropic veut contrôler mémoire, évaluations et orchestration des agents, de quoi inquiéter les entreprises

Quelques semaines seulement après le lancement de Claude Managed Agents, Anthropic a enrichi sa plateforme de trois nouvelles fonctionnalités majeures : « Dreaming », « Outcomes » et « Multi-Agent Orchestration ». Dreaming permet aux agents de réviser leurs sessions passées pour construire une mémoire évolutive et détecter des patterns jusque-là invisibles. Outcomes offre aux équipes la possibilité de définir des critères de succès précis pour mesurer la performance de leurs agents. Quant à Multi-Agent Orchestration, elle permet à un agent principal de décomposer des tâches complexes et de les déléguer à des agents spécialisés. L'objectif affiché d'Anthropic est de réduire au minimum l'intervention humaine dans la gestion des agents, en intégrant mémoire, évaluation et orchestration au sein d'une seule et même infrastructure hébergée. Ce repositionnement place Anthropic en concurrence directe avec un écosystème entier d'outils spécialisés que les entreprises utilisent aujourd'hui séparément : LangGraph et CrewAI pour l'orchestration, Pinecone pour la mémoire vectorielle à long terme, DeepEval pour l'évaluation externe, et des équipes humaines entières pour le contrôle qualité. En consolidant toutes ces couches dans un runtime unifié, Anthropic promet une traçabilité complète et un déploiement simplifié. Mais cette intégration verticale soulève des questions sérieuses pour les entreprises. La plateforme tourne sur une infrastructure qu'elles ne contrôlent pas, ce qui peut créer des problèmes de conformité sur la résidence des données, un point critique dans des secteurs régulés comme la finance ou la santé. Par ailleurs, les organisations déjà engagées dans de vastes chantiers de transformation IA ne peuvent pas forcément remplacer leurs systèmes existants du jour au lendemain sans casser leurs workflows. La vraie tension est celle du lock-in. En concentrant mémoire, orchestration et évaluation dans une même couche, Anthropic capte l'essentiel de l'architecture décisionnelle des agents, et les entreprises qui adoptent pleinement la plateforme se retrouvent structurellement dépendantes d'un seul fournisseur. Cette dynamique n'est pas propre à Anthropic : OpenAI et Microsoft poussent également vers des architectures intégrées, au motif que rapprocher orchestration et modèle améliore le contrôle et la cohérence. Mais le mouvement accélère une recomposition du marché où les couches intermédiaires, mémoire, routing, évaluation, risquent d'être absorbées par les grands modèles eux-mêmes. Les entreprises qui ont investi dans des stacks modulaires et flexibles devront arbitrer entre la commodité d'une plateforme tout-en-un et leur capacité à rester agiles face à un marché encore en pleine définition.

UELes entreprises européennes des secteurs régulés (finance, santé) devront évaluer la conformité de l'infrastructure hébergée d'Anthropic avec les exigences de résidence des données imposées par le RGPD.

💬 Anthropic ne vend plus un modèle, il vend une plateforme, et la différence va se payer cash d'ici 18 mois. Mémoire, orchestration, évaluation dans un seul runtime hébergé, c'est séduisant pour les équipes qui gèrent 4 outils différents, mais ça fait une dépendance énorme sur l'architecture décisionnelle complète. Pour les boîtes françaises en finance ou santé, la question de la résidence des données n'est pas rhétorique.

BusinessOutil
1 source
KPMG dévoile sa stratégie d'agents IA pour améliorer les marges des entreprises
3AI News 

KPMG dévoile sa stratégie d'agents IA pour améliorer les marges des entreprises

Malgré des budgets IA en forte hausse, seules 11 % des grandes entreprises mondiales ont atteint un stade de déploiement d'agents IA produisant des résultats à l'échelle de l'organisation, selon le premier baromètre trimestriel Global AI Pulse de KPMG, publié début 2026. L'enquête révèle que les entreprises prévoient en moyenne de dépenser 186 millions de dollars sur les douze prochains mois en intelligence artificielle — 245 millions pour la région Asie-Pacifique, 207 millions pour les États-Unis, 157 millions pour la zone EMEA. Pourtant, 64 % des répondants déclarent obtenir des résultats « significatifs », un qualificatif que KPMG juge trompeur : entre des gains de productivité marginaux et une transformation opérationnelle capable de peser sur les marges, l'écart reste, pour la majorité, considérable. Le vrai enseignement du rapport est la fracture entre les « leaders IA » — les organisations qui déploient des agents autonomes capables de coordonner des tâches entre fonctions, de prendre des décisions sans validation humaine à chaque étape, et d'identifier des anomalies en quasi-temps réel — et tout le reste. Parmi ces leaders, 82 % disent obtenir de la valeur concrète de l'IA, contre 62 % pour les autres entreprises. Cet écart de 20 points cache une différence de philosophie radicale : les retardataires ont superposé des outils IA (copilotes, résumés automatiques) à leurs processus existants sans les repenser, générant des améliorations ponctuelles. Les leaders ont fait l'inverse — ils ont d'abord redessiné leurs processus, puis déployé les agents pour les opérer. En ingénierie informatique, 75 % des leaders utilisent des agents pour accélérer le développement logiciel, contre 64 % pour leurs pairs ; en opérations et supply chain, l'écart est de 64 % contre 55 %. Ce ne sont pas des différences d'adoption d'outils, mais de réarchitecture profonde. Ce rapport s'inscrit dans un mouvement de fond : depuis 2023, les grandes entreprises ont massivement investi dans des modèles de langage, mais la pression monte pour justifier ces dépenses auprès des conseils d'administration. Steve Chase, directeur mondial de l'IA chez KPMG International, résume : « Dépenser plus pour l'IA n'est pas synonyme de créer de la valeur. » La vraie question posée par ces 186 millions de budget moyen n'est pas leur montant, mais leur affectation : quelle part va à l'infrastructure opérationnelle nécessaire pour extraire de la valeur des modèles eux-mêmes, plutôt qu'aux seules licences et à la puissance de calcul ? Sur un horizon de trois à cinq ans, la réponse à cette question pourrait devenir la principale variable de compétitivité dans plusieurs secteurs industriels.

UELa zone EMEA affiche un budget IA moyen de 157 millions de dollars, inférieur aux États-Unis (207 M$) et à l'Asie-Pacifique (245 M$), signalant un risque de décrochage compétitif pour les entreprises européennes si elles ne passent pas à une logique de réarchitecture des processus.

BusinessActu
1 source
Au-delà des modèles : où les investisseurs cherchent la prochaine vague de l'IA
4The Information AI 

Au-delà des modèles : où les investisseurs cherchent la prochaine vague de l'IA

Face à la concentration massive des investissements dans les modèles frontières et les infrastructures des hyperscalers, les investisseurs cherchent de nouveaux territoires où l'IA offre encore de la valeur. Dans une table ronde organisée par The Information, Alexa von Tobel, fondatrice du fonds early-stage Inspired Capital, et Alex Baker, associé chez PwC en charge des opérations TMT aux États-Unis, ont identifié les poches où le potentiel reste intact. Parmi les signaux du marché : le mois dernier, la startup Cursor a accordé à SpaceX une option de rachat à 60 milliards de dollars, illustrant à la fois l'appétit pour l'IA applicative et la fragilité croissante des positions différenciantes dans le logiciel vertical. Pour les deux investisseurs, la vraie question n'est plus de savoir si l'IA va transformer les industries, mais où les avantages concurrentiels sont durables. Von Tobel avertit que dans un monde dominé par des géants comme Google ou Microsoft, chacun avec plus d'un milliard d'utilisateurs, il est risqué de construire quelque chose qu'ils pourraient répliquer à moindre effort. Baker, lui, définit la défendabilité par trois critères : l'intégration profonde dans les environnements enterprise, la difficulté à reproduire l'infrastructure technique sous-jacente, et la confiance des clients. Il estime que la différenciation des startups d'IA verticale qui entraînent leurs propres modèles sectoriels s'érode rapidement, et que le vrai rempart se situe désormais dans la couche d'orchestration, plus difficile à reproduire que le modèle lui-même. C'est dans l'IA physique que les deux investisseurs voient le potentiel le plus solide pour les quatre prochaines années. Von Tobel cite BrightAI, une société de son portefeuille qu'elle décrit comme "Cursor pour les travailleurs d'infrastructure" : l'entreprise déploie des capteurs sur des canalisations d'eau, des poteaux téléphoniques et d'autres actifs physiques, collectant des données que personne d'autre ne capte. L'avantage est concret : retirer des centaines de milliers de capteurs collés sur des équipements serait coûteux et laborieux. Baker souligne que cette irréversibilité physique crée des barrières à l'entrée bien plus solides que celles du logiciel. Il cite également la revitalisation de secteurs comme la sécurité physique, caméras, lecteurs de badges et serrures connectées, longtemps considérés comme matures et désormais réinventés par l'IA. Quant au logiciel traditionnel, Baker reste optimiste malgré la montée des outils de "vibe coding" : dans les workflows réglementés et critiques, les coûts de migration restent un rempart efficace, d'autant qu'un futur peuplé d'agents IA actifs 24h/24 pourrait en fait accroître la demande de logiciels, pas la réduire.

BusinessOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour