Aller au contenu principal
SAP : comment la gouvernance de l'IA en entreprise protège les marges bénéficiaires
BusinessAI News2h

SAP : comment la gouvernance de l'IA en entreprise protège les marges bénéficiaires

Résumé IASource uniqueImpact UE
Source originale ↗·

Manos Raptopoulos, président mondial du succès client pour l'Europe, l'APAC, le Moyen-Orient et l'Afrique chez SAP, a posé un constat sans appel lors de l'AI & Big Data Expo North America : la distance entre 90 % et 100 % de précision n'est pas une nuance graduelle dans le monde de l'entreprise, c'est une différence existentielle. Les systèmes d'IA dits "agentiques" sont désormais capables de planifier, raisonner, coordonner d'autres agents et exécuter des flux de travail de façon autonome. Mais leur déploiement à grande échelle expose les organisations à des risques opérationnels sévères si leur gouvernance reste au stade de la liste de conformité plutôt que de devenir une contrainte d'ingénierie à part entière. Intégrer des bases de données vectorielles modernes aux architectures relationnelles historiques exige des investissements massifs, et restreindre la boucle d'inférence de l'agent pour éviter les hallucinations dans les chaînes financières ou logistiques fait grimper la latence et les coûts de calcul cloud, modifiant les projections de rentabilité initiales.

L'enjeu dépasse la simple fiabilité technique : il touche directement les marges et la responsabilité juridique des entreprises. Raptopoulos identifie trois questions que les conseils d'administration doivent impérativement résoudre avant tout déploiement agentique : qui est responsable en cas d'erreur d'un agent, comment tracer les décisions automatisées pour les audits, et à quel seuil précis l'humain doit reprendre la main. Sans ces réponses, l'expansion incontrôlée des agents risque de reproduire les crises du "shadow IT" de la décennie passée, avec des conséquences potentiellement bien plus graves, car ces systèmes agissent directement sur des données sensibles et influencent des décisions à l'échelle de l'organisation entière. Des données maîtres fragmentées, des systèmes métiers en silos ou des ERP surchargés de personnalisations introduisent une imprévisibilité dangereuse au pire moment : lorsqu'un agent autonome s'appuie sur ces fondations défaillantes pour formuler une recommandation touchant la trésorerie, les relations clients ou la conformité réglementaire, les dégâts opérationnels se propagent instantanément.

Ce diagnostic s'inscrit dans un contexte de fragmentation géopolitique croissante. Les mandats de souveraineté des données et les exigences de localisation dans des marchés clés comme New York, Francfort, Riyad ou Singapour complexifient la définition des périmètres de responsabilité. SAP avance que l'intelligence d'entreprise authentique ne peut pas reposer sur des grands modèles de langage entraînés sur du texte générique : elle doit être ancrée dans les données propriétaires de l'entreprise, commandes, factures, dossiers logistiques et données financières incluses. Raptopoulos en fait un mandat de direction générale, non un projet informatique : intégrer un contrôle déterministe au coeur d'une intelligence probabiliste est la condition pour que l'IA agentique devienne un levier de rentabilité plutôt qu'une source de risque systémique.

Impact France/UE

SAP, éditeur européen majeur, formule un cadre de gouvernance pour l'IA agentique directement applicable aux DSI françaises et européennes soumises aux exigences de localisation des données et à l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1AI News 

IBM : une gouvernance rigoureuse de l'IA protège les marges des entreprises

Rob Thomas, vice-président senior et directeur commercial d'IBM, a récemment exposé une thèse structurante pour les décideurs technologiques : les logiciels suivent une trajectoire prévisible, passant du statut de produit à celui de plateforme, puis d'infrastructure fondamentale. Chaque transition modifie radicalement les règles du jeu. IBM estime que l'intelligence artificielle franchit actuellement ce dernier seuil dans l'architecture des grandes entreprises, passant d'un outil expérimental à une couche opérationnelle centrale, intégrée dans la sécurité réseau, la génération de code, les décisions automatisées et la création de valeur commerciale. Cette évolution a été mise en lumière par la préversion de Claude Mythos, le nouveau modèle d'Anthropic capable, selon l'entreprise, de détecter et exploiter des vulnérabilités logicielles à un niveau comparable aux meilleurs experts humains. Face à ce pouvoir, Anthropic a lancé le projet Glasswing, une initiative sélective visant à placer ces capacités en priorité entre les mains des équipes de défense réseau. Pour IBM, cette réalité crée une exposition opérationnelle majeure pour toute organisation dont la stratégie repose sur des modèles d'IA fermés et propriétaires. Lorsqu'un système autonome peut rédiger des exploits et influencer l'environnement de sécurité global, concentrer la compréhension de ces systèmes chez un petit nombre de fournisseurs devient un risque structurel grave. Les architectures opaques génèrent également des frictions concrètes : connecter un modèle propriétaire à des bases de données vectorielles d'entreprise ou à des lacs de données sensibles crée des goulots d'étranglement de débogage considérables. Quand un modèle produit des sorties anormales ou que le taux d'hallucination augmente, les équipes techniques n'ont pas la visibilité interne nécessaire pour déterminer si l'erreur provient du pipeline de génération augmentée par récupération ou des poids du modèle de base. S'y ajoutent des problèmes de latence liés à l'intégration d'architectures sur site avec des modèles cloud verrouillés, ainsi que des coûts de calcul liés aux appels API continus qui érodent précisément les marges que ces systèmes sont censés préserver. La thèse d'IBM s'inscrit dans un débat plus large sur l'avenir de l'IA en entreprise : à l'ère des modèles-produits, la fermeture était une stratégie défendable et lucrative. À l'ère de l'IA-infrastructure, elle devient un handicap compétitif et sécuritaire. Aucun fournisseur unique ne peut anticiper tous les vecteurs d'attaque, les défaillances système ou les besoins opérationnels d'un écosystème aussi hétérogène que celui des grandes entreprises. IBM plaide donc pour une gouvernance ouverte et inspectable de l'IA, où la priorité n'est plus seulement ce que les modèles peuvent faire, mais comment ils sont construits, audités et améliorés dans la durée. Dans ce contexte, des initiatives comme Glasswing d'Anthropic signalent une prise de conscience sectorielle, mais la question de qui contrôle et comprend réellement ces infrastructures critiques reste entière.

UELa thèse d'IBM sur la gouvernance ouverte de l'IA s'aligne avec les exigences de l'AI Act européen en matière de transparence et d'auditabilité des systèmes IA déployés dans des infrastructures critiques.

InfrastructureOpinion
1 source
Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle
2AI News 

Les entreprises élargissent leur adoption de l'IA tout en maintenant le contrôle

La majorité des entreprises déploient aujourd'hui l'intelligence artificielle de manière progressive et encadrée, loin des systèmes autonomes qui font régulièrement la une. Selon une étude de McKinsey & Company, la plupart des organisations utilisent désormais l'IA dans au moins un domaine de leur activité, mais rares sont celles qui l'ont déployée à l'échelle de l'ensemble de l'entreprise. Un exemple concret illustre cette tendance : S&P Global Market Intelligence a intégré des outils d'IA dans sa plateforme Capital IQ Pro, utilisée par des analystes financiers pour examiner des dépôts réglementaires, des transcriptions d'appels de résultats et des données de marché. Le système permet d'interroger de vastes ensembles de données via une interface conversationnelle, mais les résultats restent systématiquement ancrés dans des sources financières vérifiées, avec la possibilité de remonter aux documents d'origine pour limiter les erreurs. Ce choix d'une IA d'assistance plutôt qu'autonome n'est pas anodin dans des secteurs où une erreur peut entraîner des pertes financières importantes ou engager des responsabilités légales. En finance, les outils comme Capital IQ Pro sont conçus pour éclairer le jugement des analystes, pas pour le remplacer. La décision finale reste humaine. McKinsey souligne par ailleurs un écart croissant entre le déploiement de l'IA et la génération de valeur mesurable : de nombreuses organisations peinent à traduire leurs investissements en résultats concrets. Ce fossé pousse les directions à exiger des systèmes capables d'expliquer leurs sorties, de citer leurs sources et d'opérer dans des périmètres définis, trois conditions essentielles pour établir la confiance dans des environnements réglementés. Derrière cette prudence se dessine un enjeu de gouvernance qui mobilise de plus en plus d'acteurs. S&P Global Market Intelligence note que les organisations bâtissent activement des cadres pour gérer les risques liés à l'IA, notamment la qualité des données et les biais des modèles. Les systèmes agents, capables de planifier et d'agir sans intervention humaine directe, suscitent un intérêt grandissant, mais la majorité des entreprises en est encore aux premières étapes d'expérimentation. Les progrès continus sur les grands modèles de langage laissent entrevoir des usages plus autonomes à terme, en analyse financière, support client ou gestion de chaîne logistique. Ces questions seront au coeur de l'AI & Big Data Expo North America 2026, qui se tiendra les 18 et 19 mai prochains, avec S&P Global Market Intelligence parmi les sponsors, et des sessions dédiées à la gouvernance de l'IA et à son usage dans les industries régulées.

UELes entreprises européennes opérant dans des secteurs réglementés (finance, santé) sont directement concernées par les cadres de gouvernance IA décrits, notamment dans le contexte de la mise en conformité avec l'AI Act.

BusinessOpinion
1 source
Comment les entreprises profitent de l’usage dissimulé de l’intelligence artificielle au travail
3Le Monde Pixels 

Comment les entreprises profitent de l’usage dissimulé de l’intelligence artificielle au travail

Dans la plupart des grandes entreprises, l'intelligence artificielle s'est d'abord installée par la petite porte : des salariés ont adopté en catimini des outils comme ChatGPT ou Copilot, souvent sans autorisation de leur hiérarchie. Ce phénomène, baptisé « shadow AI », s'est généralisé au point que certaines études estiment que plus de la moitié des employés utilisent des outils d'IA non approuvés dans leur travail quotidien, à l'insu de leur employeur. Plutôt que de sanctionner ces pratiques, un nombre croissant de directions choisissent désormais de les récupérer à leur avantage. En observant quels outils s'imposent spontanément, les entreprises identifient les cas d'usage les plus pertinents et les salariés les plus avancés — des données précieuses pour piloter leur propre stratégie d'adoption de l'IA. Ce retournement transforme une zone de risque (fuite de données, violation de licences) en un laboratoire d'innovation involontaire. Ce basculement révèle une tension structurelle dans la transformation numérique des organisations : les politiques officielles peinent à suivre le rythme d'adoption réel des technologies. Après des années de gouvernance restrictive sur le BYOD et les outils cloud non validés, les entreprises semblent tirer les leçons du passé en optant pour une intégration encadrée plutôt qu'une interdiction inapplicable. La question des données sensibles transmises à des modèles externes reste néanmoins un angle mort majeur.

UELes entreprises européennes confrontées au shadow AI doivent adapter leur gouvernance IA en tenant compte des obligations RGPD sur la transmission de données sensibles à des modèles externes.

BusinessOpinion
1 source
4MIT Technology Review 

L'IA d'entreprise comme couche d'exploitation

La vraie ligne de fracture dans l'IA d'entreprise n'est pas celle que l'on suit habituellement dans les médias. Pendant que le débat public se focalise sur les benchmarks des modèles fondateurs, GPT contre Gemini, scores de raisonnement, gains marginaux de performance, l'avantage décisif se joue ailleurs : dans la couche opérationnelle, c'est-à-dire l'ensemble formé par les logiciels de workflow, la capture de données, les boucles de rétroaction et la gouvernance qui s'intercale entre les modèles d'IA et le travail réel. Des acteurs comme OpenAI et Anthropic vendent l'intelligence comme un service : on a un problème, on appelle une API, on obtient une réponse. Cette intelligence est généraliste, largement sans mémoire d'une session à l'autre, et de plus en plus interchangeable. À l'opposé, les organisations établies ont la possibilité de traiter l'IA comme une couche opérationnelle permanente : chaque exception, chaque correction, chaque validation humaine devient un signal d'apprentissage, et l'intelligence s'améliore à mesure que la plateforme absorbe davantage de travail. Ce modèle inverse la relation traditionnelle entre humains et machines. Dans une organisation de services classique, les opérateurs utilisent des logiciels pour effectuer un travail d'expert : la technologie est le médium, le jugement humain est le produit. Une plateforme pensée nativement pour l'IA renverse cette logique : le système ingère un problème, applique la connaissance accumulée du domaine, exécute de manière autonome ce qu'il peut traiter avec une haute confiance, et renvoie vers des experts humains uniquement les sous-tâches qui requièrent un jugement que le système ne maîtrise pas encore. Cette inversion n'est pas qu'un simple redesign d'interface, elle exige une matière première que les startups ne peuvent pas fabriquer rapidement : des données opérationnelles propriétaires, une large base d'experts dont les décisions quotidiennes génèrent des signaux d'entraînement, et une connaissance tacite accumulée sur des années quant à la façon dont le travail complexe se fait réellement. C'est là où réside le véritable enjeu stratégique de la décennie. Le récit dominant affirme que les startups agiles vont surpasser les acteurs établis en construisant des systèmes AI-native from scratch. Si l'IA était avant tout un problème de modèles, cette thèse tiendrait. Mais dans beaucoup de secteurs d'entreprise, c'est un problème de systèmes, intégrations, permissions, évaluation, gestion du changement, où l'avantage revient à ceux qui sont déjà ancrés dans des workflows à fort volume et à forts enjeux. La société Ensemble illustre cette approche avec une stratégie de "distillation de connaissance" : transformer l'expertise tacite et périssable des meilleurs opérateurs en signaux réutilisables, puis réinjecter ces résultats dans les workflows pour que le système continue à progresser. Les ingrédients existent déjà chez les acteurs historiques ; la question est de savoir qui saura les convertir en avantage compétitif durable avant que la fenêtre ne se referme.

BusinessOpinion
1 source