
Les entreprises surestiment leur contrôle sur l'IA : 72 % ne sont pas aussi sécurisées qu'elles le croient
Dans 72 % des entreprises interrogées, les décideurs affirment utiliser au moins deux plateformes d'intelligence artificielle qu'ils considèrent comme leur couche "primaire", selon une enquête menée par VentureBeat auprès de 40 grandes entreprises entre janvier et mars 2026. Ce chiffre révèle un écart béant entre la perception du contrôle et la réalité opérationnelle. L'exemple le plus frappant vient du système hospitalier Mass General Brigham (MGB), plus grand employeur du Massachusetts avec 90 000 salariés : l'an dernier, son directeur technique Nallan Sriraman a dû stopper un nombre incontrôlé de projets pilotes internes en IA qui avaient proliféré sans supervision. MGB a depuis construit une plateforme sécurisée maison autour de Microsoft Copilot, capable de supporter jusqu'à 30 000 utilisateurs, pour empêcher que les données de santé protégées (PHI) des patients ne soient transmises au fournisseur du modèle sous-jacent, OpenAI. En parallèle, l'hôpital doit bâtir un "plan de contrôle" central pour orchestrer les agents IA déployés séparément par Epic, Workday et ServiceNow, qui fonctionnent tous différemment.
Ce phénomène de dispersion, que VentureBeat nomme "gouvernance mirage", traduit une contradiction structurelle : les entreprises croient avoir mis en place une gouvernance solide alors qu'elles n'ont défini ni responsabilités claires, ni garde-fous précis, ni processus d'évaluation ou de sécurité réels. Pour les responsables de la sécurité en particulier, cette multiplicité de plateformes, issues de Microsoft Azure, Google, OpenAI, Anthropic ou d'éditeurs applicatifs, élargit mécaniquement la surface d'attaque, à un moment où les cyberattaques assistées par IA gagnent en sophistication. Le paradoxe est d'autant plus aigu que les entreprises se sont tournées vers leurs grands fournisseurs logiciels existants pour éviter de dupliquer les efforts, mais se retrouvent malgré tout contraintes de construire autour de leurs lacunes.
Ce contexte reflète la vitesse à laquelle les hyperscalers et les grands éditeurs ont intégré l'IA dans leurs offres, forçant leurs clients entreprise à absorber une complexité non anticipée. Comme l'explique Sriraman avec l'analogie des "six aveugles et l'éléphant", chaque fournisseur décrit l'IA à sa façon, rendant toute vision cohérente difficile à construire. Le marché reste "encore naissant", selon ses termes, ce qui rend les décisions stratégiques particulièrement hasardeuses. La prochaine étape pour des organisations comme MGB sera de stabiliser ces plans de contrôle multi-agents tout en attendant que les fournisseurs mûrissent leurs propres capacités de sécurité, un pari sur un calendrier que personne ne maîtrise vraiment.
Les entreprises européennes soumises aux obligations de conformité de l'AI Act sont particulièrement exposées à ce risque de 'gouvernance mirage', où un écart entre gouvernance déclarée et réalité opérationnelle pourrait constituer une non-conformité réglementaire.




