
Comment les entreprises profitent de l’usage dissimulé de l’intelligence artificielle au travail
Dans la plupart des grandes entreprises, l'intelligence artificielle s'est d'abord installée par la petite porte : des salariés ont adopté en catimini des outils comme ChatGPT ou Copilot, souvent sans autorisation de leur hiérarchie. Ce phénomène, baptisé « shadow AI », s'est généralisé au point que certaines études estiment que plus de la moitié des employés utilisent des outils d'IA non approuvés dans leur travail quotidien, à l'insu de leur employeur.
Plutôt que de sanctionner ces pratiques, un nombre croissant de directions choisissent désormais de les récupérer à leur avantage. En observant quels outils s'imposent spontanément, les entreprises identifient les cas d'usage les plus pertinents et les salariés les plus avancés — des données précieuses pour piloter leur propre stratégie d'adoption de l'IA. Ce retournement transforme une zone de risque (fuite de données, violation de licences) en un laboratoire d'innovation involontaire.
Ce basculement révèle une tension structurelle dans la transformation numérique des organisations : les politiques officielles peinent à suivre le rythme d'adoption réel des technologies. Après des années de gouvernance restrictive sur le BYOD et les outils cloud non validés, les entreprises semblent tirer les leçons du passé en optant pour une intégration encadrée plutôt qu'une interdiction inapplicable. La question des données sensibles transmises à des modèles externes reste néanmoins un angle mort majeur.
Les entreprises européennes confrontées au shadow AI doivent adapter leur gouvernance IA en tenant compte des obligations RGPD sur la transmission de données sensibles à des modèles externes.

