
Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique
Le Forum InCyber 2026 a mis en lumière une tension croissante au sein des entreprises françaises face à l'usage non encadré de l'intelligence artificielle. À l'occasion de cet événement dédié à la cybersécurité, le média Numerama a approfondi les débats autour du phénomène dit de « Shadow AI » — soit l'utilisation par les employés d'outils d'IA grand public sans validation ni supervision de leur organisation. Deux questions centrales ont structuré ces échanges : quelle stratégie les entreprises doivent-elles adopter, et qui porte la responsabilité juridique en cas de fuite de données sensibles ?
La tentation du blocage total est forte, mais elle est présentée comme une erreur stratégique majeure. Interdire l'IA revient à pousser les usages dans l'ombre plutôt qu'à les encadrer, ce qui aggrave précisément le risque que l'on cherche à éviter. Les employés continuent d'utiliser ChatGPT, Claude ou d'autres outils sur leurs appareils personnels, parfois en y copiant des documents confidentiels — sans que l'entreprise en ait connaissance ni contrôle.
Le Forum InCyber s'inscrit dans un contexte où la directive NIS2 et le règlement européen sur l'IA imposent de nouvelles obligations aux organisations. Plutôt que l'interdiction, les experts plaident pour une gouvernance active : cartographier les usages existants, définir des outils approuvés, former les équipes, et établir des politiques claires de responsabilité. La question n'est plus de savoir si les employés utilisent l'IA, mais comment l'entreprise choisit — ou non — de s'en emparer.
Les entreprises françaises sont directement concernées par les obligations d'encadrement imposées par la directive NIS2 et le règlement européen sur l'IA, qui exigent une gouvernance active des usages internes de l'IA sous peine d'engager leur responsabilité juridique.



