
Keri Pearlson (MIT) : « Le plus grand risque avec l’IA, c’est la confiance que nous lui accordons »
Keri Pearlson, chercheuse au MIT Sloan School of Management spécialisée en cybersécurité et gouvernance numérique, a accordé un entretien en marge du Forum InCyber, qui se tient à Lille jusqu'au 2 avril 2026. Sa mise en garde est directe : le principal danger de l'IA générative en entreprise ne réside pas dans ses failles techniques, mais dans la confiance excessive que lui accordent salariés et dirigeants. Selon elle, cette sur-confiance fragilise des organisations qui peinent déjà à instaurer une véritable culture de la cybersécurité.
L'enjeu est concret : lorsque les collaborateurs délèguent aveuglément des décisions ou des tâches sensibles à des outils d'IA, ils contournent sans le savoir les garde-fous humains qui constituent la dernière ligne de défense contre les cyberattaques. Les dirigeants, souvent séduits par les gains de productivité, sous-estiment les nouveaux vecteurs de risque introduits par ces outils — phishing augmenté, manipulation sémantique, fuites de données via des prompts mal maîtrisés. L'IA ne remplace pas le risque humain, elle le démultiplie.
Ce constat s'inscrit dans un contexte où la culture cyber reste un chantier inachevé dans la plupart des entreprises : formations insuffisantes, responsabilités floues, écart persistant entre discours de direction et pratiques terrain. Le Forum InCyber, rendez-vous annuel qui rassemble experts, industriels et décideurs publics européens, illustre l'urgence du sujet. Les travaux de Pearlson au MIT pointent vers une nécessité : intégrer la gouvernance de l'IA directement dans les stratégies de cybersécurité, plutôt que de traiter les deux disciplines séparément.
L'interview se tient au Forum InCyber de Lille, rendez-vous européen de référence en cybersécurité, et ses recommandations sur la gouvernance IA s'adressent directement aux entreprises et décideurs publics français et européens.



