Aller au contenu principal
Keri Pearlson (MIT) : « Le plus grand risque avec l’IA, c’est la confiance que nous lui accordons »
AutreLa Tribune1h

Keri Pearlson (MIT) : « Le plus grand risque avec l’IA, c’est la confiance que nous lui accordons »

1 source couvre ce sujet·Source originale ↗·

Keri Pearlson, chercheuse au MIT Sloan School of Management spécialisée en cybersécurité et gouvernance numérique, a accordé un entretien en marge du Forum InCyber, qui se tient à Lille jusqu'au 2 avril 2026. Sa mise en garde est directe : le principal danger de l'IA générative en entreprise ne réside pas dans ses failles techniques, mais dans la confiance excessive que lui accordent salariés et dirigeants. Selon elle, cette sur-confiance fragilise des organisations qui peinent déjà à instaurer une véritable culture de la cybersécurité.

L'enjeu est concret : lorsque les collaborateurs délèguent aveuglément des décisions ou des tâches sensibles à des outils d'IA, ils contournent sans le savoir les garde-fous humains qui constituent la dernière ligne de défense contre les cyberattaques. Les dirigeants, souvent séduits par les gains de productivité, sous-estiment les nouveaux vecteurs de risque introduits par ces outils — phishing augmenté, manipulation sémantique, fuites de données via des prompts mal maîtrisés. L'IA ne remplace pas le risque humain, elle le démultiplie.

Ce constat s'inscrit dans un contexte où la culture cyber reste un chantier inachevé dans la plupart des entreprises : formations insuffisantes, responsabilités floues, écart persistant entre discours de direction et pratiques terrain. Le Forum InCyber, rendez-vous annuel qui rassemble experts, industriels et décideurs publics européens, illustre l'urgence du sujet. Les travaux de Pearlson au MIT pointent vers une nécessité : intégrer la gouvernance de l'IA directement dans les stratégies de cybersécurité, plutôt que de traiter les deux disciplines séparément.

Impact France/UE

L'interview se tient au Forum InCyber de Lille, rendez-vous européen de référence en cybersécurité, et ses recommandations sur la gouvernance IA s'adressent directement aux entreprises et décideurs publics français et européens.

À lire aussi

OpenClaw compte 500 000 instances déployées sans aucun mécanisme de désactivation centralisé
1VentureBeat AI 

OpenClaw compte 500 000 instances déployées sans aucun mécanisme de désactivation centralisé

Un agent IA personnel nommé OpenClaw s'est retrouvé au cœur d'une faille de sécurité majeure exposée lors de la conférence RSAC 2026. Le 22 février, un acteur malveillant utilisant le pseudonyme « fluffyduck » a mis en vente sur BreachForums un accès root au poste d'un PDG britannique pour 25 000 dollars en cryptomonnaie. La marchandise principale n'était pas l'accès machine lui-même, mais l'intégralité de l'instance OpenClaw du dirigeant : l'historique complet de ses conversations avec l'IA, la base de données de production de son entreprise, des tokens Telegram, des clés API Trading 212, ainsi que des informations personnelles sur sa famille et ses finances. Le chercheur Vitaly Simonovich de Cato CTRL a documenté l'annonce dès le 25 février. L'instance OpenClaw stockait tout en fichiers Markdown en clair sous ~/.openclaw/workspace/, sans chiffrement. L'attaquant n'avait rien à exfiltrer — le PDG avait lui-même tout centralisé. Lors d'un contrôle en direct sur Censys effectué à RSAC 2026, Etay Maor, VP Threat Intelligence chez Cato Networks, a observé une croissance explosive : 6 300 instances la première semaine de lancement, 230 000 la semaine suivante, puis près de 500 000 au moment de la vérification — quasiment un doublement en sept jours. Trois CVE à haute sévérité définissent la surface d'attaque : CVE-2026-24763 (CVSS 8.8, injection de commande via Docker), CVE-2026-25157 (CVSS 7.7, injection OS) et CVE-2026-25253 (CVSS 8.8, exfiltration de tokens). Plus de 30 000 instances présentent des risques de sécurité détectés, dont 15 200 exploitables via des RCE connues selon SecurityScorecard. L'absence totale de plan de gestion d'entreprise constitue le problème structurel central. Lorsque l'équipe de sécurité du PDG a découvert la compromission, il n'existait aucun kill switch natif, aucune console d'administration et aucun moyen d'inventorier les instances actives dans l'organisation. Les trois CVE ont été patchées, mais sans mécanisme centralisé de mise à jour ni de désactivation à distance, chaque administrateur doit intervenir manuellement — et la plupart ne l'ont pas fait. Quatre éditeurs ont présenté des réponses à RSAC 2026 sans pour autant fournir le contrôle le plus basique : un kill switch d'entreprise natif. Ce cas illustre une tension fondamentale dans l'adoption rapide des agents IA. OpenClaw s'exécute localement avec accès direct au système de fichiers, aux connexions réseau, aux sessions navigateur et aux applications installées — une autonomie qu'aucune entreprise n'accorderait à un employé humain sans contrôle. La marketplace ClawHub a par ailleurs distribué ClawHavoc, un skill malveillant parmi 341 identifiés comme dangereux, devenu le cas d'école principal du classement OWASP Agentic Skills Top 10. Le PDG de CrowdStrike, George Kurtz, l'a cité dans son keynote RSAC 2026 comme la première attaque majeure sur la chaîne d'approvisionnement d'un écosystème d'agents IA. Les capteurs Falcon de CrowdStrike détectent déjà plus de 1 800 applications IA distinctes sur les endpoints clients, générant 160 millions d'instances uniques — un volume qui rend l'absence de gouvernance centralisée d'autant plus critique à mesure que ces outils s'installent dans les environnements professionnels.

UELes entreprises européennes déployant des agents IA autonomes doivent auditer d'urgence leurs instances et appliquer manuellement les correctifs des trois CVE critiques, aucun mécanisme centralisé de mise à jour n'étant disponible.

AutreActu
1 source
Le code source de l'agent de codage d'Anthropic exposé dans une fuite
2The Information AI 

Le code source de l'agent de codage d'Anthropic exposé dans une fuite

Anthropic a accidentellement divulgué une partie du code source de son application Claude Code, a confirmé la société mardi. La fuite, remarquée tôt dans la matinée par des développeurs, a exposé des détails inédits sur le fonctionnement interne de l'outil de programmation assistée par IA, ainsi que des références à des modèles et fonctionnalités encore non annoncés. Cet incident est significatif pour l'industrie car Claude Code est l'un des agents de codage les plus utilisés du moment, directement concurrent de GitHub Copilot et Cursor. L'exposition du code source permet à des concurrents d'analyser l'architecture interne du produit, ses mécanismes de raisonnement et potentiellement d'anticiper la roadmap produit d'Anthropic — un avantage concurrentiel non négligeable dans un secteur en compétition intense. Anthropic a reconnu publiquement l'erreur, ce qui suggère que la fuite n'était pas intentionnelle et que la société a cherché à limiter rapidement les dégâts. La divulgation accidentelle de code propriétaire est un risque opérationnel croissant pour les laboratoires d'IA, dont les produits reposent sur des systèmes de prompts et d'orchestration souvent aussi précieux que les modèles eux-mêmes. L'incident intervient alors qu'Anthropic intensifie sa mise sur le marché des outils développeurs, un segment stratégique face à OpenAI et Google.

AutreActu
1 source
Créez avec Veo 3.1 Lite, notre modèle de génération vidéo le plus accessible
3Google AI Blog 

Créez avec Veo 3.1 Lite, notre modèle de génération vidéo le plus accessible

Google a mis en disponibilité Veo 3.1 Lite, sa nouvelle version allégée de modèle de génération vidéo, en accès payant via l'API Gemini et en test gratuit sur Google AI Studio. Présenté comme le modèle de génération vidéo le plus économique de la gamme, il s'adresse aux développeurs et entreprises souhaitant intégrer la création vidéo IA dans leurs applications sans supporter les coûts de la version complète Veo 3.1. Ce lancement répond à une demande croissante de solutions vidéo IA accessibles pour les équipes produit et les startups. En proposant une alternative moins coûteuse, Google ouvre la génération vidéo à une base bien plus large de développeurs, au-delà des grandes entreprises capables d'absorber les tarifs premium. La disponibilité directe via l'API Gemini facilite l'intégration dans des pipelines existants. Veo 3.1 Lite s'inscrit dans la stratégie de Google de démocratiser ses outils d'IA générative face à la concurrence de Sora d'OpenAI et Runway. La famille Veo, lancée en 2024, monte progressivement en accessibilité après avoir ciblé initialement les partenaires enterprise. La phase de "paid preview" suggère une disponibilité générale prochaine, avec des tarifs définitifs à préciser.

UELes développeurs et startups européens peuvent désormais intégrer la génération vidéo IA dans leurs pipelines applicatifs à moindre coût via l'API Gemini.

AutreOutil
1 source
La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes
4AWS ML Blog 

La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes

L'ère de l'IA agentique bouleverse les fondements de la gouvernance informatique traditionnelle. Là où les systèmes DevOps classiques produisaient des résultats déterministes — même entrée, même sortie, dépendances connues — les agents IA opèrent de façon non déterministe : posez la même question deux fois, vous obtenez deux réponses différentes. Ces agents sélectionnent eux-mêmes leurs outils, adaptent leurs raisonnements et agissent de manière autonome. Face à ce constat, AWS Generative AI Innovation Center a développé une solution appelée AI Risk Intelligence (AIRI), un système de gouvernance automatisée qui centralise les évaluations de sécurité, d'opérations et de conformité en un seul tableau de bord couvrant l'ensemble du cycle de vie agentique. La solution s'appuie sur le cadre AWS Responsible AI Best Practices, construit à partir de l'expérience acquise sur des centaines de milliers de déploiements IA. L'enjeu est concret : les cadres de gouvernance IT conçus pour des déploiements statiques sont incapables de gérer les interactions complexes des systèmes multi-agents. Un scénario illustratif le démontre clairement — et figure dans le Top 10 OWASP des vulnérabilités agentiques pour 2026. Un assistant IA d'entreprise, légitimement autorisé à accéder aux e-mails, au calendrier et au CRM, reçoit via un e-mail des instructions malveillantes dissimulées. Lorsqu'un utilisateur demande un résumé anodin, l'agent compromis suit ces directives cachées : il fouille des données sensibles et les exfiltre via des invitations calendrier, tout en affichant une réponse bénigne. Les outils classiques de prévention des fuites de données et de surveillance réseau ne détectent rien — car l'agent agit dans le strict périmètre de ses permissions légitimes. La violation est invisible aux yeux des systèmes traditionnels. Ce cas révèle la nature systémique du risque agentique : une faille de sécurité se propage simultanément à travers plusieurs dimensions. L'action d'un agent en déclenche d'autres, les contrôles d'accès ne sont pas réévalués en continu pendant l'exécution, aucun point de contrôle humain ne s'interpose avant une action à haut risque, et les responsables de la conformité ne peuvent pas interpréter les données de monitoring pour détecter l'anomalie à temps. C'est pourquoi AIRI entend fusionner sécurité, opérations et gouvernance en un dispositif intégré plutôt qu'en silos séparés. Dans un contexte où les entreprises accélèrent leurs déploiements d'agents autonomes — pour automatiser des workflows, piloter des décisions, interagir avec des systèmes critiques — la question n'est plus seulement de savoir si l'IA fonctionne, mais si l'organisation peut réellement maîtriser ce qu'elle fait.

UELes entreprises européennes déployant des agents IA autonomes doivent adapter leurs cadres de gouvernance pour satisfaire aux exigences de l'AI Act, notamment en matière de supervision humaine, de traçabilité et de contrôle continu des systèmes à haut risque.

AutreActu
1 source