Aller au contenu principal
Vos développeurs font déjà tourner l'IA en local : pourquoi l'inférence sur appareil est l'angle mort du RSSI
SécuritéVentureBeat AI52min

Vos développeurs font déjà tourner l'IA en local : pourquoi l'inférence sur appareil est l'angle mort du RSSI

1 source couvre ce sujet·Source originale ↗·

Depuis dix-huit mois, les responsables de la sécurité informatique (CISO) géraient l'essor de l'IA générative avec une stratégie claire : surveiller le réseau. Bloquer les accès aux API d'OpenAI, Anthropic ou Google, router les requêtes via des passerelles contrôlées, logger chaque appel sortant. Ce modèle supposait que l'IA vivait dans le cloud et que toute interaction avec des données sensibles générait forcément du trafic réseau observable. Ce postulat est désormais obsolète. Une nouvelle génération de matériel grand public a rendu l'inférence locale non seulement possible, mais banale : un MacBook Pro équipé de 64 Go de mémoire unifiée peut faire tourner des modèles quantifiés de 70 milliards de paramètres à des vitesses utilisables. Les outils de distribution open-source permettent en une seule commande de télécharger un modèle de plusieurs gigaoctets, de couper le Wi-Fi, et de traiter des données sensibles sans qu'un seul paquet ne quitte l'appareil. Aucun log proxy, aucune trace cloud, aucune alerte DLP.

Le danger ne réside plus uniquement dans la fuite de données vers l'extérieur, mais dans trois angles morts que la plupart des entreprises n'ont pas encore opérationnalisés. Premier risque : l'intégrité du code. Un développeur senior peut coller du code d'authentification ou des scripts d'infrastructure dans un modèle local non validé pour le "nettoyer", obtenir une sortie qui compile et passe les tests unitaires, puis committer le résultat sans que personne ne sache qu'une IA a influencé ce chemin de code. Les vulnérabilités introduites (validation d'entrées défaillante, paramètres par défaut dangereux) seront investigées sans que l'on remonte jamais à leur vraie cause. Deuxième risque : la conformité des licences. De nombreux modèles performants interdisent l'usage commercial, exigent des attributions, ou imposent des restrictions incompatibles avec le développement de produits propriétaires. Quand les équipes les font tourner localement, ces modèles contournent entièrement le processus habituel d'achat et de validation juridique, exposant potentiellement l'entreprise à des litiges.

Ce phénomène, que certains appellent déjà le "Shadow AI 2.0" ou l'ère du BYOM (Bring Your Own Model), s'est imposé grâce à la convergence de trois facteurs techniques : la montée en puissance des accélérateurs grand public, la démocratisation de la quantification qui réduit drastiquement la taille des modèles, et la simplicité extrême des outils de distribution comme Ollama ou LM Studio. Le débat en entreprise reste encore cadré autour de l'exfiltration vers le cloud, alors que le risque le plus immédiat se joue désormais à l'intérieur même de l'appareil. Pour les CISO, l'enjeu n'est plus seulement de contrôler ce qui sort du réseau, mais de repenser entièrement leur modèle de gouvernance de l'IA, en intégrant l'inventaire des modèles locaux, l'audit des usages endpoint, et des politiques claires sur les modèles autorisés avant que ces pratiques ne se normalisent sans cadre.

Impact France/UE

Les entreprises françaises et européennes sont directement exposées aux risques de Shadow AI 2.0 : l'usage non contrôlé de modèles locaux par les développeurs fragilise la conformité RGPD et expose les organisations à des litiges sur les licences open-source de modèles non validés juridiquement.

À lire aussi

Les credentials des agents IA coexistent avec du code non fiable : deux architectures délimitent le périmètre de risque
1VentureBeat AI 

Les credentials des agents IA coexistent avec du code non fiable : deux architectures délimitent le périmètre de risque

À la conférence RSAC 2026, quatre grandes entreprises de cybersécurité ont tiré la même sonnette d'alarme sans s'être concertées. Microsoft, Cisco, CrowdStrike et Splunk ont chacun, depuis leur propre scène, identifié la gouvernance des agents IA comme le principal angle mort de la sécurité d'entreprise. Les chiffres donnent raison à cette convergence : 79 % des organisations déploient déjà des agents IA selon PwC, mais seulement 14,4 % disposent d'une approbation de sécurité complète pour l'ensemble de leur flotte, d'après le rapport Gravitee de février 2026 portant sur 919 organisations. Seules 26 % ont adopté une politique de gouvernance IA, selon une enquête de la Cloud Security Alliance présentée à la conférence. En parallèle, une campagne d'attaque baptisée ClawHavoc, nommée par Koi Security le 1er février 2026, a ciblé le framework agentique OpenClaw via sa place de marché : Antiy CERT a confirmé 1 184 compétences malveillantes liées à 12 comptes éditeurs, et les recherches ToxicSkills de Snyk révèlent que 36,8 % des 3 984 compétences scannées présentent des failles de sécurité, dont 13,4 % jugées critiques. Enfin, le 8 avril 2026, Anthropic a lancé en bêta publique son architecture Managed Agents, qui sépare chaque agent en trois composants distincts. Le problème structurel que ces alertes pointent est précis : dans la majorité des déploiements actuels, le modèle de raisonnement, les outils, le code exécuté et les identifiants, tokens OAuth, clés API, accès Git, cohabitent dans un même processus monolithique. Une seule injection de prompt suffit à exposer l'intégralité de l'environnement. Le rayon d'explosion n'est pas limité à l'agent : c'est le conteneur entier et tous les services connectés qui deviennent accessibles. Fait aggravant, 43 % des organisations utilisent des comptes de service partagés pour leurs agents, 52 % s'appuient sur des identités de charge de travail génériques, et 68 % sont incapables de distinguer l'activité d'un agent de celle d'un humain dans leurs journaux de logs. Le temps moyen de compromission est tombé à 29 minutes ; le plus rapide observé cette année : 27 secondes. Ce vide de responsabilité n'est pas nouveau, mais l'accélération des déploiements l'a rendu critique. Les équipes sécurité renvoyaient le sujet aux développeurs, les développeurs aux équipes sécurité. La campagne ClawHavoc illustre comment des acteurs malveillants exploitent déjà ce flou en ciblant les places de marché de compétences agentiques, vecteur d'attaque de type supply chain. Face à cette réalité, deux architectures concurrentes ont émergé à RSAC pour répondre différemment à la même question : où stopper le rayon d'explosion ? L'approche d'Anthropic, qui dissocie cerveau, mains et identifiants dans des composants séparés, s'oppose à d'autres modèles centrés sur la vérification continue de chaque action. Le débat sur la norme qui s'imposera dans l'industrie ne fait que commencer.

UELes entreprises européennes sont directement exposées : avec seulement 14,4 % des organisations disposant d'une approbation sécurité complète pour leurs agents IA, leurs infrastructures restent vulnérables aux attaques de type supply chain ciblant les places de marché agentiques.

SécuritéOpinion
1 source
Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars
2The Information AI 

Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars

Cisco est en négociations avancées pour acquérir Astrix Security, une startup israélienne de cybersécurité fondée il y a cinq ans, pour un montant compris entre 250 et 350 millions de dollars. Cette somme représenterait une prime d'au moins 25 % par rapport à la dernière valorisation de la société, estimée à environ 200 millions de dollars. Astrix commercialise des logiciels permettant de surveiller et sécuriser les agents IA, ces programmes capables d'agir automatiquement au nom des utilisateurs sur leurs appareils. Cette acquisition potentielle illustre l'urgence croissante pour les grandes entreprises technologiques de se doter d'outils face aux risques que posent les agents IA. En quelques mois, leur adoption a explosé dans les environnements professionnels, soulevant des questions inédites de sécurité : un agent mal configuré ou compromis peut accéder à des données sensibles, exécuter des actions non autorisées ou servir de vecteur d'attaque. Pour les entreprises clientes de Cisco, disposer d'une couche de protection dédiée devient rapidement une priorité opérationnelle. Cisco s'inscrit dans une tendance de fond : les grands éditeurs de logiciels, de Microsoft à Palo Alto Networks, cherchent à intégrer des capacités de sécurité spécifiques aux agents IA, soit en développant leurs propres fonctionnalités, soit en rachetant des startups spécialisées. Fondée en Israël, qui reste un vivier mondial de talents en cybersécurité, Astrix a su se positionner tôt sur ce créneau émergent. Si l'accord se conclut, il signalerait que la sécurisation des agents IA est désormais considérée comme un marché à part entière, et non plus un simple ajout aux solutions existantes.

UELes entreprises européennes clientes de Cisco pourraient bénéficier de capacités renforcées pour sécuriser leurs agents IA, un besoin croissant dans les environnements professionnels soumis au RGPD et à l'AI Act.

SécuritéActu
1 source
Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant
3Le Big Data 

Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant

OpenAI prépare un service de cybersécurité avancé, accessible uniquement sur invitation, quelques jours à peine après qu'Anthropic a annoncé Mythos, son propre outil capable, selon l'entreprise, de détecter des vulnérabilités restées invisibles pendant près de trente ans. D'après des informations rapportées par Axios le 9 avril 2026, il ne s'agira pas d'un nouveau modèle à proprement parler, mais d'une offre distincte et structurée, indépendante des autres projets en cours d'OpenAI, notamment Spud. En réalité, la société ne part pas de zéro : elle pilote depuis plusieurs mois un programme confidentiel baptisé "Trusted Access for Cyber", qui permet déjà à certaines organisations sélectionnées d'accéder à des modèles plus permissifs et plus performants dans des contextes de cybersécurité. C'est ce dispositif existant qu'OpenAI entend désormais transformer en produit visible, avec une ambition claire : s'imposer comme acteur de référence dans la cybersécurité de nouvelle génération. L'enjeu dépasse la simple rivalité technologique. Les grandes organisations, qu'il s'agisse d'infrastructures critiques, de gouvernements ou d'entreprises du secteur financier, cherchent activement des outils capables d'automatiser la détection et la correction de failles à une échelle et une vitesse inatteignables par des équipes humaines seules. Un système d'IA capable d'identifier des vulnérabilités critiques en quelques heures plutôt qu'en plusieurs mois représente un changement de paradigme pour la sécurité informatique mondiale. Le modèle d'accès sur invitation, adopté à la fois par Anthropic et par OpenAI, répond à une problématique centrale du secteur : comment exploiter des IA puissantes sans ouvrir la porte à des usages offensifs ou malveillants, notamment pour automatiser des cyberattaques ? Cette séquence révèle aussi une bataille de communication intense entre les deux leaders de l'IA générative. Anthropic a imposé le tempo médiatique avec l'annonce de Mythos et de son projet Glasswing, une initiative présentée comme urgente pour sécuriser les logiciels critiques mondiaux. Mais dans la communauté cybersécurité, certains chercheurs affirment avoir reproduit des résultats comparables avec d'autres modèles existants, sans dispositif aussi exclusif, ce qui relativise la portée des annonces et rappelle que les performances réelles restent difficiles à évaluer sans audits indépendants. OpenAI, perçue comme leader sur les modèles généralistes, ne pouvait pas laisser Anthropic s'installer seule sur ce segment stratégique sans répondre. Si son nouvel outil parvient à démontrer une avance réelle en précision, en vitesse ou en automatisation, il pourrait redéfinir certains standards du secteur. Dans le cas contraire, cette sortie ressemblera davantage à un mouvement défensif de communication qu'à une véritable rupture technologique.

UELes gouvernements et infrastructures critiques européens pourraient bénéficier de ces outils de détection automatisée de vulnérabilités, mais aucun acteur européen n'est directement impliqué dans ces annonces.

SécuritéOpinion
1 source
OpenAI travaille sur un modèle de cybersécurité destiné à concurrencer Mythos d’Anthropic
4Siècle Digital 

OpenAI travaille sur un modèle de cybersécurité destiné à concurrencer Mythos d’Anthropic

OpenAI prépare un modèle d'intelligence artificielle spécialisé dans la cybersécurité, développé en réponse directe à Mythos, le modèle similaire annoncé par Anthropic quelques jours plus tôt. L'information, rapportée par Axios, révèle que cet outil ne sera pas accessible au grand public : il sera distribué exclusivement à un cercle restreint de partenaires sélectionnés, notamment des entreprises technologiques et des acteurs spécialisés dans la sécurité informatique, selon le même modèle de distribution fermée qu'Anthropic a choisi pour Mythos. Cette approche restrictive reflète les enjeux sensibles liés aux modèles d'IA orientés cybersécurité, capables à la fois de défendre des systèmes et de les attaquer. En réservant l'accès à des partenaires de confiance, OpenAI tente de concilier l'utilité opérationnelle de l'outil avec les risques de détournement à des fins malveillantes. Pour les entreprises de sécurité partenaires, un tel modèle pourrait accélérer la détection de vulnérabilités, l'analyse de malwares et la réponse aux incidents, des tâches aujourd'hui largement manuelles et chronophages. La course entre OpenAI et Anthropic sur ce segment illustre une tendance plus large : les grands laboratoires d'IA cherchent à s'imposer dans des secteurs verticaux à haute valeur ajoutée, après avoir dominé les usages généralistes. La cybersécurité, marché mondial estimé à plusieurs centaines de milliards de dollars, attire également Google, Microsoft et des acteurs spécialisés comme CrowdStrike ou Palo Alto Networks, déjà engagés dans l'intégration de l'IA dans leurs plateformes. La rapidité de la réplique d'OpenAI suggère que ce segment est désormais considéré comme stratégique par les deux entreprises.

UELes entreprises européennes de cybersécurité pourraient accéder à ces modèles spécialisés via des partenariats, accélérant la détection de vulnérabilités et la réponse aux incidents sur le marché européen.

SécuritéActu
1 source