
Vos développeurs font déjà tourner l'IA en local : pourquoi l'inférence sur appareil est l'angle mort du RSSI
Depuis dix-huit mois, les responsables de la sécurité informatique (CISO) géraient l'essor de l'IA générative avec une stratégie claire : surveiller le réseau. Bloquer les accès aux API d'OpenAI, Anthropic ou Google, router les requêtes via des passerelles contrôlées, logger chaque appel sortant. Ce modèle supposait que l'IA vivait dans le cloud et que toute interaction avec des données sensibles générait forcément du trafic réseau observable. Ce postulat est désormais obsolète. Une nouvelle génération de matériel grand public a rendu l'inférence locale non seulement possible, mais banale : un MacBook Pro équipé de 64 Go de mémoire unifiée peut faire tourner des modèles quantifiés de 70 milliards de paramètres à des vitesses utilisables. Les outils de distribution open-source permettent en une seule commande de télécharger un modèle de plusieurs gigaoctets, de couper le Wi-Fi, et de traiter des données sensibles sans qu'un seul paquet ne quitte l'appareil. Aucun log proxy, aucune trace cloud, aucune alerte DLP.
Le danger ne réside plus uniquement dans la fuite de données vers l'extérieur, mais dans trois angles morts que la plupart des entreprises n'ont pas encore opérationnalisés. Premier risque : l'intégrité du code. Un développeur senior peut coller du code d'authentification ou des scripts d'infrastructure dans un modèle local non validé pour le "nettoyer", obtenir une sortie qui compile et passe les tests unitaires, puis committer le résultat sans que personne ne sache qu'une IA a influencé ce chemin de code. Les vulnérabilités introduites (validation d'entrées défaillante, paramètres par défaut dangereux) seront investigées sans que l'on remonte jamais à leur vraie cause. Deuxième risque : la conformité des licences. De nombreux modèles performants interdisent l'usage commercial, exigent des attributions, ou imposent des restrictions incompatibles avec le développement de produits propriétaires. Quand les équipes les font tourner localement, ces modèles contournent entièrement le processus habituel d'achat et de validation juridique, exposant potentiellement l'entreprise à des litiges.
Ce phénomène, que certains appellent déjà le "Shadow AI 2.0" ou l'ère du BYOM (Bring Your Own Model), s'est imposé grâce à la convergence de trois facteurs techniques : la montée en puissance des accélérateurs grand public, la démocratisation de la quantification qui réduit drastiquement la taille des modèles, et la simplicité extrême des outils de distribution comme Ollama ou LM Studio. Le débat en entreprise reste encore cadré autour de l'exfiltration vers le cloud, alors que le risque le plus immédiat se joue désormais à l'intérieur même de l'appareil. Pour les CISO, l'enjeu n'est plus seulement de contrôler ce qui sort du réseau, mais de repenser entièrement leur modèle de gouvernance de l'IA, en intégrant l'inventaire des modèles locaux, l'audit des usages endpoint, et des politiques claires sur les modèles autorisés avant que ces pratiques ne se normalisent sans cadre.
Les entreprises françaises et européennes sont directement exposées aux risques de Shadow AI 2.0 : l'usage non contrôlé de modèles locaux par les développeurs fragilise la conformité RGPD et expose les organisations à des litiges sur les licences open-source de modèles non validés juridiquement.



