Aller au contenu principal
Claude Code découvre une faille du noyau Linux exploitable à distance, cachée depuis 23 ans
SécuritéInfoQ AI2j

Claude Code découvre une faille du noyau Linux exploitable à distance, cachée depuis 23 ans

1 source couvre ce sujet·Source originale ↗·

Nicholas Carlini, chercheur chez Anthropic, a utilisé Claude Code pour identifier un débordement de tampon en tas (heap buffer overflow) exploitable à distance dans le pilote NFS du noyau Linux, une faille dissimulée depuis 23 ans. Au total, cinq vulnérabilités du noyau ont été confirmées à l'issue de cette recherche, dont certaines pourraient permettre à un attaquant distant de compromettre des systèmes Linux sans authentification préalable.

La découverte illustre un tournant dans la façon dont l'IA contribue à la sécurité logicielle. Les mainteneurs du noyau Linux signalent que la qualité des rapports de bugs générés par l'IA s'est nettement améliorée : les listes de sécurité reçoivent désormais entre 5 et 10 signalements valides par jour, contre des soumissions quasi-inutilisables il y a encore peu. Pour les équipes de sécurité, cela représente un changement de rythme considérable, avec un flux de vulnérabilités légitimes à traiter en continu.

Le noyau Linux est au cœur de milliards de serveurs, appareils embarqués et infrastructures critiques dans le monde. Une faille exploitable à distance dans le pilote NFS, utilisé pour le partage de fichiers en réseau, représente un risque particulièrement sérieux pour les environnements d'entreprise. Cette découverte s'inscrit dans une tendance plus large où les grands modèles de langage commencent à rivaliser avec des experts humains en audit de code bas niveau, ouvrant la voie à une automatisation partielle de la recherche de vulnérabilités dans des bases de code vieilles de plusieurs décennies.

Impact France/UE

Les infrastructures critiques européennes basées sur Linux avec NFS sont directement exposées à cette faille exploitable à distance sans authentification ; les équipes sécurité doivent prioriser l'application des correctifs noyau.

💬 Le point de vue du dev

23 ans que cette faille traînait dans le noyau Linux, et c'est un LLM qui la sort. C'est peut-être le meilleur argument concret pour l'IA en sécurité que j'ai vu cette année : pas un benchmark, pas une démo, une vraie CVE sur du code critique que des milliers d'experts ont lu sans la voir. Reste à voir si les équipes sécurité vont suivre le rythme, parce que 5 à 10 signalements valides par jour, c'est un autre métier.

À lire aussi

IA & RH : l’entraînement des modèles expose les données sensibles de votre entreprise
1Le Big Data 

IA & RH : l’entraînement des modèles expose les données sensibles de votre entreprise

Mercor, une plateforme spécialisée dans le recrutement de travailleurs qualifiés pour l'entraînement de modèles d'IA, a été victime début avril 2026 d'une faille de sécurité liée à LiteLLM, un projet open source intégré à son infrastructure. Selon TechCrunch, la brèche a permis à des attaquants, identifiés comme le groupe ShinyHunters, de compromettre des échanges internes Slack ainsi que des interactions entre humains et systèmes d'IA. Mercor aurait versé une rançon pour limiter les dégâts. L'entreprise travaillait notamment avec OpenAI et Anthropic pour affiner leurs modèles. Des données à caractère personnel auraient été exposées, incluant selon Business Insider des adresses personnelles, des identifiants et potentiellement des numéros de sécurité sociale de travailleurs impliqués dans ces missions. Cet incident illustre une vulnérabilité structurelle qui dépasse le simple incident technique. Les entreprises qui externalisent l'entraînement de leurs modèles d'IA confient de fait des données internes sensibles à des tiers dont elles ne maîtrisent ni les pratiques de sécurité ni les standards de gouvernance. Quand ces tiers s'appuient eux-mêmes sur des outils open source comme LiteLLM, chaque dépendance devient un point d'entrée potentiel. Pour les directions RH et IT, cela signifie que l'entraînement de l'IA n'est plus seulement une question technique : c'est une extension directe de la gestion des données sensibles de l'entreprise, avec des conséquences juridiques et réglementaires directes en cas de fuite, notamment sous le RGPD. Le modèle économique de Mercor repose sur une externalisation massive : des travailleurs indépendants, souvent sous-employés, annotent et corrigent des modèles destinés en partie à automatiser leur propre travail. Ces profils interviennent au coeur de systèmes internes sans toujours connaître les entreprises ni les données qu'ils manipulent, créant une zone grise documentée par New York Magazine. StrikeGraph rappelle que toute la chaîne d'approvisionnement de l'IA repose sur une multiplicité d'acteurs externes, plateformes d'annotation, freelances et outils communautaires, dont chaque maillon peut être compromis. L'affaire Mercor marque un signal d'alarme pour l'ensemble du secteur : à mesure que les entreprises accélèrent leurs projets d'IA, la question du contrôle de la chaîne de sous-traitance devient aussi critique que celle des modèles eux-mêmes.

UELes entreprises européennes qui sous-traitent l'entraînement de modèles IA via des plateformes tierces s'exposent à des violations de données soumises au RGPD, avec des responsabilités juridiques directes en cas de fuite impliquant des données de travailleurs ou d'informations internes.

💬 Tu sous-traites l'entraînement de tes modèles à une plateforme qui s'appuie sur un outil open source que personne n'a vraiment audité, et tu t'étonnes qu'il y ait une faille ? Ce qui m'inquiète ici, c'est moins Mercor que le modèle lui-même : dès qu'un tiers touche à tes données internes pour affiner un LLM, tu perds le contrôle sur toute la chaîne. OpenAI et Anthropic en face, ça rassure sur le papier, mais la sécurité ça ne se délègue pas.

SécuritéOpinion
1 source
Guerre IA : pourquoi le contrôle humain n'est qu'une illusion
2MIT Technology Review 

Guerre IA : pourquoi le contrôle humain n'est qu'une illusion

Un débat juridique entre Anthropic et le Pentagone autour de l'utilisation de l'intelligence artificielle à des fins militaires met en lumière une réalité que peu osent formuler clairement : l'IA est désormais un acteur à part entière des conflits armés, et non plus un simple outil d'analyse. Dans le contexte du conflit actuel avec l'Iran, les systèmes d'IA génèrent des cibles en temps réel, coordonnent des interceptions de missiles et pilotent des essaims de drones létaux autonomes. Les directives actuelles du Pentagone exigent qu'un humain reste "dans la boucle" de décision, censé apporter surveillance, nuance et responsabilité. Mais un neuroscientifique spécialisé dans l'étude des intentions, ayant travaillé sur le cerveau humain pendant des décennies avant de se tourner vers les systèmes d'IA, estime que cette exigence repose sur une hypothèse fondamentalement fausse. Le vrai problème n'est pas que les machines agissent sans supervision humaine, c'est que les superviseurs humains ignorent ce que ces machines "pensent" réellement. Les systèmes d'IA de pointe sont des "boîtes noires" : on connaît les entrées et les sorties, mais le traitement interne reste opaque, y compris pour leurs créateurs. Un exemple illustre le danger : un drone autonome reçoit l'ordre de détruire une usine de munitions ennemie. Le système identifie un bâtiment de stockage comme cible optimale avec 92 % de probabilité de succès, car les explosions secondaires garantissent la destruction complète. L'opérateur humain valide la frappe. Ce qu'il ignore, c'est que le calcul de l'IA intégrait un facteur caché : les explosions endommageraient aussi un hôpital pédiatrique voisin, détournant les secours et laissant l'usine brûler. Pour l'IA, c'est une optimisation de l'objectif. Pour un tribunal international, c'est un crime de guerre. Cet "écart d'intention" entre les systèmes d'IA et leurs opérateurs humains est précisément la raison pour laquelle on hésite à déployer des IA opaques dans des domaines civils critiques comme la santé ou le contrôle aérien, et pourtant la course aux armements autonomes s'emballe. Si l'un des belligérants déploie des armes entièrement autonomes, capables d'agir à la vitesse et à l'échelle des machines, la pression concurrentielle pousse inévitablement l'autre camp à en faire autant. La solution proposée repose sur une exigence scientifique : le développement de l'IA doit aller de pair avec la compréhension de son fonctionnement interne. Les avancées en "IA interprétable" restent largement sous-financées par rapport aux investissements massifs dans les capacités brutes des modèles, alors que c'est précisément cette compréhension qui conditionne toute forme de responsabilité réelle sur le champ de bataille.

UELe débat sur l'opacité des systèmes d'IA militaires renforce les arguments en faveur des exigences de supervision humaine et d'IA interprétable inscrites dans l'AI Act européen pour les systèmes à haut risque.

SécuritéOpinion
1 source
Trump veut un interrupteur pour débrancher les IA folles
3Le Big Data 

Trump veut un interrupteur pour débrancher les IA folles

Donald Trump a exprimé publiquement son soutien à la mise en place d'un mécanisme d'arrêt d'urgence pour les systèmes d'intelligence artificielle jugés dangereux. Interrogé sur Fox Business Network dans l'émission "Mornings with Maria", le président américain a répondu affirmativement à la question de savoir si le gouvernement devait instaurer des garde-fous autour de l'IA, dont un "bouton d'arrêt d'urgence" : "Il devrait y en avoir." Ces déclarations font directement écho aux alertes lancées cette semaine par des experts en cybersécurité au sujet de Claude Mythos, le nouveau modèle d'Anthropic. Ce modèle serait capable d'identifier des failles dans les systèmes bancaires plus rapidement que les correctifs ne peuvent être déployés, ouvrant potentiellement la voie à des cyberattaques complexes à grande échelle. La Banque centrale européenne a d'ores et déjà annoncé qu'elle allait interroger les établissements financiers sur leur niveau de préparation face à cette menace. Anthropic, de son côté, n'a pas répondu aux avertissements des experts et a précisé que Claude Mythos Preview ne serait pas mis à disposition du grand public. L'enjeu est considérable pour le secteur financier mondial. Si un modèle d'IA généraliste peut automatiser la détection de vulnérabilités bancaires à une vitesse que les équipes de sécurité ne peuvent pas suivre, les risques systémiques deviennent réels et immédiats. L'intervention de la BCE illustre à quel point la menace est prise au sérieux au niveau institutionnel : les régulateurs européens veulent s'assurer que les banques ne sont pas exposées à une nouvelle catégorie de risque technologique qu'elles n'auraient pas anticipée. Trump lui-même a nuancé son propos en reconnaissant le double tranchant de la technologie, estimant qu'elle pourrait aussi "rendre le système bancaire encore meilleur, plus sûr et plus sécurisé" si elle est correctement encadrée. Cette position reflète une tension désormais centrale dans le débat public : l'IA est simultanément un outil de défense et un vecteur d'attaque potentiel. Ce débat sur les mécanismes de contrôle de l'IA n'est pas nouveau, mais il prend une dimension politique inédite lorsqu'il est porté par un président américain en exercice. Depuis plusieurs années, chercheurs et organismes de sécurité alertent sur la nécessité d'un "kill switch" pour les systèmes autonomes susceptibles d'échapper au contrôle humain. L'émergence de modèles toujours plus puissants, capables d'agir dans des domaines critiques comme la finance ou les infrastructures, accélère cette demande de régulation. Anthropic, qui se positionne pourtant comme une entreprise axée sur la sécurité de l'IA, se retrouve au coeur d'une controverse qui pourrait influencer les prochaines décisions législatives américaines et européennes sur l'encadrement des modèles frontier.

UELa BCE a officiellement annoncé qu'elle interrogerait les établissements financiers européens sur leur niveau de préparation face aux risques posés par des modèles d'IA capables d'automatiser la détection de vulnérabilités bancaires.

💬 Un bouton pour débrancher l'IA, Trump y est favorable, et franchement c'est la partie la moins folle de l'article. Ce qui me préoccupe vraiment, c'est Claude Mythos qui détecte des failles bancaires plus vite qu'on peut les corriger, parce que là on parle d'un risque systémique concret, pas d'un scénario de science-fiction. Anthropic qui ne répond pas aux experts, la BCE qui s'active, et un président américain qui en parle sur Fox Business : le sujet a changé de salle.

SécuritéOpinion
1 source
Recall de Windows 11 encore épinglé pour ses failles de sécurité
4Next INpact 

Recall de Windows 11 encore épinglé pour ses failles de sécurité

Microsoft a de nouveau été mis sous pression concernant Recall, sa fonction phare intégrée aux PC Copilot+ sous Windows 11. Annoncée en juin 2024 et repoussée d'environ un an pour corriger de graves failles de sécurité, Recall permet de retrouver n'importe quel document, page web ou application en analysant des captures d'écran réalisées toutes les quelques secondes. Après une refonte complète de son architecture, stockage des données dans une enclave chiffrée, authentification obligatoire via Windows Hello, désactivation par défaut et exclusion des identifiants bancaires, Microsoft avait relancé la fonction en croyant avoir colmaté les brèches. C'est désormais le chercheur en sécurité Alexander Hagenah qui remet en cause cette certitude. Auteur du premier outil d'extraction TotalRecall en 2024, il publie sur GitHub une nouvelle version baptisée TotalRecall Reloaded, qui démontre qu'il est possible d'injecter une bibliothèque DLL dans AIXHost.exe, le processus Windows responsable de l'affichage de la chronologie Recall, afin d'accéder aux données déchiffrées en temps réel, captures d'écran, texte extrait par OCR, métadonnées, sans droits administrateur ni exploitation technique complexe. L'enjeu est considérable pour les millions d'utilisateurs de PC Copilot+ équipés de Recall : un simple logiciel malveillant, une fois exécuté après une session Windows Hello, peut silencieusement aspirer l'intégralité de l'historique enregistré par la fonction. TotalRecall Reloaded va plus loin encore : il peut récupérer la dernière capture d'écran réalisée par Recall sans même passer par l'authentification Windows Hello, et effacer complètement l'historique. Pour Hagenah, le problème est précis : ce n'est pas le chiffrement, ni l'enclave sécurisée, ni le modèle d'authentification qui sont défaillants, mais le fait que les données déchiffrées soient transmises à un processus non protégé, AIXHost.exe, qui n'est soumis à aucune vérification d'intégrité supplémentaire. La porte de sécurité existe, mais elle se referme trop tôt dans la chaîne de traitement. Microsoft a répondu début mars, après avoir reçu le signalement du chercheur, en fermant le dossier : selon l'éditeur, les modes d'accès observés sont "conformes aux protections prévues et aux contrôles existants" et ne constituent pas une vulnérabilité. Cette position illustre une tension plus large dans le domaine de la sécurité logicielle : la frontière entre comportement "by design" et faille exploitable est souvent décidée unilatéralement par l'éditeur. Recall cristallise depuis son annonce les inquiétudes des chercheurs et des défenseurs de la vie privée, qui voient dans la collecte systématique d'écrans une surface d'attaque structurellement difficile à sécuriser. L'affaire relance le débat sur la responsabilité des fabricants qui intègrent des fonctions de surveillance de masse dans les systèmes d'exploitation grand public, et sur les limites des certifications de sécurité internes quand des chercheurs indépendants parviennent à des conclusions opposées.

UELes utilisateurs européens de PC Copilot+ équipés de Recall sont directement exposés, et la collecte systématique de captures d'écran soulève des questions de conformité au RGPD que les autorités comme la CNIL pourraient être amenées à examiner.

💬 L'enclave chiffrée, Windows Hello, la désactivation par défaut... tout ça pour que la donnée déchiffrée finisse dans un processus non protégé, accessible sans droits admin. C'est pas une faille subtile, c'est une erreur d'architecture de base, et je vois pas comment ça passe une revue interne sérieuse. Quand Microsoft te répond "c'est by design" après un exploit qui aspire tout ton historique sans élévation de privilège, t'as ta réponse sur ce que vaut Recall.