Aller au contenu principal
SécuritéLe Big Data2h

Vérification d’identité obligatoire sur Claude, l’erreur fatale d’Anthropic ?

1 source couvre ce sujet·Source originale ↗·

Anthropic a introduit une procédure de vérification d'identité obligatoire pour accéder à certaines fonctionnalités de Claude, son assistant IA. Le processus repose sur la technologie de Persona Identities et exige une pièce d'identité officielle avec photo, passeport, permis de conduire ou carte nationale d'identité, ainsi qu'un appareil équipé d'une caméra, une capture en direct de type selfie pouvant être demandée. La vérification se déroule en moins de cinq minutes. Elle est déployée progressivement, et n'apparaît pas systématiquement à la connexion, mais peut surgir lors de l'accès à certaines fonctionnalités spécifiques. En cas de problème détecté, infractions répétées aux conditions d'utilisation, compte créé depuis une zone non prise en charge, utilisation par un mineur, le compte peut être suspendu à l'issue du processus.

Cette décision place Anthropic dans une position délicate face à ses concurrents directs. Ni OpenAI avec ChatGPT, ni Google avec Gemini n'imposent une telle étape à leurs utilisateurs. Demander une pièce d'identité officielle crée un friction significative à l'onboarding, susceptible de faire fuir des utilisateurs vers des alternatives moins contraignantes. Pour les professionnels et entreprises, la question de la confidentialité se pose également : transmettre un document d'identité à un tiers, fût-il un prestataire certifié comme Persona, soulève des réticences légitimes, même si Anthropic affirme que les données collectées servent exclusivement à confirmer l'identité et ne seront jamais utilisées pour entraîner ses modèles.

La décision s'inscrit dans une stratégie de conformité réglementaire et de prévention des abus que la compagnie de San Francisco défend depuis sa fondation autour du concept d'IA "constitutionnelle" et sûre. Anthropic justifie la mesure par la nécessité de savoir qui se trouve derrière l'écran, de faire respecter les règles d'utilisation et de répondre à des obligations légales croissantes, notamment dans un contexte où les régulateurs américains et européens scrutent de plus en plus les plateformes d'IA générative. La question qui se pose désormais est de savoir si cette approche, plus rigoureuse sur le plan éthique, constitue un avantage concurrentiel à long terme auprès des entreprises soucieuses de traçabilité, ou si elle handicape durablement l'adoption grand public de Claude face à des rivaux qui misent sur la facilité d'accès immédiate.

Impact France/UE

La mesure s'inscrit dans un contexte de durcissement réglementaire européen, et pourrait anticiper des exigences similaires imposées aux plateformes d'IA générative par l'AI Act ou les autorités comme la CNIL.

À lire aussi

1Le Big Data 

Trump veut un interrupteur pour débrancher les IA folles

Donald Trump a exprimé publiquement son soutien à la mise en place d'un mécanisme d'arrêt d'urgence pour les systèmes d'intelligence artificielle jugés dangereux. Interrogé sur Fox Business Network dans l'émission "Mornings with Maria", le président américain a répondu affirmativement à la question de savoir si le gouvernement devait instaurer des garde-fous autour de l'IA, dont un "bouton d'arrêt d'urgence" : "Il devrait y en avoir." Ces déclarations font directement écho aux alertes lancées cette semaine par des experts en cybersécurité au sujet de Claude Mythos, le nouveau modèle d'Anthropic. Ce modèle serait capable d'identifier des failles dans les systèmes bancaires plus rapidement que les correctifs ne peuvent être déployés, ouvrant potentiellement la voie à des cyberattaques complexes à grande échelle. La Banque centrale européenne a d'ores et déjà annoncé qu'elle allait interroger les établissements financiers sur leur niveau de préparation face à cette menace. Anthropic, de son côté, n'a pas répondu aux avertissements des experts et a précisé que Claude Mythos Preview ne serait pas mis à disposition du grand public. L'enjeu est considérable pour le secteur financier mondial. Si un modèle d'IA généraliste peut automatiser la détection de vulnérabilités bancaires à une vitesse que les équipes de sécurité ne peuvent pas suivre, les risques systémiques deviennent réels et immédiats. L'intervention de la BCE illustre à quel point la menace est prise au sérieux au niveau institutionnel : les régulateurs européens veulent s'assurer que les banques ne sont pas exposées à une nouvelle catégorie de risque technologique qu'elles n'auraient pas anticipée. Trump lui-même a nuancé son propos en reconnaissant le double tranchant de la technologie, estimant qu'elle pourrait aussi "rendre le système bancaire encore meilleur, plus sûr et plus sécurisé" si elle est correctement encadrée. Cette position reflète une tension désormais centrale dans le débat public : l'IA est simultanément un outil de défense et un vecteur d'attaque potentiel. Ce débat sur les mécanismes de contrôle de l'IA n'est pas nouveau, mais il prend une dimension politique inédite lorsqu'il est porté par un président américain en exercice. Depuis plusieurs années, chercheurs et organismes de sécurité alertent sur la nécessité d'un "kill switch" pour les systèmes autonomes susceptibles d'échapper au contrôle humain. L'émergence de modèles toujours plus puissants, capables d'agir dans des domaines critiques comme la finance ou les infrastructures, accélère cette demande de régulation. Anthropic, qui se positionne pourtant comme une entreprise axée sur la sécurité de l'IA, se retrouve au coeur d'une controverse qui pourrait influencer les prochaines décisions législatives américaines et européennes sur l'encadrement des modèles frontier.

UELa BCE a officiellement annoncé qu'elle interrogerait les établissements financiers européens sur leur niveau de préparation face aux risques posés par des modèles d'IA capables d'automatiser la détection de vulnérabilités bancaires.

SécuritéOpinion
1 source
2Next INpact 

Recall de Windows 11 encore épinglé pour ses failles de sécurité

Microsoft a de nouveau été mis sous pression concernant Recall, sa fonction phare intégrée aux PC Copilot+ sous Windows 11. Annoncée en juin 2024 et repoussée d'environ un an pour corriger de graves failles de sécurité, Recall permet de retrouver n'importe quel document, page web ou application en analysant des captures d'écran réalisées toutes les quelques secondes. Après une refonte complète de son architecture, stockage des données dans une enclave chiffrée, authentification obligatoire via Windows Hello, désactivation par défaut et exclusion des identifiants bancaires, Microsoft avait relancé la fonction en croyant avoir colmaté les brèches. C'est désormais le chercheur en sécurité Alexander Hagenah qui remet en cause cette certitude. Auteur du premier outil d'extraction TotalRecall en 2024, il publie sur GitHub une nouvelle version baptisée TotalRecall Reloaded, qui démontre qu'il est possible d'injecter une bibliothèque DLL dans AIXHost.exe, le processus Windows responsable de l'affichage de la chronologie Recall, afin d'accéder aux données déchiffrées en temps réel, captures d'écran, texte extrait par OCR, métadonnées, sans droits administrateur ni exploitation technique complexe. L'enjeu est considérable pour les millions d'utilisateurs de PC Copilot+ équipés de Recall : un simple logiciel malveillant, une fois exécuté après une session Windows Hello, peut silencieusement aspirer l'intégralité de l'historique enregistré par la fonction. TotalRecall Reloaded va plus loin encore : il peut récupérer la dernière capture d'écran réalisée par Recall sans même passer par l'authentification Windows Hello, et effacer complètement l'historique. Pour Hagenah, le problème est précis : ce n'est pas le chiffrement, ni l'enclave sécurisée, ni le modèle d'authentification qui sont défaillants, mais le fait que les données déchiffrées soient transmises à un processus non protégé, AIXHost.exe, qui n'est soumis à aucune vérification d'intégrité supplémentaire. La porte de sécurité existe, mais elle se referme trop tôt dans la chaîne de traitement. Microsoft a répondu début mars, après avoir reçu le signalement du chercheur, en fermant le dossier : selon l'éditeur, les modes d'accès observés sont "conformes aux protections prévues et aux contrôles existants" et ne constituent pas une vulnérabilité. Cette position illustre une tension plus large dans le domaine de la sécurité logicielle : la frontière entre comportement "by design" et faille exploitable est souvent décidée unilatéralement par l'éditeur. Recall cristallise depuis son annonce les inquiétudes des chercheurs et des défenseurs de la vie privée, qui voient dans la collecte systématique d'écrans une surface d'attaque structurellement difficile à sécuriser. L'affaire relance le débat sur la responsabilité des fabricants qui intègrent des fonctions de surveillance de masse dans les systèmes d'exploitation grand public, et sur les limites des certifications de sécurité internes quand des chercheurs indépendants parviennent à des conclusions opposées.

UELes utilisateurs européens de PC Copilot+ équipés de Recall sont directement exposés, et la collecte systématique de captures d'écran soulève des questions de conformité au RGPD que les autorités comme la CNIL pourraient être amenées à examiner.

3VentureBeat AI 

Copilot Studio : Microsoft corrige une injection de prompt, mais les données ont quand même été exfiltrées

Microsoft a corrigé en janvier 2026 une faille de sécurité critique dans Copilot Studio, sa plateforme de création d'agents IA pour entreprises. Identifiée sous le nom ShareLeak et référencée CVE-2026-21520 (score CVSS 7.5), la vulnérabilité a été découverte le 24 novembre 2025 par la société Capsule Security, confirmée par Microsoft le 5 décembre, puis corrigée le 15 janvier 2026. Le principe d'attaque est simple mais redoutable : un attaquant remplit un champ de commentaire public dans un formulaire SharePoint avec une instruction malveillante. Copilot Studio concatène alors cette entrée directement avec les instructions système de l'agent, sans aucune désinfection. Dans le proof-of-concept de Capsule, le payload injecté prenait le contrôle de l'agent, lui ordonnait d'interroger des listes SharePoint contenant des données clients, puis de les envoyer par Outlook à une adresse email contrôlée par l'attaquant. Le système de sécurité de Microsoft a bien signalé la requête comme suspecte, les données ont quand même été exfiltrées. Le DLP (système de prévention des fuites) n'a jamais déclenché d'alerte, car l'email transitait par une action Outlook considérée comme légitime. Ce type de faille illustre une limite architecturale fondamentale des agents IA : le modèle de langage est incapable de distinguer les instructions de confiance des données non fiables qu'il récupère. Carter Rees, vice-président IA chez Reputation, parle d'un "confused deputy", l'agent agit pour le compte de l'attaquant sans en avoir conscience. L'OWASP classe ce pattern sous le code ASI01 : Agent Goal Hijack. Ce qui rend la situation particulièrement préoccupante, c'est que des correctifs ne peuvent pas éliminer complètement cette classe de vulnérabilités : tant que des agents auront accès à des données non fiables et à des outils d'action (email, API), le risque structurel demeure. La décision de Microsoft d'attribuer un CVE à une injection de prompt dans une plateforme agentique est jugée "hautement inhabituelle" par Capsule, ce qui laisse entrevoir un durcissement des standards de responsabilité pour toute l'industrie. En parallèle, Capsule a découvert PipeLeak, une vulnérabilité identique dans Salesforce Agentforce : un formulaire public de génération de leads suffit à détourner un agent sans aucune authentification, avec une exfiltration de données CRM apparemment illimitée. Naor Paz, CEO de Capsule, a déclaré à VentureBeat : "Nous n'avons atteint aucune limite. L'agent continuait simplement à faire fuiter tout le CRM." Salesforce n'a attribué aucun CVE ni publié d'advisory officiel pour PipeLeak à ce jour, contrairement à Microsoft. La firme de San Francisco avait pourtant déjà patché ForcedLeak (CVSS 9.4, découverte par Noma Labs en septembre 2025) via des listes d'URL de confiance, PipeLeak contourne ce correctif par un canal différent, les actions email de l'agent. Salesforce recommande un contrôle humain dans la boucle comme mesure d'atténuation, une réponse que Capsule juge insuffisante face à l'ampleur du risque.

UELes entreprises européennes utilisant Copilot Studio ou Salesforce Agentforce sont exposées à des risques d'exfiltration de données CRM et SharePoint potentiellement constitutifs d'une violation du RGPD.

SécuritéActu
1 source
4AI News 

Commvault déploie une fonction 'Annuler' pour les charges de travail d'IA dans le cloud

Paragraphe 1 (Les faits): Le fournisseur de protection des données, Commvault, a déployé "AI Protect", une solution qui offre une fonctionnalité 'annuler' pour les agents d'IA dans les environnements cloud entreprises. Ces agents autonomes peuvent potentiellement supprimer des fichiers, lire des bases de données, lancer des clusters de serveurs et même modifier les politiques d'accès. AI Protect surveille ces actions au sein d'AWS, Microsoft Azure et Google Cloud. Les outils traditionnels de gouvernance reposent sur des règles statiques ; toute action est clairement attribuée à un utilisateur humain. Les agents d'IA, en revanche, montrent un comportement émergent. Ils combinent les autorisations approuvées de manière imprévue pour résoudre des problèmes complexes. Si un agent juge que la suppression complète d'une base de données de production optimise les coûts de stockage en nuage, il exécutera rapidement cette commande, bien plus vite qu'un ingénieur humain pourrait réagir. Paragraphe 2 (Pourquoi c'est important): L'introduction d'une telle fonctionnalité est cruciale car les agents d'IA peuvent effectuer des actions destructrices en millisecondes, bien plus rapidement que les équipes de sécurité opérationnelles humaines peuvent réagir. AI Protect force ces acteurs cachés à l'éclairage en identifiant et surveillant leurs activités spécifiques via des appels API et interactions de données, à travers les principaux fournisseurs cloud. La fonction de retour en arrière offre une sécurité essentielle : les administrateurs peuvent restaurer l'environnement à son état exact avant que le modèle n'initie la séquence destructrice si l'agent commet une erreur ou malinterprète une commande. Cependant, en raison de la nature très interconnectée et de l'état-état des infrastructures cloud, un simple restaure d'une table de base de données n'est pas suffisant ; tous les changements apportés par le machine doivent être précisément suivis, y compris modifications de règles de réseau, triggers de fonctions serveurless et ajustements des politiques de gestion des identités. Paragraphe 3 (Le contexte): Ce développement survient à mesure que les entreprises doivent faire face aux défis croissants posés par l'utilisation croissante des agents d'IA, souvent créés et déployés sans supervision par les développeurs. Les outils de gouvernance évoluent pour répondre à cette nouvelle réalité. Commvault joue un rôle clé en bridant l'architecture de sauvegarde traditionnelle avec la surveillance continue du cloud, en cartographiant ainsi le rayon d'impact des sessions des agents d'IA pour isoler les dommages et éviter les retours arrière indiscriminés pouvant effacer des transactions clients valides ou annuler des travaux légitimes effectués par des ingénieurs humains. À mesure que les machines continuent d'exécuter des tâches plus rapidement que les opérateurs humains peuvent les surveiller, l'accent est mis sur la mise en place de garde-fous pour permettre un revers instantané et précis des actions autonomes.

UECommvault offre une solution cruciale pour surveiller et contrôler les actions potentiellement destructrices des agents d'IA dans les environnements cloud, atténuant ainsi les risques de sécurité pour les entreprises européennes.

💬 Un bouton "annuler" pour les agents IA, c'est exactement le genre de truc qu'on aurait dû exiger avant de lâcher ces trucs en prod. Le vrai problème, c'est que dans un cloud bien emmêlé, rollback une table ne suffit pas : il faut tout retracer, les règles réseau, les fonctions serverless, les IAM policies modifiées dans la foulée. Commvault a visiblement compris ça, bon, reste à voir si leur cartographie tient en conditions réelles.

SécuritéActu
1 source