Aller au contenu principal
La double authentification contournée par une IA : Google documente une première mondiale
SécuritéFrandroid16h

La double authentification contournée par une IA : Google documente une première mondiale

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Google a documenté pour la première fois un exploit zero-day dont la conception aurait été assistée par une intelligence artificielle. La vulnérabilité ciblait le mécanisme de double authentification (2FA) d'un outil d'administration web open source, dont l'identité n'a pas été précisée. L'information provient des équipes de renseignement sur les menaces de Google, connues pour leur suivi rigoureux des cyberattaques sophistiquées à l'échelle mondiale.

Ce cas marque un tournant dans le paysage de la cybersécurité : jusqu'à présent, les exploits zero-day complexes étaient quasi exclusivement le fruit de groupes étatiques ou de hackers très expérimentés. Si l'IA commence à abaisser la barrière technique nécessaire pour concevoir ce type d'attaque, cela signifie que des acteurs moins qualifiés pourraient bientôt s'en emparer. Le contournement de la 2FA est particulièrement préoccupant, car cette couche de sécurité est précisément celle que des millions d'organisations, petites et grandes, considèrent comme leur dernier rempart efficace.

Cette documentation s'inscrit dans une tendance que Google et d'autres acteurs de la sécurité observent depuis plusieurs mois : des groupes malveillants, y compris certains liés à des États, utilisent des modèles de langage pour accélérer la recherche de vulnérabilités, rédiger du code d'exploitation ou analyser des binaires. La question qui se pose désormais n'est plus de savoir si l'IA sera utilisée offensivement, mais à quelle vitesse cette capacité va se démocratiser et comment les défenseurs pourront y répondre.

Impact France/UE

Les organisations européennes soumises à NIS2 utilisant la 2FA comme principal rempart devront réévaluer leur posture de sécurité face à la démocratisation des exploits zero-day assistés par IA.

💬 Le point de vue du dev

Un zero-day assisté par IA qui contourne la 2FA, Google l'a documenté, mais le plus inquiétant c'est pas l'exploit lui-même. C'est que ce qui était réservé à des groupes avec les moyens d'un État devient petit à petit accessible à des acteurs bien moins structurés, et la 2FA, beaucoup d'orgas y comptent comme si c'était un mur infranchissable. C'est ce mur-là qui commence à se fissurer.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L’IA aurait aidé des pirates à développer un exploit zero-day, une première selon Google
1Next INpact 

L’IA aurait aidé des pirates à développer un exploit zero-day, une première selon Google

Des chercheurs du Google Threat Intelligence Group (GITG) ont identifié ce qui serait le premier cas documenté d'un exploit de type zero-day développé avec l'aide d'une intelligence artificielle. L'acteur malveillant, dont l'identité n'a pas été révélée, prévoyait d'utiliser cette vulnérabilité dans le cadre d'une campagne d'exploitation à grande échelle. La faille ciblait un outil d'administration open-source très répandu et permettait de contourner l'authentification à double facteur (2FA), à condition que les pirates disposent déjà des identifiants et mots de passe de leurs victimes. L'exploit se présentait sous la forme d'un script Python. Google a procédé à une divulgation responsable auprès de l'éditeur concerné, dont le nom reste confidentiel, et la vulnérabilité a depuis été corrigée. Le GITG indique ne pas avoir observé de campagne active, mais ne peut exclure une exploitation à plus petite échelle. Cette découverte marque un tournant dans le paysage de la cybersécurité. Les grands modèles de langage se montrent désormais capables d'identifier des erreurs logiques de haut niveau, comme un contournement d'authentification intégré directement dans le code par un développeur, que les outils de détection traditionnels auraient probablement laissé passer. Contrairement aux bugs techniques classiques, ce type de faille repose sur une logique défaillante dans la conception du programme, une catégorie que les LLM abordent avec une efficacité croissante grâce à leur capacité de raisonnement contextuel. John Hultquist, chef analyste du GITG, a décrit cette découverte comme « un avant-goût de ce qui nous attend » et a prévenu le New York Times que le problème est « probablement bien plus vaste » : ce cas ne serait que la partie émergée de l'iceberg. Le GITG ne dévoile pas le modèle d'IA utilisé, précisant seulement que Gemini n'est probablement pas en cause. L'hypothèse IA repose sur plusieurs indices relevés dans le code : un volume inhabituellement élevé de texte explicatif, un style de code particulièrement propre et scolaire, et une mise en forme jugée caractéristique des données d'entraînement des LLM. Le laboratoire note par ailleurs que des acteurs liés à la Corée du Nord et à la Chine s'intéressent activement à l'utilisation de l'IA pour identifier des failles de sécurité. Cette découverte devrait renforcer les appels à un encadrement plus strict des modèles avancés, OpenAI et Anthropic réservent déjà leurs modèles spécialisés en cybersécurité à des organisations sélectionnées. La même capacité de raisonnement qui aide les attaquants est aussi entre les mains des défenseurs, mais l'équilibre de la menace vient de basculer.

UELes organisations européennes utilisant des outils d'administration open-source doivent renforcer leur vigilance, et cet événement devrait accélérer les discussions sur l'encadrement des capacités offensives des LLM dans le cadre de l'AI Act.

💬 C'était dans l'air, mais ça fait quand même un effet quand c'est Google qui le documente pour la première fois. Ce qui frappe c'est pas le zero-day en soi, c'est que les LLM s'avèrent précisément bons sur les failles logiques, le genre que les scanners classiques ratent complètement. Et les indices qui ont permis de détecter l'IA dans le code (style trop propre, commentaires verbeux), ça va tenir encore combien de mois ?

SécuritéActu
1 source
Google a stoppé une attaque zero-day développée avec l'aide de l'IA
2The Verge AI 

Google a stoppé une attaque zero-day développée avec l'aide de l'IA

Google a identifié et neutralisé pour la première fois une faille zero-day dont le code d'exploitation avait été développé à l'aide d'une intelligence artificielle. Selon un rapport du Google Threat Intelligence Group (GTIG), des cybercriminels de premier plan préparaient un événement d'exploitation massive ciblant un outil d'administration web open-source non divulgué. L'objectif était de contourner l'authentification à deux facteurs de cet outil, une mesure de sécurité aujourd'hui considérée comme incontournable. Les chercheurs de Google ont repéré l'implication d'un LLM dans le script Python utilisé pour l'attaque grâce à plusieurs indices : un score CVSS halluciné et une structure de code trop formelle, typique des productions de modèles de langage entraînés sur des données académiques. Cette découverte marque un tournant dans le paysage des cybermenaces. L'utilisation d'outils d'IA générative pour produire des exploits opérationnels abaisse considérablement la barrière d'entrée pour les attaquants, permettant à des acteurs moins techniques de concevoir des attaques sophistiquées. Le contournement de l'authentification à deux facteurs à grande échelle aurait pu compromettre des milliers de systèmes administrés via cet outil. Cette affaire s'inscrit dans une tendance croissante documentée par les équipes de sécurité de Google, Microsoft et d'autres acteurs majeurs : des groupes cybercriminels, parfois liés à des États, expérimentent activement les LLMs pour accélérer la recherche de vulnérabilités et la rédaction de code malveillant. La capacité à détecter les artefacts stylistiques laissés par les IA dans le code d'attaque pourrait devenir une discipline défensive à part entière dans les années à venir.

UELa capacité des cybercriminels à utiliser des LLMs pour concevoir des exploits opérationnels menace directement les infrastructures d'administration web des entreprises et administrations françaises et européennes.

💬 Ce qui me retient là-dedans, c'est pas l'exploit, c'est comment Google l'a repéré : un score CVSS halluciné et un code trop propre, trop académique pour sortir de mains humaines. Si tu vois où ça mène, détecter les artefacts stylistiques des IA dans du code malveillant va devenir une vraie discipline forensic à part entière. La question c'est combien de temps cette fenêtre reste ouverte avant que les modèles s'améliorent.

SécuritéActu
1 source
Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale
3The Verge 

Google et le Pentagone concluent un accord pour un usage de l'IA sans restriction légale

Google a conclu un accord classifié avec le département américain de la Défense (DoD) autorisant ce dernier à utiliser ses modèles d'intelligence artificielle pour "tout usage gouvernemental légal", selon un rapport de The Information publié lundi. La révélation intervient moins de vingt-quatre heures après qu'une partie des employés de Google a adressé une pétition au PDG Sundar Pichai, exigeant qu'il bloque l'accès du Pentagone à ses technologies, par crainte que celles-ci soient employées à des fins "inhumaines ou extrêmement préjudiciables". Cet accord positionne Google aux côtés d'OpenAI et xAI, qui ont eux aussi signé des contrats classifiés avec le gouvernement américain. La décision illustre la tension croissante au sein des grandes entreprises tech entre impératifs commerciaux et éthique de déploiement : le DoD représente un client stratégique de premier plan, mais ses usages potentiels des systèmes d'IA restent opaques pour le grand public comme pour les salariés de ces entreprises. Le contexte récent éclaire la portée de ce choix. Anthropic a été récemment inscrit sur liste noire par le Pentagone après avoir refusé de supprimer ses garde-fous de sécurité sur demande du DoD. Google, en acceptant un accès étendu et sans restrictions explicites, prend le chemin inverse. La question des applications militaires de l'IA, qu'il s'agisse de ciblage, de surveillance ou d'automatisation de décisions, s'impose désormais comme un enjeu central pour l'ensemble du secteur.

UEL'accord pousse les régulateurs européens à préciser dans l'AI Act les conditions d'usage militaire de l'IA, mettant en lumière un vide réglementaire que les institutions de l'UE devront combler.

SécuritéOpinion
1 source
OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine
4La Tribune 

OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine

OpenAI, Anthropic et Google ont annoncé une collaboration inédite pour contrer ce que les trois entreprises qualifient de "distillation" de leurs modèles d'intelligence artificielle par des entités liées à la Chine. Ce phénomène consiste à utiliser les sorties des grands modèles américains pour entraîner des systèmes concurrents à moindre coût, contournant ainsi les investissements colossaux, plusieurs dizaines de milliards de dollars, réalisés par ces laboratoires. Les rivaux habituels ont décidé de partager leurs données de sécurité pour identifier et bloquer ces pratiques plus efficacement. Cette alliance soulève des enjeux considérables pour la compétitivité technologique américaine. La distillation permet théoriquement à des acteurs étrangers d'obtenir des capacités comparables à celles des modèles de pointe sans en supporter les coûts de recherche et développement, rééquilibrant ainsi le rapport de force dans la course mondiale à l'IA. Pour les trois entreprises, la menace est à la fois commerciale et stratégique : perdre cet avantage compétitif reviendrait à fragiliser une position que Washington considère désormais comme un élément de sécurité nationale à part entière. La démarche s'inscrit dans un contexte de tensions croissantes entre les États-Unis et la Chine sur le terrain technologique, après les restrictions à l'export de puces Nvidia et les débats autour de DeepSeek, le modèle chinois dont l'efficacité avait provoqué une onde de choc sur les marchés début 2025. En mutualisant leur veille, OpenAI, Anthropic et Google cherchent à établir un front commun que chaque entreprise isolément n'aurait pas les moyens de tenir face à des techniques d'extraction en constante évolution.

UELes laboratoires européens d'IA restent exposés aux mêmes pratiques de distillation sans mécanisme de protection collectif équivalent à celui que se dotent désormais les géants américains.

SécuritéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour