Google a stoppé une attaque zero-day développée avec l'aide de l'IA
Google a identifié et neutralisé pour la première fois une faille zero-day dont le code d'exploitation avait été développé à l'aide d'une intelligence artificielle. Selon un rapport du Google Threat Intelligence Group (GTIG), des cybercriminels de premier plan préparaient un événement d'exploitation massive ciblant un outil d'administration web open-source non divulgué. L'objectif était de contourner l'authentification à deux facteurs de cet outil, une mesure de sécurité aujourd'hui considérée comme incontournable. Les chercheurs de Google ont repéré l'implication d'un LLM dans le script Python utilisé pour l'attaque grâce à plusieurs indices : un score CVSS halluciné et une structure de code trop formelle, typique des productions de modèles de langage entraînés sur des données académiques.
Cette découverte marque un tournant dans le paysage des cybermenaces. L'utilisation d'outils d'IA générative pour produire des exploits opérationnels abaisse considérablement la barrière d'entrée pour les attaquants, permettant à des acteurs moins techniques de concevoir des attaques sophistiquées. Le contournement de l'authentification à deux facteurs à grande échelle aurait pu compromettre des milliers de systèmes administrés via cet outil.
Cette affaire s'inscrit dans une tendance croissante documentée par les équipes de sécurité de Google, Microsoft et d'autres acteurs majeurs : des groupes cybercriminels, parfois liés à des États, expérimentent activement les LLMs pour accélérer la recherche de vulnérabilités et la rédaction de code malveillant. La capacité à détecter les artefacts stylistiques laissés par les IA dans le code d'attaque pourrait devenir une discipline défensive à part entière dans les années à venir.
La capacité des cybercriminels à utiliser des LLMs pour concevoir des exploits opérationnels menace directement les infrastructures d'administration web des entreprises et administrations françaises et européennes.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



