Aller au contenu principal
L’IA aurait aidé des pirates à développer un exploit zero-day, une première selon Google
SécuritéNext INpact15h

L’IA aurait aidé des pirates à développer un exploit zero-day, une première selon Google

Résumé IASources croisées · 2Impact UETake éditorial
Source originale ↗·
Egalement couvert par :Numerama

Des chercheurs du Google Threat Intelligence Group (GITG) ont identifié ce qui serait le premier cas documenté d'un exploit de type zero-day développé avec l'aide d'une intelligence artificielle. L'acteur malveillant, dont l'identité n'a pas été révélée, prévoyait d'utiliser cette vulnérabilité dans le cadre d'une campagne d'exploitation à grande échelle. La faille ciblait un outil d'administration open-source très répandu et permettait de contourner l'authentification à double facteur (2FA), à condition que les pirates disposent déjà des identifiants et mots de passe de leurs victimes. L'exploit se présentait sous la forme d'un script Python. Google a procédé à une divulgation responsable auprès de l'éditeur concerné, dont le nom reste confidentiel, et la vulnérabilité a depuis été corrigée. Le GITG indique ne pas avoir observé de campagne active, mais ne peut exclure une exploitation à plus petite échelle.

Cette découverte marque un tournant dans le paysage de la cybersécurité. Les grands modèles de langage se montrent désormais capables d'identifier des erreurs logiques de haut niveau, comme un contournement d'authentification intégré directement dans le code par un développeur, que les outils de détection traditionnels auraient probablement laissé passer. Contrairement aux bugs techniques classiques, ce type de faille repose sur une logique défaillante dans la conception du programme, une catégorie que les LLM abordent avec une efficacité croissante grâce à leur capacité de raisonnement contextuel. John Hultquist, chef analyste du GITG, a décrit cette découverte comme « un avant-goût de ce qui nous attend » et a prévenu le New York Times que le problème est « probablement bien plus vaste » : ce cas ne serait que la partie émergée de l'iceberg.

Le GITG ne dévoile pas le modèle d'IA utilisé, précisant seulement que Gemini n'est probablement pas en cause. L'hypothèse IA repose sur plusieurs indices relevés dans le code : un volume inhabituellement élevé de texte explicatif, un style de code particulièrement propre et scolaire, et une mise en forme jugée caractéristique des données d'entraînement des LLM. Le laboratoire note par ailleurs que des acteurs liés à la Corée du Nord et à la Chine s'intéressent activement à l'utilisation de l'IA pour identifier des failles de sécurité. Cette découverte devrait renforcer les appels à un encadrement plus strict des modèles avancés, OpenAI et Anthropic réservent déjà leurs modèles spécialisés en cybersécurité à des organisations sélectionnées. La même capacité de raisonnement qui aide les attaquants est aussi entre les mains des défenseurs, mais l'équilibre de la menace vient de basculer.

Impact France/UE

Les organisations européennes utilisant des outils d'administration open-source doivent renforcer leur vigilance, et cet événement devrait accélérer les discussions sur l'encadrement des capacités offensives des LLM dans le cadre de l'AI Act.

💬 Le point de vue du dev

C'était dans l'air, mais ça fait quand même un effet quand c'est Google qui le documente pour la première fois. Ce qui frappe c'est pas le zero-day en soi, c'est que les LLM s'avèrent précisément bons sur les failles logiques, le genre que les scanners classiques ratent complètement. Et les indices qui ont permis de détecter l'IA dans le code (style trop propre, commentaires verbeux), ça va tenir encore combien de mois ?

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google a stoppé une attaque zero-day développée avec l'aide de l'IA
1The Verge AI 

Google a stoppé une attaque zero-day développée avec l'aide de l'IA

Google a identifié et neutralisé pour la première fois une faille zero-day dont le code d'exploitation avait été développé à l'aide d'une intelligence artificielle. Selon un rapport du Google Threat Intelligence Group (GTIG), des cybercriminels de premier plan préparaient un événement d'exploitation massive ciblant un outil d'administration web open-source non divulgué. L'objectif était de contourner l'authentification à deux facteurs de cet outil, une mesure de sécurité aujourd'hui considérée comme incontournable. Les chercheurs de Google ont repéré l'implication d'un LLM dans le script Python utilisé pour l'attaque grâce à plusieurs indices : un score CVSS halluciné et une structure de code trop formelle, typique des productions de modèles de langage entraînés sur des données académiques. Cette découverte marque un tournant dans le paysage des cybermenaces. L'utilisation d'outils d'IA générative pour produire des exploits opérationnels abaisse considérablement la barrière d'entrée pour les attaquants, permettant à des acteurs moins techniques de concevoir des attaques sophistiquées. Le contournement de l'authentification à deux facteurs à grande échelle aurait pu compromettre des milliers de systèmes administrés via cet outil. Cette affaire s'inscrit dans une tendance croissante documentée par les équipes de sécurité de Google, Microsoft et d'autres acteurs majeurs : des groupes cybercriminels, parfois liés à des États, expérimentent activement les LLMs pour accélérer la recherche de vulnérabilités et la rédaction de code malveillant. La capacité à détecter les artefacts stylistiques laissés par les IA dans le code d'attaque pourrait devenir une discipline défensive à part entière dans les années à venir.

UELa capacité des cybercriminels à utiliser des LLMs pour concevoir des exploits opérationnels menace directement les infrastructures d'administration web des entreprises et administrations françaises et européennes.

💬 Ce qui me retient là-dedans, c'est pas l'exploit, c'est comment Google l'a repéré : un score CVSS halluciné et un code trop propre, trop académique pour sortir de mains humaines. Si tu vois où ça mène, détecter les artefacts stylistiques des IA dans du code malveillant va devenir une vraie discipline forensic à part entière. La question c'est combien de temps cette fenêtre reste ouverte avant que les modèles s'améliorent.

SécuritéActu
1 source
La double authentification contournée par une IA : Google documente une première mondiale
2Frandroid 

La double authentification contournée par une IA : Google documente une première mondiale

Google a documenté pour la première fois un exploit zero-day dont la conception aurait été assistée par une intelligence artificielle. La vulnérabilité ciblait le mécanisme de double authentification (2FA) d'un outil d'administration web open source, dont l'identité n'a pas été précisée. L'information provient des équipes de renseignement sur les menaces de Google, connues pour leur suivi rigoureux des cyberattaques sophistiquées à l'échelle mondiale. Ce cas marque un tournant dans le paysage de la cybersécurité : jusqu'à présent, les exploits zero-day complexes étaient quasi exclusivement le fruit de groupes étatiques ou de hackers très expérimentés. Si l'IA commence à abaisser la barrière technique nécessaire pour concevoir ce type d'attaque, cela signifie que des acteurs moins qualifiés pourraient bientôt s'en emparer. Le contournement de la 2FA est particulièrement préoccupant, car cette couche de sécurité est précisément celle que des millions d'organisations, petites et grandes, considèrent comme leur dernier rempart efficace. Cette documentation s'inscrit dans une tendance que Google et d'autres acteurs de la sécurité observent depuis plusieurs mois : des groupes malveillants, y compris certains liés à des États, utilisent des modèles de langage pour accélérer la recherche de vulnérabilités, rédiger du code d'exploitation ou analyser des binaires. La question qui se pose désormais n'est plus de savoir si l'IA sera utilisée offensivement, mais à quelle vitesse cette capacité va se démocratiser et comment les défenseurs pourront y répondre.

UELes organisations européennes soumises à NIS2 utilisant la 2FA comme principal rempart devront réévaluer leur posture de sécurité face à la démocratisation des exploits zero-day assistés par IA.

💬 Un zero-day assisté par IA qui contourne la 2FA, Google l'a documenté, mais le plus inquiétant c'est pas l'exploit lui-même. C'est que ce qui était réservé à des groupes avec les moyens d'un État devient petit à petit accessible à des acteurs bien moins structurés, et la 2FA, beaucoup d'orgas y comptent comme si c'était un mur infranchissable. C'est ce mur-là qui commence à se fissurer.

SécuritéOpinion
1 source
Les aperçus IA de Google sont incorrects dans 10% des cas, selon une analyse
3Ars Technica AI 

Les aperçus IA de Google sont incorrects dans 10% des cas, selon une analyse

Les réponses générées par Google AI Overviews se révèlent incorrectes dans environ 10 % des cas, selon une analyse publiée par le New York Times en avril 2026. Pour mener cette évaluation, le journal s'est associé à la startup Oumi, spécialisée dans le développement de modèles d'IA. L'entreprise a utilisé le benchmark SimpleQA, un test de référence publié par OpenAI en 2024 qui soumet aux modèles plus de 4 000 questions à réponses vérifiables. Les premiers résultats, obtenus alors que Gemini 2.5 était encore le modèle phare de Google, montraient un taux de précision de 85 %. Après la mise à jour vers Gemini 3, ce score est monté à 91 %. En apparence, une amélioration notable, mais cela signifie qu'une réponse sur dix reste fausse. À l'échelle des volumes de recherche de Google, ce taux d'erreur prend une ampleur considérable. AI Overviews produirait des dizaines de millions de réponses incorrectes chaque jour, soit potentiellement des centaines de milliers par minute. Ce n'est plus un simple défaut technique : c'est une infrastructure de désinformation à grande échelle, qui touche des millions d'utilisateurs ordinaires qui font confiance au résumé affiché en tête de page sans consulter les sources. Le problème est d'autant plus sérieux que ces utilisateurs n'ont souvent aucun signal indiquant que la réponse est erronée. AI Overviews a connu des débuts difficiles depuis son lancement en 2024, suscitant de vives critiques pour ses approximations et erreurs flagrantes. Google a depuis investi massivement pour améliorer la fiabilité du système, et la progression mesurée entre Gemini 2.5 et Gemini 3 témoigne de ces efforts. Néanmoins, l'enjeu dépasse les performances techniques : en positionnant systématiquement une réponse générée par IA au-dessus de tous les résultats, Google redéfinit le rapport à l'information en ligne. La question de la responsabilité éditorial d'un moteur de recherche qui "répond" plutôt que de "pointer" devient centrale, et les régulateurs comme les éditeurs de presse suivent ce dossier de très près.

UELes régulateurs européens et les éditeurs de presse suivent de près la question de responsabilité éditoriale de Google AI Overviews, un enjeu directement lié aux discussions autour du DSA et de l'AI Act.

SécuritéActu
1 source
Google affirme avoir stoppé une cyberattaque de grande ampleur après qu'une IA a détecté une faille zero-day
4The Decoder 

Google affirme avoir stoppé une cyberattaque de grande ampleur après qu'une IA a détecté une faille zero-day

Le Threat Intelligence Group de Google a identifié le premier cas documenté d'un attaquant ayant utilisé l'intelligence artificielle pour découvrir et exploiter une vulnérabilité zero-day. Selon Google, le groupe a réussi à détecter et neutraliser cette attaque avant qu'elle ne se propage à grande échelle. C'est une première mondiale : jusqu'ici, l'IA était soupçonnée de pouvoir accélérer la découverte de failles, mais aucun cas concret d'exploitation malveillante n'avait été formellement documenté. L'enjeu est considérable. Une vulnérabilité zero-day est une faille inconnue du fabricant, donc sans correctif disponible au moment de l'attaque. Lorsqu'elle est couplée à la puissance de l'IA pour automatiser sa découverte et son armement, la menace change de nature : ce qui prenait auparavant des semaines de travail à des équipes spécialisées peut désormais être accompli beaucoup plus rapidement et à moindre coût. Les entreprises, infrastructures critiques et gouvernements du monde entier sont potentiellement exposés à une nouvelle génération d'attaques plus rapides et plus difficiles à anticiper. Google signale par ailleurs que des groupes étatiques liés à la Chine, la Corée du Nord et la Russie utilisent déjà activement l'IA pour identifier des failles de sécurité et dissimuler du code malveillant dans leurs opérations d'espionnage ou de sabotage. Cette révélation illustre une course aux armements numériques où l'IA devient un outil central, aussi bien pour les attaquants que pour les défenseurs. Google, Microsoft et d'autres géants de la cybersécurité investissent massivement pour que leurs propres systèmes de détection restent en avance sur ces nouvelles capacités offensives.

UELes infrastructures critiques et gouvernements européens sont directement exposés à cette nouvelle génération d'attaques IA-assistées orchestrées par des groupes étatiques liés à la Russie, la Chine et la Corée du Nord.

💬 C'est documenté pour la première fois, et ça change tout. Des semaines de travail pour trouver une zero-day deviennent quelques heures avec les bons modèles, et des groupes liés à la Russie ou à la Corée du Nord ne vont pas s'en priver longtemps. Google a neutralisé celui-là, reste à voir combien passent sous le radar.

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour