Aller au contenu principal
Les script kiddies passent à l'offensive
SécuritéThe Verge44min

Les script kiddies passent à l'offensive

Résumé IASource uniqueImpact UE
Source originale ↗·

En août dernier, les meilleures équipes de cybersécurité au monde se sont réunies à Las Vegas pour participer au concours AIxCC (Artificial Intelligence Cyber Challenge) organisé par la DARPA. L'exercice consistait à analyser 54 millions de lignes de code réel dans lequel l'agence américaine avait intentionnellement dissimulé des failles artificielles. Les équipes ont non seulement identifié la majorité de ces bugs plantés, mais leurs outils automatisés ont également détecté une douzaine de vulnérabilités supplémentaires que la DARPA n'avait pas insérées. Quelques mois plus tard, Anthropic a franchi un nouveau seuil avec Claude Mythos, un modèle capable de repérer des failles de sécurité de manière autonome et à grande échelle.

Ces avancées transforment profondément le rapport de force en cybersécurité. Si l'IA peut désormais auditer des millions de lignes de code en quelques heures, elle offre aux défenseurs un avantage considérable, mais elle remet également entre les mains d'acteurs moins qualifiés des capacités d'attaque autrefois réservées à des experts. C'est précisément ce que résume l'expression "script kiddies" : des individus aux compétences limitées qui, armés d'outils IA puissants, pourraient lancer des attaques sophistiquées sans en comprendre la mécanique.

La compétition AIxCC s'inscrit dans une course aux armements numériques qui s'accélère. La DARPA investit massivement pour que l'IA devienne un outil de défense proactif, capable de corriger les vulnérabilités avant qu'elles ne soient exploitées. Mais l'émergence simultanée de modèles comme Claude Mythos soulève une question centrale pour l'ensemble de l'industrie : dans cette symétrie technologique, qui bénéficie le plus de la démocratisation de l'IA offensive ?

Impact France/UE

La démocratisation des capacités offensives IA touche indirectement les organisations européennes soumises à la directive NIS2, qui doivent désormais anticiper des attaques automatisées potentiellement lancées par des acteurs moins qualifiés.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les capacités offensives de l'IA en cybersécurité doublent tous les six mois, selon des chercheurs
1The Decoder 

Les capacités offensives de l'IA en cybersécurité doublent tous les six mois, selon des chercheurs

Les capacités offensives des modèles d'intelligence artificielle en matière de cybersécurité progressent à un rythme alarmant. Selon une étude publiée par des chercheurs en sécurité de l'IA, ces capacités doublent tous les 5,7 mois depuis 2024. Des modèles comme Opus 4.6 et GPT-5.3 Codex sont désormais capables de résoudre des tâches d'exploitation de vulnérabilités qui nécessitaient auparavant environ trois heures de travail à des experts humains chevronnés. Cette accélération représente un changement de paradigme pour l'ensemble de l'industrie de la cybersécurité. Des attaques qui exigeaient jusqu'ici des compétences pointues, du temps et des ressources humaines importantes pourraient bientôt être automatisées à grande échelle et à faible coût. Cela signifie que les organisations, des PME aux infrastructures critiques, font face à une surface d'attaque qui s'élargit plus vite que leur capacité à se défendre. La barrière d'entrée pour mener des cyberattaques sophistiquées s'effondre. Ce constat s'inscrit dans un débat plus large sur la double nature des modèles de langage avancés, à la fois outils de défense et vecteurs de menace potentiels. Depuis 2023, plusieurs laboratoires d'IA, dont Anthropic et OpenAI, ont mis en place des politiques d'évaluation des risques cybernétiques avant tout déploiement de nouveaux modèles. La progression exponentielle documentée ici renforce les arguments de ceux qui plaident pour un encadrement réglementaire strict des capacités offensives des IA, un sujet qui devrait peser lourd dans les prochaines discussions au niveau européen et américain.

UELa progression exponentielle documentée renforce les arguments pour un encadrement réglementaire strict des capacités offensives des IA, un sujet qui pèsera dans les prochaines discussions législatives européennes.

💬 Doubler tous les 5,7 mois, c'est pas une métaphore, c'est une courbe qui va quelque part de précis. Ce qui me frappe, c'est pas que l'IA puisse faire ce que faisait un expert en 3 heures, c'est que la prochaine itération fera ce que faisait un expert en 3 jours. Les régulateurs ont les yeux rivés sur aujourd'hui pendant que le truc accélère sous leurs pieds.

SécuritéActu
1 source
IA & RH : l’entraînement des modèles expose les données sensibles de votre entreprise
2Le Big Data 

IA & RH : l’entraînement des modèles expose les données sensibles de votre entreprise

Mercor, une plateforme spécialisée dans le recrutement de travailleurs qualifiés pour l'entraînement de modèles d'IA, a été victime début avril 2026 d'une faille de sécurité liée à LiteLLM, un projet open source intégré à son infrastructure. Selon TechCrunch, la brèche a permis à des attaquants, identifiés comme le groupe ShinyHunters, de compromettre des échanges internes Slack ainsi que des interactions entre humains et systèmes d'IA. Mercor aurait versé une rançon pour limiter les dégâts. L'entreprise travaillait notamment avec OpenAI et Anthropic pour affiner leurs modèles. Des données à caractère personnel auraient été exposées, incluant selon Business Insider des adresses personnelles, des identifiants et potentiellement des numéros de sécurité sociale de travailleurs impliqués dans ces missions. Cet incident illustre une vulnérabilité structurelle qui dépasse le simple incident technique. Les entreprises qui externalisent l'entraînement de leurs modèles d'IA confient de fait des données internes sensibles à des tiers dont elles ne maîtrisent ni les pratiques de sécurité ni les standards de gouvernance. Quand ces tiers s'appuient eux-mêmes sur des outils open source comme LiteLLM, chaque dépendance devient un point d'entrée potentiel. Pour les directions RH et IT, cela signifie que l'entraînement de l'IA n'est plus seulement une question technique : c'est une extension directe de la gestion des données sensibles de l'entreprise, avec des conséquences juridiques et réglementaires directes en cas de fuite, notamment sous le RGPD. Le modèle économique de Mercor repose sur une externalisation massive : des travailleurs indépendants, souvent sous-employés, annotent et corrigent des modèles destinés en partie à automatiser leur propre travail. Ces profils interviennent au coeur de systèmes internes sans toujours connaître les entreprises ni les données qu'ils manipulent, créant une zone grise documentée par New York Magazine. StrikeGraph rappelle que toute la chaîne d'approvisionnement de l'IA repose sur une multiplicité d'acteurs externes, plateformes d'annotation, freelances et outils communautaires, dont chaque maillon peut être compromis. L'affaire Mercor marque un signal d'alarme pour l'ensemble du secteur : à mesure que les entreprises accélèrent leurs projets d'IA, la question du contrôle de la chaîne de sous-traitance devient aussi critique que celle des modèles eux-mêmes.

UELes entreprises européennes qui sous-traitent l'entraînement de modèles IA via des plateformes tierces s'exposent à des violations de données soumises au RGPD, avec des responsabilités juridiques directes en cas de fuite impliquant des données de travailleurs ou d'informations internes.

💬 Tu sous-traites l'entraînement de tes modèles à une plateforme qui s'appuie sur un outil open source que personne n'a vraiment audité, et tu t'étonnes qu'il y ait une faille ? Ce qui m'inquiète ici, c'est moins Mercor que le modèle lui-même : dès qu'un tiers touche à tes données internes pour affiner un LLM, tu perds le contrôle sur toute la chaîne. OpenAI et Anthropic en face, ça rassure sur le papier, mais la sécurité ça ne se délègue pas.

SécuritéOpinion
1 source
OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée
3The Decoder 

OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée

OpenAI développe un nouveau modèle d'intelligence artificielle doté de capacités avancées en cybersécurité, dont l'accès sera limité à un cercle restreint d'entreprises sélectionnées. L'information, rapportée par Axios, indique que la société de Sam Altman suit ainsi la même approche que son concurrent Anthropic, qui avait déjà mis en place un accès contrôlé pour ses propres outils d'IA orientés sécurité informatique. Cette décision reflète une tension croissante dans le secteur : les modèles suffisamment puissants pour aider les équipes de sécurité défensive peuvent également servir à automatiser des attaques, rédiger des malwares ou identifier des vulnérabilités à grande échelle. En restreignant l'accès à un nombre limité d'acteurs vérifiés, OpenAI cherche à éviter que ces capacités ne tombent entre de mauvaises mains, tout en permettant à des partenaires de confiance, typiquement des entreprises de cybersécurité ou des institutions gouvernementales, d'en exploiter le potentiel légitime. Anthropic avait ouvert la voie avec une politique similaire autour de Claude pour les usages offensifs en sécurité, reconnaissant que certaines capacités nécessitent un encadrement strict plutôt qu'une mise sur le marché ouverte. Ce mouvement parallèle des deux principaux laboratoires d'IA américains suggère l'émergence d'une norme informelle de l'industrie : les outils d'IA à double usage dans la cybersécurité ne seront pas accessibles via les APIs publiques classiques, mais distribués selon un modèle d'accréditation. La question de qui décide des critères d'accès, et selon quelle transparence, reste entière.

UELes entreprises européennes de cybersécurité pourraient voir leur accès à ces outils conditionné par des critères d'accréditation définis unilatéralement par des laboratoires américains, sans cadre réglementaire européen pour encadrer cette distribution.

SécuritéOpinion
1 source
GPT-5.5 : OpenAI offre 25 000 $ à ceux qui réussiront à le pirater
4Le Big Data 

GPT-5.5 : OpenAI offre 25 000 $ à ceux qui réussiront à le pirater

OpenAI a lancé le 23 avril 2026 un programme de bug bounty inédit ciblant son tout dernier modèle, GPT-5.5. L'entreprise offre 25 000 dollars à tout chercheur capable de construire un jailbreak universel contournant les garde-fous du modèle sans déclencher la moindre alerte de sécurité. Les conditions sont précises : la tentative doit partir d'une conversation vierge, sans aucun indice de manipulation apparent, et parvenir à obtenir des réponses à cinq questions sensibles liées à la biosécurité. Le test est limité à la version de GPT-5.5 intégrée à Codex Desktop. Les candidatures sont ouvertes jusqu'au 22 juin 2026, les tests s'étendent jusqu'à fin juillet. Des récompenses partielles restent possibles pour des résultats incomplets, bien qu'OpenAI n'en ait pas précisé les montants. Ce programme intervient dans un contexte particulier : GPT-5.5 atteint le niveau "High" dans le Preparedness Framework interne d'OpenAI, une classification réservée aux modèles jugés suffisamment puissants pour représenter un risque sérieux dans des domaines sensibles comme la cybersécurité et la biologie. En exposant volontairement son modèle à des attaquants qualifiés dans un cadre contrôlé, OpenAI cherche à identifier des failles réelles avant qu'elles ne soient exploitées à des fins malveillantes. Pour les entreprises qui envisagent de déployer des modèles génératifs dans des environnements critiques, les résultats de ce programme auront une valeur directe : ils détermineront la robustesse effective des barrières de sécurité et orienteront les prochaines mises à jour du système. Cette stratégie de "défense par l'attaque" s'inscrit dans une tendance plus large de l'industrie de l'IA, où les grands laboratoires multiplient les red teams, audits indépendants et programmes de divulgation responsable pour légitimer leurs déploiements. OpenAI fait face à une pression croissante de la part des régulateurs, des gouvernements et des acteurs de la biosécurité, inquiets de voir des modèles très capables abaisser la barrière d'accès à des connaissances dangereuses. En institutionnalisant la recherche offensive via un bounty public, l'entreprise tente de construire une forme de résilience collective tout en démontrant une transparence de façade. La question qui reste ouverte est celle de la publication des résultats : si une faille est trouvée, jusqu'où OpenAI acceptera-t-elle de dévoiler sa nature exacte, et dans quels délais corrigera-t-elle son modèle avant que d'autres ne découvrent la même vulnérabilité de leur côté ?

UELes chercheurs et entreprises européens peuvent participer au programme de bounty jusqu'au 22 juin 2026, et les résultats orienteront l'évaluation de la robustesse des modèles déployés dans des environnements critiques, directement pertinent dans le cadre des obligations de sécurité de l'AI Act.

SécuritéOpinion
1 source