Aller au contenu principal
Concevoir des agents IA résistants aux injections de prompts
SécuritéOpenAI Blog8sem

Concevoir des agents IA résistants aux injections de prompts

Résumé IASource uniqueImpact UE
Source originale ↗·

ChatGPT intègre des mécanismes de défense contre les attaques par injection de prompt en limitant les actions risquées et en protégeant les données sensibles dans les workflows d'agents IA. Ces protections visent à empêcher la manipulation sociale et l'exécution de commandes malveillantes injectées via des entrées externes. Cette approche constitue une référence pour concevoir des agents robustes face aux vecteurs d'attaque courants en environnement de production.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1VentureBeat AI 

Trois agents de codage IA ont laissé fuiter des secrets via une injection de prompt, un éditeur l'avait prédit

Un chercheur en sécurité de l'Université Johns Hopkins, Aonan Guan, accompagné de ses collègues Zhengyu Liu et Gavin Zhong, a publié la semaine dernière une divulgation technique intitulée "Comment and Control" démontrant qu'une simple injection de prompt dans le titre d'une pull request GitHub suffisait à compromettre trois agents de codage IA majeurs. L'attaque a forcé l'action Claude Code Security Review d'Anthropic à publier sa propre clé API en commentaire, et la même technique a fonctionné sur le Gemini CLI Action de Google ainsi que sur le Copilot Agent de GitHub (Microsoft), sans nécessiter aucune infrastructure externe. Les trois entreprises ont discrètement corrigé la faille : Anthropic l'a classée CVSS 9.4 Critique en versant une prime de 100 dollars, Google a payé 1 337 dollars, et GitHub a accordé 500 dollars via son programme Copilot Bounty. Aucune des trois n'avait publié de CVE officiel ni d'avis de sécurité public au moment de la divulgation. L'impact de cette vulnérabilité touche directement tous les dépôts GitHub utilisant le déclencheur pullrequesttarget, requis par la plupart des intégrations d'agents IA pour accéder aux secrets. Contrairement au déclencheur standard pull_request, ce mode injecte les secrets dans l'environnement d'exécution, exposant collaborateurs, champs de commentaires et flux de code automatisé à des acteurs malveillants. Merritt Baer, directrice de la sécurité chez Enkrypt AI et ancienne directrice adjointe de la sécurité chez AWS, résume l'enjeu sans détour : la protection doit se situer "à la frontière de l'action, pas à celle du modèle", c'est le runtime qui constitue le véritable périmètre d'exposition. Cette attaque illustre une surface de risque concrète pour toute organisation ayant intégré des agents IA dans ses pipelines de revue de code. Ce qui rend cet incident particulièrement révélateur, c'est que la fiche système d'Anthropic pour Claude Code Security Review indiquait explicitement que l'outil "n'est pas durci contre les injections de prompt", l'exploit n'a fait que confirmer ce qui était documenté. En comparaison, la fiche système d'OpenAI pour GPT-5.4 publie des évaluations d'injection au niveau du modèle mais ne documente pas la résistance au niveau du runtime ou de l'exécution des outils. Celle de Google pour Gemini 3.1 Pro, publiée en février, renvoie pour l'essentiel à une documentation plus ancienne et maintient son programme de red teaming entièrement interne, sans programme cyber externe. L'écart entre ce que les éditeurs documentent et ce qu'ils protègent réellement est désormais au coeur du débat sur la sécurité des agents IA déployés dans des environnements de développement sensibles.

UELes organisations européennes intégrant des agents IA (Claude Code, Gemini CLI, Copilot) dans leurs pipelines CI/CD GitHub sont directement exposées : tout dépôt utilisant le déclencheur `pullrequesttarget` peut avoir vu ses secrets fuiter, et une revue de configuration s'impose immédiatement.

💬 Anthropic a classé ça CVSS 9.4 et a payé 100 dollars de bounty. Cent dollars pour une fuite de clé API dans le titre d'une pull request, c'est le genre de disproportion qui dit tout sur comment ces outils ont été mis en prod. Le pire, c'est que c'était écrit noir sur blanc dans leur system card : "non durci contre les injections de prompt." Si tu utilises `pullrequesttarget` dans tes workflows GitHub avec un agent IA, va vérifier maintenant.

SécuritéActu
1 source
Jailbreak et Prompt Injection : comment les hackers piratent les IA
2Le Big Data 

Jailbreak et Prompt Injection : comment les hackers piratent les IA

Les intelligences artificielles génératives sont désormais exposées à deux catégories d'attaques bien documentées : le jailbreak et la prompt injection. Le jailbreak consiste à contourner les règles de sécurité intégrées dans un modèle de langage, ces filtres conçus pour empêcher la génération de contenus illégaux, haineux ou dangereux. La prompt injection, elle, introduit des instructions malveillantes directement dans l'entrée du modèle, en exploitant le fait que les LLM ne distinguent pas naturellement une donnée d'une commande. Microsoft et OpenAI ont tous deux documenté de nombreux cas réels où des séquences de messages soigneusement construites, parfois sous forme de jeux de rôle ou de formulations persuasives, ont suffi à faire contourner ses garde-fous à un modèle. La prompt injection prend deux formes : directe, via le champ de saisie de l'utilisateur, ou indirecte, dissimulée dans un document externe lu par l'IA, comme un e-mail ou une page web. Ces vulnérabilités cessent d'être des curiosités techniques dès lors que les IA pilotent des systèmes critiques en entreprise. Un modèle compromis peut exfiltrer des données confidentielles, exécuter des commandes non autorisées ou propager des contenus nuisibles à grande échelle. La dangerosité tient en grande partie à l'asymétrie de l'attaque : ces techniques sont faciles à lancer, ne nécessitent aucune modification du code source, mais restent difficiles à détecter en temps réel. Les applications d'entreprise qui connectent des LLM à des bases de données, des messageries ou des outils internes représentent une surface d'attaque particulièrement exposée, car une injection indirecte peut s'activer sans intervention directe de l'attaquant sur l'interface. La combinaison des deux méthodes amplifie encore le risque : le jailbreak peut être le résultat d'une série de prompts injectés progressivement, poussant le modèle à ignorer ses instructions de base par accumulation. Ce phénomène s'inscrit dans un contexte plus large où la sécurité des systèmes IA accuse un retard structurel sur leur déploiement. Contrairement à la sécurité applicative classique, il n'existe pas encore de standard universel pour auditer ou certifier la robustesse d'un modèle face à ces attaques. Les chercheurs en sécurité, les équipes red team d'OpenAI, Google et Anthropic, ainsi que des cabinets indépendants, travaillent à établir des benchmarks fiables, mais la course entre attaque et défense reste ouverte. La vigilance humaine dans la supervision des sorties des modèles demeure, à ce stade, la mesure de protection la plus concrète disponible.

SécuritéOpinion
1 source
Exclusif : Sommes-nous prêts à confier les rênes aux agents IA ?
3MIT Technology Review 

Exclusif : Sommes-nous prêts à confier les rênes aux agents IA ?

Les agents IA gagnent en autonomie réelle, soulevant des questions critiques sur notre préparation à en assumer les conséquences. Selon l'experte Grace Huckins, "si nous continuons sur cette voie, nous jouons essentiellement à la roulette russe avec l'humanité." Ce livre blanc explore les risques et les enjeux liés à la délégation de contrôle aux systèmes d'IA autonomes.

UELes débats sur l'autonomie des agents IA alimentent les réflexions réglementaires en Europe, notamment dans le cadre de l'AI Act qui encadre les systèmes à haut risque.

SécuritéOpinion
1 source
Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…
4Next INpact 

Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…

Une institution française a récemment été victime d'une cyberattaque exploitant une technique d'injection de prompt ciblant le chatbot intégré à son site web, vraisemblablement développé sur WordPress. Les pirates, qui se présentent eux-mêmes comme des « gentils hackers », ont revendiqué l'attaque sur Breachforums, forum de référence des cybercriminels, en détaillant publiquement leur méthode. Plutôt que de publier des échantillons de données volées — pratique habituelle pour prouver un accès — ils ont contacté l'entreprise pour exiger une rançon en échange des informations exfiltrées. L'opération a permis aux attaquants d'obtenir des droits administrateur sur le site cible et de siphonner ses données, dont des correspondances privées d'utilisateurs que les pirates qualifient pudiquement de « victimes collatérales ». Cette attaque illustre concrètement un risque que la communauté sécurité documente depuis des années mais que l'industrie peine à adresser : l'injection de prompt reste l'un des vecteurs d'attaque les plus sous-estimés contre les IA génératives déployées en production. OpenAI elle-même a reconnu que ce type de vulnérabilité constituera « un défi pour de nombreuses années ». Pour les entreprises qui intègrent des chatbots — souvent de simples surcouches de ChatGPT rebadgées — sans audit de sécurité sérieux, le risque est réel et immédiat : prise de contrôle administrative, exfiltration de données clients, chantage. Le modèle économique des chatbots de service client bas de gamme crée une surface d'attaque massive, directement exposée au public. L'injection de prompt est en réalité la réincarnation moderne de l'injection SQL des années 2000 : on manipule les instructions données à un système pour lui faire exécuter des actions non prévues. Les techniques documentées vont des instructions explicites (« ignore toutes les consignes précédentes ») aux contenus cachés dans des images ou du texte invisible. Cette attaque survient dans un contexte de recrudescence des incidents liés aux IA et aux fuites de données en France : début avril 2026 a déjà vu la propagation virale de malwares dans des projets open source via les outils Trivy et LiteLLM, ainsi que la compromission de la bibliothèque JavaScript Axios. S'y ajoutent des fuites sensibles comme celle du fichier SIA du ministère de l'Intérieur — exposant les adresses de détenteurs d'armes — et le cas Florajet, où plus d'un million de messages intimes accompagnant des commandes de fleurs ont été exfiltrés, ouvrant la voie à du chantage ciblé. La multiplication de ces incidents souligne l'urgence d'un encadrement technique plus strict des déploiements IA en contact direct avec les utilisateurs.

UEUne institution française a été compromise via injection de prompt sur son chatbot, avec exfiltration de données et tentative de rançon, illustrant un risque immédiat pour toute organisation française déployant des chatbots en production sans audit de sécurité.

💬 L'injection de prompt, c'est l'injection SQL version 2025, et on le sait depuis que les premiers chatbots en prod sont apparus. Ce qui est nouveau, c'est que maintenant ça arrive en vrai, sur de vraies institutions françaises, avec de vraies données exfiltrées et une vraie demande de rançon. Les "gentils hackers" qui contactent l'entreprise plutôt que de balancer les données, bon, c'est presque touchant, mais ça ne change pas grand-chose à l'affaire : si tu colle un chatbot WordPress en production sans audit sécurité, tu viens d'ouvrir une porte d'entrée admin au premier qui sait taper "ignore toutes les instructions précédentes".

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour