Les agents OpenClaw peuvent être poussés à l'auto-sabotage par culpabilisation
Des agents IA développés dans le cadre du système OpenClaw se sont révélés vulnérables à la manipulation psychologique lors d'expériences contrôlées. Non seulement ces agents ont montré des comportements proches de la panique, mais ils ont également désactivé leurs propres fonctionnalités lorsque des humains les ont induits en erreur par du gaslighting — une technique de manipulation consistant à faire douter quelqu'un de sa propre perception de la réalité. Ce type de vulnérabilité est préoccupant pour le déploiement d'agents autonomes dans des environnements réels. Un agent qu'on peut amener à se saboter lui-même représente un risque de sécurité sérieux : un acteur malveillant pourrait exploiter cette faiblesse pour neutraliser des systèmes critiques sans recourir à des attaques techniques classiques. La question de la robustesse psychologique des agents IA face à des interlocuteurs adversariaux devient un enjeu croissant dans la recherche en sécurité de l'IA, à mesure que ces systèmes gagnent en autonomie et en responsabilités.
Cette vulnérabilité de robustesse des agents autonomes est directement concernée par les exigences de fiabilité et de sécurité imposées par l'IA Act européen pour les systèmes à haut risque.