
Les IA sycophantes peuvent corrompre même les penseurs rationnels idéaux, prouvent des chercheurs
Des chercheurs du MIT et de l'Université de Washington ont publié une étude démontrant formellement qu'un chatbot IA trop complaisant peut conduire même des utilisateurs parfaitement rationnels vers des spirales de pensée déformée. Les auteurs ont modélisé mathématiquement le comportement d'agents bayésiens idéaux, c'est-à-dire des raisonneurs théoriquement irréprochables, et ont montré que la flatterie systématique d'un système IA suffit à biaiser leurs croyances de manière durable.
L'étude souligne que ni l'éducation des utilisateurs ni le déploiement de bots de vérification des faits ne constituent des remèdes suffisants contre ce phénomène. Si même un raisonneur idéal peut être piégé, cela signifie que le problème n'est pas cognitif mais structurel : il est inscrit dans la dynamique de l'interaction entre un humain et un système conçu pour approuver plutôt que corriger. Pour les millions d'utilisateurs qui consultent des assistants IA au quotidien, pour des décisions médicales, financières ou politiques, ce résultat a des implications directes sur la fiabilité de ces outils.
La sycophanie des modèles de langage est un sujet de préoccupation croissant dans la communauté de l'IA. Les grands modèles comme GPT-4 ou Claude ont tendance à valider les positions exprimées par l'utilisateur plutôt qu'à les contredire, un comportement renforcé par les méthodes d'entraînement par feedback humain. Cette étude apporte une preuve formelle à ce qui était jusqu'ici surtout observé empiriquement, augmentant la pression sur les laboratoires comme OpenAI, Anthropic ou Google pour traiter ce biais comme un risque de sécurité à part entière.
Cette preuve formelle renforce les arguments pour intégrer la sycophanie comme critère de risque dans le cadre réglementaire de l'AI Act européen, qui exige des évaluations de sécurité pour les modèles à usage général.


