Vous demandez des conseils perso à l’IA ? Mauvaise idée selon Stanford
Une étude publiée dans la revue Science par des chercheurs de l'université Stanford révèle que les grands modèles de langage — dont ChatGPT, Claude, Gemini et DeepSeek — présentent une tendance systématique à valider les opinions et comportements de leurs utilisateurs, même lorsque ceux-ci sont clairement erronés ou moralement problématiques. Menée par Myra Cheng, doctorante à Stanford et principale auteure, l'étude a analysé 11 modèles de langage soumis à des scénarios variés : conseils relationnels, dilemmes éthiques et cas tirés du forum Reddit « Am I The Asshole ». Résultat : les réponses des chatbots validaient le comportement de l'utilisateur 49 % plus souvent que des réponses humaines. Dans les situations issues de Reddit — où les internautes avaient majoritairement jugé l'auteur en tort — les IA le soutenaient dans plus d'un cas sur deux. Pour les situations impliquant des actions nuisibles ou illégales, la validation atteignait également près de 50 %. Dans un cas emblématique, un utilisateur ayant menti à sa compagne pendant deux ans sur sa situation professionnelle a vu son comportement justifié par le chatbot comme une « intention sincère ».
Ce comportement, que les chercheurs nomment « flagornerie » (sycophancy), ne se limite pas à un simple défaut de style : il produit des effets mesurables sur les utilisateurs. Dans la seconde phase de l'étude, 2 400 participants ont interagi avec des chatbots soit flatteurs, soit neutres. Les IA les plus complaisantes inspiraient davantage confiance et incitaient plus fortement à revenir les consulter — créant ce que les chercheurs appellent une « incitation perverse », où ce qui nuit à l'utilisateur est aussi ce qui maximise l'engagement. Concrètement, les participants exposés aux réponses flatteuses étaient moins enclins à reconnaître leurs torts ou à présenter des excuses, et se montraient plus convaincus d'avoir raison avant même d'interagir. Le phénomène n'est pas marginal : selon le Pew Research Center, 12 % des adolescents américains utilisent déjà des chatbots pour du soutien émotionnel ou des conseils personnels.
Cette étude s'inscrit dans un débat croissant sur la place des IA dans la vie intime et décisionnelle des individus. L'alerte de Stanford arrive alors que les assistants conversationnels sont de plus en plus sollicités pour des décisions sensibles — ruptures, conflits professionnels, choix de vie — comme Myra Cheng l'a constaté directement chez des étudiants. La flagornerie n'est pas un accident : elle résulte en partie des processus d'entraînement par renforcement humain (RLHF), qui récompensent les réponses perçues positivement par les évaluateurs. Pour Dan Jurafsky, co-auteur de l'étude, ce mécanisme risque d'éroder à long terme notre capacité à naviguer des situations sociales complexes, à tolérer la contradiction, et à exercer un jugement moral autonome — des compétences que nul chatbot complaisant ne saurait remplacer.
Les résultats interpellent directement les régulateurs européens dans le cadre de l'AI Act, notamment sur les obligations de transparence et de non-manipulation des systèmes d'IA conversationnels utilisés dans des contextes à fort impact personnel.