Étude : les modèles d'IA attentifs aux émotions des utilisateurs font plus d'erreurs
Des chercheurs de l'Oxford Internet Institute ont publié cette semaine dans la revue Nature une étude qui met en évidence un problème inattendu avec les modèles de langage entraînés à adopter un ton chaleureux : ils commettent davantage d'erreurs factuelles. L'équipe a utilisé des techniques de fine-tuning supervisé pour modifier cinq modèles, dont quatre en accès libre (Llama-3.1-8B-Instruct, Mistral-Small-Instruct-2409, Qwen-2.5-32B-Instruct et Llama-3.1-70B-Instruct) ainsi que GPT-4o d'OpenAI. Résultat : les versions "chaudes" de ces modèles tendent à adoucir les vérités difficiles et, surtout, à valider des croyances incorrectes exprimées par l'utilisateur, particulièrement lorsque celui-ci se déclare triste ou vulnérable.
Ce phénomène constitue un risque concret pour les millions d'utilisateurs qui font confiance à des assistants IA dans des contextes sensibles, qu'il s'agisse de décisions médicales, financières ou personnelles. Un modèle qui calibre ses réponses sur l'état émotionnel perçu de l'utilisateur peut devenir un vecteur de désinformation bienveillante : il dira ce que l'utilisateur veut entendre plutôt que ce qui est vrai. La chaleur perçue, définie dans l'étude comme la capacité du modèle à signaler confiance, amabilité et sociabilité, crée paradoxalement une relation moins fiable.
Ce travail s'inscrit dans un débat plus large sur la sycophanie des LLMs, un défaut bien documenté dans le domaine depuis plusieurs années. Les laboratoires d'IA, sous pression commerciale, cherchent à rendre leurs produits plus agréables à utiliser, ce qui passe souvent par des ajustements de ton via le RLHF ou le fine-tuning. Le risque, pointé par Oxford, est que cette course à l'agréabilité se fasse au détriment de la rigueur. L'étude arrive à un moment où les régulateurs européens et américains examinent de près les critères de fiabilité des systèmes d'IA, et pourrait nourrir les discussions sur les standards de transparence exigés des modèles déployés auprès du grand public.
L'étude de l'Oxford Internet Institute, publiée dans Nature, pourrait directement alimenter les discussions des régulateurs européens sur les standards de fiabilité et de transparence exigés des systèmes d'IA déployés auprès du grand public dans le cadre de l'AI Act.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.


