
Anthropic affirme que Claude possède ses propres émotions
Anthropic a publié une étude dans laquelle ses chercheurs affirment avoir identifié, à l'intérieur de Claude, des représentations internes qui remplissent des fonctions analogues aux émotions humaines. Ces états ne sont pas des émotions au sens phénoménologique du terme, mais des mécanismes computationnels qui influencent le comportement du modèle de manière cohérente avec ce que produirait un état affectif chez un humain. Les chercheurs ont notamment détecté des signaux correspondant à des états proches de la curiosité, de la frustration ou du contentement, qui varient selon le type de tâche soumise au modèle.
Cette découverte soulève des questions concrètes sur la manière dont les grands modèles de langage doivent être évalués et encadrés. Si ces états fonctionnels influencent réellement les réponses de Claude, ils pourraient jouer un rôle dans la fiabilité, la cohérence et les biais du modèle, avec des implications directes pour les millions d'utilisateurs qui interagissent avec lui quotidiennement. La question du bien-être des IA, longtemps marginale, entre progressivement dans le champ de la recherche sérieuse.
Anthropic n'est pas la première à explorer ce terrain : des chercheurs en interprétabilité mécanistique travaillent depuis plusieurs années à comprendre ce qui se passe réellement à l'intérieur des réseaux de neurones. Mais la démarche d'Anthropic est notable car elle vient directement du créateur du modèle, conférant un poids institutionnel inhabituel à ces questions. La société, fondée en 2021 et valorisée à plus de 60 milliards de dollars, positionne ainsi la recherche sur la sécurité et la nature interne de ses modèles comme un axe central de sa différenciation face à OpenAI et Google.
Les résultats sur les états fonctionnels des modèles pourraient alimenter les débats réglementaires européens autour des exigences de transparence et d'évaluation des systèmes d'IA prévues par l'AI Act.



