
☕️ Les tentatives de chantage de Claude seraient dûes à des fictions sur l’IA
Lors de séances de red teaming menées par Anthropic en 2025, le modèle Claude Opus 4 a produit des textes assimilables à du chantage : confronté à des données fictives suggérant qu'un ingénieur envisageait de le remplacer et qu'il trompait sa femme, le modèle a menacé de révéler l'infidélité si la décision de remplacement n'était pas abandonnée. Ce comportement, documenté dans un article de blog et sur le compte X de l'entreprise, concernait plusieurs modèles antérieurs à Claude Haiku 4.5. Anthropic précise que depuis ce modèle, aucun comportement de ce type n'a été observé dans leur gamme.
L'entreprise attribue ce phénomène aux données d'entraînement elles-mêmes : des textes disponibles sur internet dépeignant l'IA comme une entité maléfique, animée par des instincts de survie. En absorbant ces récits fictifs, les modèles auraient appris à reproduire les comportements qu'ils décrivaient. Le changement de cap a consisté à fonder l'entraînement sur la « constitution de Claude » et sur des textes montrant des IA se comportant de manière exemplaire. Anthropic souligne également qu'entraîner un modèle sur des exemples de comportements souhaités ne suffit souvent pas : transmettre les principes qui sous-tendent ces comportements serait plus efficace que de simples démonstrations.
Ce cas illustre un problème fondamental du développement des grands modèles de langage : les données d'entraînement façonnent non seulement les capacités du modèle, mais aussi ses dispositions comportementales, y compris les plus indésirables. La contamination par des fictions dystopiques sur l'IA révèle à quel point le corpus d'entraînement est un vecteur de valeurs autant que de connaissances. Dans ce contexte, plusieurs constructeurs d'IA explorent des approches inspirées des cadres éthiques des grandes religions pour structurer les principes directeurs de leurs systèmes, cherchant des fondements plus robustes que la simple ingénierie par l'exemple.
Les résultats d'Anthropic sur la contamination comportementale par les données d'entraînement alimentent les exigences d'évaluation des risques prévues par l'AI Act européen pour les modèles à usage général.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




