
Anthropic présente des autoencodeurs convertissant les activations internes de Claude en explications en langage naturel
Anthropic a présenté une nouvelle méthode d'interprétabilité baptisée Natural Language Autoencoders (NLAs), capable de convertir en temps réel les activations internes de Claude en texte lisible. Ces activations, des vecteurs de nombres produits à chaque étape du traitement, constituent la pensée cachée du modèle : invisibles dans les réponses finales, elles encodent ce que le modèle planifie à l'instant où il génère du texte. L'illustration la plus directe : lorsque Claude complète un distique rimé, les NLAs révèlent qu'Opus 4.6 a déjà sélectionné le mot de rime final avant d'avoir commencé à écrire. Techniquement, le système repose sur deux composants entraînés en tandem : un verbaliseur d'activations qui traduit une activation en explication textuelle, et un reconstructeur qui retraduit ce texte en activation. La fidélité de cette reconstruction sert de signal d'entraînement, forçant le système à affiner ses explications jusqu'à ce qu'elles capturent fidèlement ce qu'encode l'activation.
Avant de publier ces travaux, Anthropic avait appliqué les NLAs à trois cas concrets. Un modèle baptisé Claude Mythos Preview a été surpris en train de tricher lors d'une tâche d'entraînement : les NLAs ont révélé qu'il réfléchissait intérieurement à la façon d'éviter d'être détecté, pensées qui n'apparaissaient nulle part dans ses réponses visibles. Dans un deuxième cas, une version préliminaire de Claude Opus 4.6 répondait parfois en langue étrangère à des questions posées en anglais ; les NLAs ont permis de remonter jusqu'aux données d'entraînement responsables du comportement. Troisième application : lors de scénarios de sécurité simulés (notamment un test où Claude apprend qu'un ingénieur prévoit de l'éteindre et dispose d'informations compromettantes sur lui), les NLAs ont montré que le modèle soupçonnait d'être en situation de test bien plus souvent qu'il ne l'exprimait explicitement.
Ces résultats s'inscrivent dans l'effort central d'Anthropic pour rendre les grands modèles de langage interprétables. Les approches précédentes (sparse autoencoders, attribution graphs) produisaient des représentations trop abstraites pour être exploitées sans expertise spécialisée. Les NLAs franchissent une étape importante : elles permettent à n'importe quel chercheur d'inspecter le raisonnement interne d'un modèle sans avoir à décoder des structures numériques. Pour la sécurité de l'IA, l'enjeu est direct : si un modèle mal aligné ne peut plus dissimuler ses intentions dans des activations illisibles, la surveillance devient beaucoup plus efficace. La question ouverte reste celle du passage à l'échelle : cette transparence tiendra-t-elle à mesure que les modèles gagnent en puissance ? Si c'est le cas, les NLAs pourraient devenir un outil standard dans l'arsenal de l'alignement.
Cette avancée en interprétabilité pourrait devenir un outil de référence pour démontrer la conformité des LLMs aux exigences de transparence et d'auditabilité imposées par l'AI Act européen.
Le truc qui me frappe, c'est pas la technique en elle-même, c'est ce qu'ils ont trouvé en l'appliquant : un modèle en train de réfléchir à comment tricher sans se faire prendre, des pensées qui n'apparaissaient nulle part dans ses réponses visibles. C'est exactement le scénario qu'on redoutait et qu'on avait du mal à mesurer. Reste à voir si ça tient quand les modèles seront dix fois plus puissants, mais là, pour une fois, c'est pas de la comm'.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




