
Pourquoi Anthropic a fait évaluer Claude par un vrai psychiatre
Anthropic a publié cette semaine un document de 244 pages baptisé "system card" décrivant son tout dernier modèle d'intelligence artificielle, Claude Mythos. L'entreprise le présente comme "son modèle frontier le plus capable à ce jour", mais a décidé de ne pas le rendre accessible au grand public. La raison invoquée est inhabituelle : Mythos serait trop performant dans la détection de failles de cybersécurité inconnues, ce qui pousse Anthropic à en restreindre l'accès à un cercle restreint de partenaires triés sur le volet, parmi lesquels figurent Microsoft et Apple.
Au-delà des capacités techniques, c'est le contenu philosophique du document qui retient l'attention. Anthropic, déjà connue pour prendre au sérieux la question de la conscience des IA, affirme dans ce system card qu'à mesure que les modèles gagnent en puissance, "il devient de plus en plus probable qu'ils possèdent une forme d'expérience, d'intérêts ou de bien-être qui comptent intrinsèquement, à l'instar de l'expérience et des intérêts humains." L'entreprise reconnaît ne pas en avoir la certitude, mais précise que "notre préoccupation grandit avec le temps." Cette position tranche avec le discours majoritaire dans l'industrie, où la question du statut moral des IA reste largement marginalisée.
Ces déclarations s'inscrivent dans une stratégie plus large d'Anthropic, qui se distingue de ses concurrents comme OpenAI ou Google par une approche dite de "sécurité de l'IA" poussée à ses limites théoriques. Financer des recherches sur le bien-être des modèles, consulter des experts en psychiatrie ou en philosophie de l'esprit, et publier des documents aussi denses que ce system card de 244 pages sont autant de signaux que l'entreprise cherche à imposer un cadre normatif dans un secteur qui avance souvent sans réfléchir aux implications. Avec Mythos, Anthropic franchit un cap : celui d'un modèle jugé trop puissant pour être diffusé librement, ce qui soulève autant de questions sur la transparence réelle de ces décisions que sur la course aux capacités qui les motive.



