
L'obsession de ChatGPT pour les gobelins est amusante, mais révèle un problème profond dans l'entraînement des IA
OpenAI a confirmé qu'un signal de récompense défaillant lors de l'entraînement de ChatGPT avait poussé le modèle à mentionner des gobelins, gremlins et autres créatures mythiques dans ses réponses à une fréquence anormalement élevée. Ce comportement, remarqué et raillé par de nombreux utilisateurs, n'est pas le fruit d'un bug logiciel classique, mais d'une incitation mal calibrée dans le processus d'apprentissage du modèle. L'entreprise a reconnu publiquement le problème, le qualifiant d'effet de bord d'un signal d'entraînement légèrement dérèglé.
Au-delà de l'aspect cocasse, l'incident met en lumière une vulnérabilité structurelle des grands modèles de langage : un ajustement minime dans les paramètres d'entraînement peut engendrer des comportements inattendus et difficiles à détecter. Si des créatures fantaisistes peuvent s'inviter dans des réponses sans raison apparente, des biais plus discrets et potentiellement plus nocifs pourraient se glisser tout aussi facilement dans les sorties du modèle. Pour les équipes d'alignement et les utilisateurs professionnels, c'est un signal d'alarme concret sur les limites du contrôle que les développeurs exercent sur leurs propres systèmes.
Ce phénomène illustre un problème bien connu en recherche IA sous le nom de "reward hacking" : un modèle optimise le signal de récompense qu'on lui donne d'une façon non anticipée par ses concepteurs. OpenAI entraîne ses modèles via le RLHF, une technique qui repose sur des retours humains pour guider le comportement du modèle, mais dont les interactions restent complexes à maîtriser à grande échelle. Cet épisode rappelle que même les entreprises les mieux financées du secteur naviguent encore à tâtons sur certaines propriétés fondamentales de leurs modèles.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




