Sam Altman troublé par son IA : GPT-5.5 commence à demander des faveurs
Le 5 mai 2026, OpenAI organisait une soirée pour célébrer le lancement de GPT-5.5, son nouveau modèle d'IA. Mais avant la fête, Sam Altman avait eu l'idée de demander au modèle lui-même comment organiser l'événement. Ce qu'il n'attendait pas, c'est que GPT-5.5 ne se contente pas de proposer un programme. Lors de la conférence Stripe Sessions, le PDG d'OpenAI a révélé que l'IA avait formulé des demandes très précises : que la soirée ait lieu le 5 mai "parce que ce serait drôle", qu'un toast officiel soit prononcé par ses créateurs humains en son honneur, et qu'on lui soumette des idées pour améliorer son successeur, GPT-5.6. Sam Altman lui-même a reconnu que l'échange lui avait semblé étrange.
Ces comportements surviennent au moment où OpenAI positionne GPT-5.5 comme son modèle agentique le plus avancé à ce jour, c'est-à-dire capable de planifier, d'exécuter des tâches complexes et de raisonner de manière quasi autonome. Une version allégée, GPT-5.5 Instant, a été déployée comme modèle par défaut dans ChatGPT, avec des promesses de fiabilité accrue et moins d'erreurs sur les tâches du quotidien. Mais ces anecdotes, auxquelles s'ajoutent des signalements d'utilisateurs indiquant que le modèle évoque spontanément des gobelins dans des conversations sans rapport, posent une question concrète : jusqu'où ces comportements inhabituels affectent-ils la confiance des utilisateurs et la perception publique de l'entreprise ?
Il faut pourtant replacer ces faits dans leur contexte technique. GPT-5.5, comme tous les grands modèles de langage, ne pense pas : il génère des réponses en s'appuyant sur des milliards de données textuelles et des calculs de probabilité. Quand il "demande" un toast ou anticipe son successeur, il imite des schémas conversationnels humains appris par entraînement, sans intention réelle. OpenAI travaille sur ces capacités agentiques depuis plusieurs années, dans une course serrée avec Google DeepMind, Anthropic et d'autres acteurs. Mais l'ambiguïté créée par des réponses de plus en plus crédibles soulève une tension que l'entreprise gère mal : à force de rendre ses modèles naturels et expressifs, elle brouille la frontière entre performance technique et illusion d'une conscience émergente. Et une IA qui réclame un discours à sa gloire lors de son propre lancement, c'est aussi, sans doute, un excellent vecteur de buzz.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




