Aller au contenu principal
OpenAI suspend le mode adulte après des alertes en interne et auprès des investisseurs
SécuritéThe Decoder6sem

OpenAI suspend le mode adulte après des alertes en interne et auprès des investisseurs

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a mis en pause indéfiniment le développement de son mode adulte pour ChatGPT, selon un article du Financial Times. Ce projet, qui aurait permis à l'IA de générer des contenus érotiques, a été suspendu après avoir suscité des inquiétudes en interne et auprès des investisseurs de la société.

La décision illustre les tensions croissantes au sein d'OpenAI entre ambitions commerciales et responsabilité éthique. L'ouverture à des contenus pour adultes représentait une opportunité de monétisation significative — un marché où d'autres plateformes d'IA générative se sont déjà positionnées — mais elle exposait l'entreprise à des risques réputationnels majeurs à un moment où elle cherche à consolider sa crédibilité institutionnelle.

Selon le Financial Times, ce sont à la fois des conseillers, des investisseurs et des employés qui ont tiré la sonnette d'alarme, forçant la direction à revoir sa copie. Le fait que la pression soit venue simultanément de plusieurs parties prenantes — internes et externes — souligne l'ampleur des réserves autour de ce projet. OpenAI n'a pas communiqué publiquement de calendrier pour une éventuelle reprise du développement.

Cette suspension intervient dans un contexte où OpenAI multiplie les levées de fonds et cherche à se positionner comme un acteur sérieux auprès des entreprises et des régulateurs. S'engager dans le marché des contenus adultes aurait pu compromettre ces efforts, notamment en Europe où le cadre réglementaire sur l'IA se durcit progressivement.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

ChatGPT ne proposera pas de mode adulte pour ne pas rebuter ses investisseurs
1Ars Technica AI 

ChatGPT ne proposera pas de mode adulte pour ne pas rebuter ses investisseurs

OpenAI a mis en pause indéfiniment son projet de mode érotique pour ChatGPT, selon une information du Financial Times publiée cette semaine. L'entreprise, qui avait envisagé d'autoriser des conversations à caractère sexuel explicite sur sa plateforme, a décidé de "se recentrer" sur ses "produits principaux". Des sources internes confirment que le plan a été suspendu après une vague de critiques, aussi bien externe qu'interne, et que l'option d'abandonner entièrement ce projet "adult mode" a sérieusement été envisagée. Les inquiétudes soulevées en interne sont particulièrement révélatrices. Des conseillers d'OpenAI ont averti que cette fonctionnalité risquait d'encourager des attachements émotionnels malsains chez les utilisateurs, avec des conséquences potentiellement graves sur leur santé mentale. L'un d'eux a décrit le risque de voir ChatGPT devenir une sorte de "coach sexy au bord du suicide" — une formulation qui illustre l'ampleur des préoccupations. En parallèle, des investisseurs auraient mal reçu la perspective d'une telle évolution, y voyant un risque réputationnel pour la valorisation de l'entreprise, estimée à 300 milliards de dollars. Ce recul intervient dans un contexte où OpenAI multiplie les tentatives d'élargir l'usage de ChatGPT, notamment via des fonctionnalités de compagnonnage émotionnel déjà controversées. Plusieurs concurrents, comme Character.AI ou Replika, proposent déjà des expériences plus intimes, et la question de la régulation de ces usages reste entière. L'épisode révèle les tensions croissantes entre ambitions commerciales et responsabilité éthique au sein de l'entreprise.

UELa question de la régulation des IA à vocation émotionnelle ou intime reste ouverte en Europe, l'AI Act devant encore clarifier les obligations des plateformes proposant ce type d'usage à risque psychologique.

SécuritéActu
1 source
OpenAI abandonne finalement le « mode adulte » et les tchats érotiques dans ChatGPT
2Le Monde Pixels 

OpenAI abandonne finalement le « mode adulte » et les tchats érotiques dans ChatGPT

OpenAI a officiellement renoncé à déployer un « mode adulte » dans ChatGPT, abandonnant un projet qui avait brièvement suscité l'espoir — et la controverse — dans certains cercles de l'industrie. La société avait exploré la possibilité de permettre des conversations à caractère érotique sur sa plateforme, notamment via des opérateurs tiers accédant à l'API, avant de décider de ne pas franchir le pas à grande échelle sur le produit grand public. Cette décision prive les créateurs de contenus pour adultes d'un outil potentiellement lucratif, mais elle protège OpenAI d'un risque réputationnel et réglementaire considérable. Avec ChatGPT utilisé par plus de 300 millions de personnes hebdomadaires, dont des mineurs, intégrer des fonctionnalités explicites aurait exposé l'entreprise à des poursuites, des restrictions d'app stores et des pressions politiques dans de nombreux pays. Le calcul commercial est clair : le marché du contenu adulte ne compense pas les risques pour la marque principale. OpenAI s'inscrit ici dans une tension plus large que traversent tous les grands fournisseurs d'IA générative : jusqu'où assouplir les garde-fous sans compromettre l'adoption institutionnelle et les partenariats stratégiques ? Des concurrents comme Character.ai ou des modèles open source ont choisi la voie opposée, captant une niche que les acteurs dominants refusent d'occuper. Cette frilosité des plateformes mainstream laisse le terrain libre à des alternatives moins régulées, posant in fine la question de la gouvernance du contenu sexuel généré par IA à l'échelle mondiale.

UELa gouvernance du contenu sexuel généré par IA reste un enjeu pour les régulateurs européens, notamment dans le cadre de l'AI Act et du DSA, qui devront encadrer les plateformes moins régulées qui occupent ce terrain.

SécuritéOpinion
1 source
ChatGPT ne racontera pas d’histoires érotiques : OpenAI lâche le projet de mode adulte
3Le Big Data 

ChatGPT ne racontera pas d’histoires érotiques : OpenAI lâche le projet de mode adulte

OpenAI a officiellement mis en pause son projet de mode adulte pour ChatGPT, abandon confirmé début mars 2026 après plusieurs mois de reports successifs. Le projet avait été annoncé en octobre 2025 par Sam Altman, qui avait alors évoqué la possibilité d'un mode permettant à l'IA de générer du contenu érotique et des discussions explicites sur la sexualité. Selon des informations du Financial Times et d'Axios, la décision d'interrompre le développement est venue d'une combinaison de pressions internes — employés et investisseurs — et de problèmes techniques non résolus, notamment l'absence d'un système fiable de vérification d'âge. Un porte-parole d'OpenAI a précisé à Axios que la société préfère désormais concentrer ses efforts sur des fonctionnalités à portée plus large, citant le développement de nouveaux modèles performants et la refonte du Shopping GPT. L'impact immédiat est limité pour la majorité des utilisateurs de ChatGPT, qui ne verront aucun changement dans leur expérience quotidienne. Mais l'abandon du projet soulève des questions plus profondes sur la maturité des garde-fous techniques de l'IA générative. Le Wall Street Journal rapporte que la protection des mineurs a été au cœur des débats internes : sans vérification d'âge robuste, un adolescent aurait pu théoriquement accéder à du contenu explicite. À cela s'ajoutent des interrogations sur les effets psychologiques des interactions sexualisées avec une IA, un terrain encore vierge de données empiriques solides. Pour les entreprises du secteur, ce recul d'OpenAI envoie un signal clair : les implications légales et éthiques de l'IA adulte sont trop lourdes à assumer sans infrastructure de modération solide. Ce repli s'inscrit dans un contexte de tensions internes chez OpenAI. Fin 2025, Sam Altman avait lui-même déclenché un « code red » interne, signalant que des concurrents comme Google et Anthropic comblaient rapidement leur retard technologique. Face à cette pression concurrentielle, OpenAI choisit de concentrer ses ressources sur ses outils phares de productivité plutôt que sur des expérimentations à fort risque réputationnel. Le mode adulte aurait pu représenter une source de revenus supplémentaire — des plateformes concurrentes moins scrupuleuses pourraient d'ailleurs récupérer cette demande — mais OpenAI semble parier sur la confiance institutionnelle comme avantage concurrentiel durable. Aucune date de relance n'a été annoncée, laissant ouverte la question de savoir si ce projet reviendra jamais, ou si la fenêtre s'est définitivement fermée sous le poids des contraintes réglementaires à venir.

SécuritéOpinion
1 source
L'exode des experts en sécurité d'OpenAI a enfin une explication : le ressenti de Sam Altman
4The Decoder 

L'exode des experts en sécurité d'OpenAI a enfin une explication : le ressenti de Sam Altman

Dans un long portrait publié par le New Yorker et fondé sur plus de cent entretiens, Sam Altman a fourni sa version des départs répétés de chercheurs en sécurité chez OpenAI. Sa réponse, lapidaire : "My vibes don't really fit" -- ses ondes ne correspondent tout simplement pas. Le PDG d'OpenAI reconnaît aussi que ses engagements passés, que certains qualifieraient de promesses non tenues, font simplement partie du métier de dirigeant dans un secteur aussi mouvant. Cette explication désinvolte intervient après une série de démissions retentissantes au sein de l'équipe dédiée à la sécurité d'OpenAI, dont des figures comme Ilya Sutskever, Paul Christiano ou encore des membres de l'équipe Superalignment dissoute en 2024. Que le dirigeant de l'entreprise supposément la plus avancée sur l'IA générale réduise ces départs à une question de compatibilité personnelle inquiète une partie de l'industrie : cela suggère que les désaccords de fond sur la gestion des risques sont traités comme des problèmes de culture d'entreprise plutôt que comme des alertes techniques sérieuses. OpenAI traverse depuis plusieurs années une tension structurelle entre sa mission d'origine -- développer une IA sûre au bénéfice de l'humanité -- et ses impératifs commerciaux croissants, accélérés par les investissements massifs de Microsoft et la concurrence de Google DeepMind et Anthropic. Le profil du New Yorker, qui s'annonce comme l'un des portraits les plus fouillés d'Altman à ce jour, risque de relancer le débat sur la gouvernance réelle d'une entreprise valorisée à plusieurs centaines de milliards de dollars.

UELa gestion désinvolte des alertes de sécurité chez OpenAI renforce les arguments européens en faveur d'une surveillance renforcée des systèmes d'IA à haut risque sous l'AI Act.

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour