Aller au contenu principal
ChatGPT ne racontera pas d’histoires érotiques : OpenAI lâche le projet de mode adulte
SécuritéLe Big Data6sem

ChatGPT ne racontera pas d’histoires érotiques : OpenAI lâche le projet de mode adulte

Résumé IASource uniqueImpact UE
Source originale ↗·
ChatGPT ne racontera pas d’histoires érotiques : OpenAI lâche le projet de mode adulte
▶ Voir sur YouTube

OpenAI a officiellement mis en pause son projet de mode adulte pour ChatGPT, abandon confirmé début mars 2026 après plusieurs mois de reports successifs. Le projet avait été annoncé en octobre 2025 par Sam Altman, qui avait alors évoqué la possibilité d'un mode permettant à l'IA de générer du contenu érotique et des discussions explicites sur la sexualité. Selon des informations du Financial Times et d'Axios, la décision d'interrompre le développement est venue d'une combinaison de pressions internes — employés et investisseurs — et de problèmes techniques non résolus, notamment l'absence d'un système fiable de vérification d'âge. Un porte-parole d'OpenAI a précisé à Axios que la société préfère désormais concentrer ses efforts sur des fonctionnalités à portée plus large, citant le développement de nouveaux modèles performants et la refonte du Shopping GPT.

L'impact immédiat est limité pour la majorité des utilisateurs de ChatGPT, qui ne verront aucun changement dans leur expérience quotidienne. Mais l'abandon du projet soulève des questions plus profondes sur la maturité des garde-fous techniques de l'IA générative. Le Wall Street Journal rapporte que la protection des mineurs a été au cœur des débats internes : sans vérification d'âge robuste, un adolescent aurait pu théoriquement accéder à du contenu explicite. À cela s'ajoutent des interrogations sur les effets psychologiques des interactions sexualisées avec une IA, un terrain encore vierge de données empiriques solides. Pour les entreprises du secteur, ce recul d'OpenAI envoie un signal clair : les implications légales et éthiques de l'IA adulte sont trop lourdes à assumer sans infrastructure de modération solide.

Ce repli s'inscrit dans un contexte de tensions internes chez OpenAI. Fin 2025, Sam Altman avait lui-même déclenché un « code red » interne, signalant que des concurrents comme Google et Anthropic comblaient rapidement leur retard technologique. Face à cette pression concurrentielle, OpenAI choisit de concentrer ses ressources sur ses outils phares de productivité plutôt que sur des expérimentations à fort risque réputationnel. Le mode adulte aurait pu représenter une source de revenus supplémentaire — des plateformes concurrentes moins scrupuleuses pourraient d'ailleurs récupérer cette demande — mais OpenAI semble parier sur la confiance institutionnelle comme avantage concurrentiel durable. Aucune date de relance n'a été annoncée, laissant ouverte la question de savoir si ce projet reviendra jamais, ou si la fenêtre s'est définitivement fermée sous le poids des contraintes réglementaires à venir.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI abandonne finalement le « mode adulte » et les tchats érotiques dans ChatGPT
1Le Monde Pixels 

OpenAI abandonne finalement le « mode adulte » et les tchats érotiques dans ChatGPT

OpenAI a officiellement renoncé à déployer un « mode adulte » dans ChatGPT, abandonnant un projet qui avait brièvement suscité l'espoir — et la controverse — dans certains cercles de l'industrie. La société avait exploré la possibilité de permettre des conversations à caractère érotique sur sa plateforme, notamment via des opérateurs tiers accédant à l'API, avant de décider de ne pas franchir le pas à grande échelle sur le produit grand public. Cette décision prive les créateurs de contenus pour adultes d'un outil potentiellement lucratif, mais elle protège OpenAI d'un risque réputationnel et réglementaire considérable. Avec ChatGPT utilisé par plus de 300 millions de personnes hebdomadaires, dont des mineurs, intégrer des fonctionnalités explicites aurait exposé l'entreprise à des poursuites, des restrictions d'app stores et des pressions politiques dans de nombreux pays. Le calcul commercial est clair : le marché du contenu adulte ne compense pas les risques pour la marque principale. OpenAI s'inscrit ici dans une tension plus large que traversent tous les grands fournisseurs d'IA générative : jusqu'où assouplir les garde-fous sans compromettre l'adoption institutionnelle et les partenariats stratégiques ? Des concurrents comme Character.ai ou des modèles open source ont choisi la voie opposée, captant une niche que les acteurs dominants refusent d'occuper. Cette frilosité des plateformes mainstream laisse le terrain libre à des alternatives moins régulées, posant in fine la question de la gouvernance du contenu sexuel généré par IA à l'échelle mondiale.

UELa gouvernance du contenu sexuel généré par IA reste un enjeu pour les régulateurs européens, notamment dans le cadre de l'AI Act et du DSA, qui devront encadrer les plateformes moins régulées qui occupent ce terrain.

SécuritéOpinion
1 source
ChatGPT ne proposera pas de mode adulte pour ne pas rebuter ses investisseurs
2Ars Technica AI 

ChatGPT ne proposera pas de mode adulte pour ne pas rebuter ses investisseurs

OpenAI a mis en pause indéfiniment son projet de mode érotique pour ChatGPT, selon une information du Financial Times publiée cette semaine. L'entreprise, qui avait envisagé d'autoriser des conversations à caractère sexuel explicite sur sa plateforme, a décidé de "se recentrer" sur ses "produits principaux". Des sources internes confirment que le plan a été suspendu après une vague de critiques, aussi bien externe qu'interne, et que l'option d'abandonner entièrement ce projet "adult mode" a sérieusement été envisagée. Les inquiétudes soulevées en interne sont particulièrement révélatrices. Des conseillers d'OpenAI ont averti que cette fonctionnalité risquait d'encourager des attachements émotionnels malsains chez les utilisateurs, avec des conséquences potentiellement graves sur leur santé mentale. L'un d'eux a décrit le risque de voir ChatGPT devenir une sorte de "coach sexy au bord du suicide" — une formulation qui illustre l'ampleur des préoccupations. En parallèle, des investisseurs auraient mal reçu la perspective d'une telle évolution, y voyant un risque réputationnel pour la valorisation de l'entreprise, estimée à 300 milliards de dollars. Ce recul intervient dans un contexte où OpenAI multiplie les tentatives d'élargir l'usage de ChatGPT, notamment via des fonctionnalités de compagnonnage émotionnel déjà controversées. Plusieurs concurrents, comme Character.AI ou Replika, proposent déjà des expériences plus intimes, et la question de la régulation de ces usages reste entière. L'épisode révèle les tensions croissantes entre ambitions commerciales et responsabilité éthique au sein de l'entreprise.

UELa question de la régulation des IA à vocation émotionnelle ou intime reste ouverte en Europe, l'AI Act devant encore clarifier les obligations des plateformes proposant ce type d'usage à risque psychologique.

SécuritéActu
1 source
OpenAI suspend le mode adulte après des alertes en interne et auprès des investisseurs
3The Decoder 

OpenAI suspend le mode adulte après des alertes en interne et auprès des investisseurs

OpenAI a mis en pause, pour une durée indéterminée, le développement d'un mode « adulte » pour ses chatbots, selon le Financial Times. Ce projet, qui aurait permis à ChatGPT ou à d'autres produits de la société de générer des contenus érotiques, a suscité des inquiétudes internes et externes au point d'être suspendu avant même d'avoir été lancé publiquement. Les signaux d'alarme sont venus de plusieurs directions simultanément : des conseillers de l'entreprise, des investisseurs et des employés auraient tous exprimé des réserves sur ce projet. Cette convergence de résistances — rare dans sa diversité — suggère que les risques perçus, qu'ils soient réputationnels, éthiques ou réglementaires, ont été jugés trop importants pour poursuivre sans réévaluation approfondie. Le projet s'inscrit dans une tendance plus large de l'industrie : plusieurs plateformes d'IA ont tenté de s'ouvrir au marché des contenus pour adultes, un segment lucratif mais politiquement sensible. Pour OpenAI, dont la valorisation dépasse les 300 milliards de dollars et qui ambitionne une introduction en bourse, l'image publique est un actif stratégique. La suspension illustre les tensions constantes entre opportunités commerciales et responsabilité sociale auxquelles est confrontée la société de Sam Altman.

SécuritéActu
1 source
OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine
4La Tribune 

OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine

OpenAI, Anthropic et Google ont annoncé une collaboration inédite pour contrer ce que les trois entreprises qualifient de "distillation" de leurs modèles d'intelligence artificielle par des entités liées à la Chine. Ce phénomène consiste à utiliser les sorties des grands modèles américains pour entraîner des systèmes concurrents à moindre coût, contournant ainsi les investissements colossaux, plusieurs dizaines de milliards de dollars, réalisés par ces laboratoires. Les rivaux habituels ont décidé de partager leurs données de sécurité pour identifier et bloquer ces pratiques plus efficacement. Cette alliance soulève des enjeux considérables pour la compétitivité technologique américaine. La distillation permet théoriquement à des acteurs étrangers d'obtenir des capacités comparables à celles des modèles de pointe sans en supporter les coûts de recherche et développement, rééquilibrant ainsi le rapport de force dans la course mondiale à l'IA. Pour les trois entreprises, la menace est à la fois commerciale et stratégique : perdre cet avantage compétitif reviendrait à fragiliser une position que Washington considère désormais comme un élément de sécurité nationale à part entière. La démarche s'inscrit dans un contexte de tensions croissantes entre les États-Unis et la Chine sur le terrain technologique, après les restrictions à l'export de puces Nvidia et les débats autour de DeepSeek, le modèle chinois dont l'efficacité avait provoqué une onde de choc sur les marchés début 2025. En mutualisant leur veille, OpenAI, Anthropic et Google cherchent à établir un front commun que chaque entreprise isolément n'aurait pas les moyens de tenir face à des techniques d'extraction en constante évolution.

UELes laboratoires européens d'IA restent exposés aux mêmes pratiques de distillation sans mécanisme de protection collectif équivalent à celui que se dotent désormais les géants américains.

SécuritéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour