Aller au contenu principal
Ils ont demandé à l’IA d’imaginer la dernière pièce de Molière
CréationNumerama2h

Ils ont demandé à l’IA d’imaginer la dernière pièce de Molière

Résumé IASource uniqueImpact UE
Source originale ↗·

Des experts en intelligence artificielle et des chercheurs universitaires ont collaboré pendant deux ans au projet Molière Ex Machina, une expérimentation inédite visant à faire produire à des modèles de langage une pièce de théâtre entière dans le style de Jean-Baptiste Poquelin, dit Molière. Le résultat couvre l'ensemble de la production scénique : texte dramatique, costumes et décors d'inspiration baroque. La première aura lieu les 5 et 6 mai à l'Opéra royal de Versailles, l'un des lieux culturels les plus emblématiques de France.

Ce projet soulève une question fondamentale pour le monde de la culture : jusqu'où un modèle d'IA peut-il s'approprier le style d'un auteur classique pour en produire une œuvre nouvelle convaincante ? L'enjeu dépasse la simple curiosité technologique : si l'expérience est concluante, elle ouvre une voie inédite pour la valorisation du patrimoine littéraire et théâtral, tout en interrogeant la notion même de création artistique et d'authorship à l'ère des grands modèles de langage.

Molière, mort en 1673, n'a jamais laissé de "dernière pièce" achevée, ce qui en fait un sujet d'autant plus symbolique pour une telle tentative. L'initiative s'inscrit dans une tendance plus large : depuis plusieurs années, les domaines de la musique, des arts visuels et de la littérature voient émerger des projets hybrides mêlant IA et héritage culturel. Le choix de Versailles comme scène de révélation confère à l'expérimentation une légitimité institutionnelle forte, et laisse entrevoir un débat public sur la place de l'IA dans la création patrimoniale.

Impact France/UE

La première mondiale à l'Opéra royal de Versailles d'une pièce entière générée par LLM dans le style de Molière ouvre en France un débat institutionnel concret sur la place de l'IA dans la valorisation du patrimoine culturel national.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les modèles d'IA sur mesure sont la prochaine grande révolution du cinéma
1The Verge AI 

Les modèles d'IA sur mesure sont la prochaine grande révolution du cinéma

Malgré les promesses répétées de certains enthousiastes de l'IA, la production cinématographique et télévisuelle par intelligence artificielle reste largement en deçà des attentes. Les modèles généralistes les plus en vue — Sora d'OpenAI, Veo de Google et Runway — peinent à convaincre les professionnels du secteur : leurs résultats, bien que spectaculaires pour des démonstrations, restent insuffisants pour les exigences réelles d'une production de divertissement. Une nouvelle génération d'entreprises commence toutefois à proposer une approche radicalement différente : des modèles génératifs conçus spécifiquement pour les besoins des créatifs, couvrant l'ensemble du processus de développement, de la conception visuelle au storyboard en passant par la post-production. Ce virage vers des modèles sur mesure répond à deux problèmes fondamentaux de l'IA générique appliquée au cinéma : le manque de contrôle créatif et les risques juridiques liés aux droits d'auteur. En ciblant précisément les usages professionnels, ces nouveaux outils pourraient enfin offrir aux studios et aux réalisateurs indépendants une assistance réelle sans compromettre leur vision artistique ni les exposer à des litiges coûteux. L'industrie du divertissement représente un marché colossal, et la ruée vers les outils IA dédiés s'inscrit dans une compétition plus large entre les géants technologiques et des startups spécialisées pour capter ce segment. Si les modèles généralistes ont ouvert la voie, c'est désormais la spécialisation qui semble promettre les véritables percées commerciales et créatives — un mouvement qui rappelle l'évolution des logiciels professionnels dans les années 2000, où les outils génériques ont cédé la place à des solutions métier verticales.

UELa tendance vers des modèles IA spécialisés pour le cinéma pourrait à terme bénéficier aux studios et cinéastes indépendants français, sans acteur européen directement impliqué à ce stade.

CréationOutil
1 source
ImageGen est sur la voie de l'AGI
2Latent Space 

ImageGen est sur la voie de l'AGI

GPT-Image-2, le dernier modèle de génération d'images d'OpenAI, s'impose comme l'un des outils les plus polyvalents du moment. Capable de produire des visuels éducatifs, des infographies précises, des illustrations issues de la culture populaire ou des assets graphiques en temps réel pendant qu'un développeur code, il s'intègre désormais directement dans Codex, l'agent de programmation d'OpenAI, comme compétence activable. Cette combinaison GPT-Image-2 plus Codex permet de générer des ressources visuelles de manière itérative au fil du développement, ce qui change concrètement le flux de travail des développeurs. La qualité du modèle en termes de fidélité et de faible taux d'hallucinations est telle que des concurrents comme Claude Design, pourtant présenté il y a peu comme la référence, ne figurent plus dans la conversation. Cette dynamique soulève une question stratégique sérieuse : les modèles de génération d'images sont-ils un luxe pour des laboratoires qui cherchent à atteindre l'intelligence artificielle générale, ou bien une nécessité ? La réponse semble de plus en plus claire : oui, ils sont nécessaires. Parce que le texte, le code et les données structurées ne suffisent plus à démontrer le "G" de "AGI". Une IA vraiment générale doit maîtriser la voix, le visuel, la génération multimodale, y compris les calques transparents. Fermer cette boucle créative, c'est prendre une avance décisive sur tous les concurrents qui se concentrent uniquement sur le code et la productivité d'entreprise. En parallèle, OpenAI a opéré un pivot stratégique majeur en révisant son partenariat exclusif avec Microsoft. Sam Altman a annoncé que si Microsoft reste le cloud partenaire principal, OpenAI peut désormais distribuer ses modèles sur tous les clouds, y compris Google TPU et AWS Bedrock, une confirmation d'Andy Jassy est attendue dans les prochaines semaines. La licence de Microsoft sur la propriété intellectuelle d'OpenAI devient ainsi non exclusive, et la clause AGI de l'accord original serait de facto caduque selon plusieurs observateurs. Sur le plan des benchmarks, GPT-5.5 affiche des résultats contrastés : 67,1 % sur WeirdML sans mode de réflexion, contre 57,4 % pour GPT-5.4, mais toujours en retrait face à Claude Opus 4.7 à 76,4 %. L'Arena LMSYS place le modèle en troisième position en mathématiques et deuxième en recherche, mais neuvième en code. Enfin, GitHub a annoncé la migration de Copilot vers une facturation à l'usage au 1er juin, un signal fort de la monétisation croissante des workflows agentiques, tandis qu'OpenAI a publié en open source Symphony, une couche d'orchestration reliant les gestionnaires de tickets à des agents Codex pour automatiser le cycle complet "issue → PR → revue humaine".

UELa restructuration du partenariat OpenAI-Microsoft vers une licence non exclusive pourrait faciliter l'accès aux modèles OpenAI via des fournisseurs cloud alternatifs utilisés par les entreprises européennes.

CréationActu
1 source
ChatGPT Images 2.0 : Ils ont enfin corrigé CE défaut qui rendait tout le monde fou !
3Le Big Data 

ChatGPT Images 2.0 : Ils ont enfin corrigé CE défaut qui rendait tout le monde fou !

OpenAI a officiellement lancé ChatGPT Images 2.0 le 21 avril 2026, une refonte majeure de son générateur d'images propulsée par un nouveau modèle baptisé gpt-image-2. La mise à jour est immédiatement disponible pour les abonnés ChatGPT Plus, Pro et Business, avec un déploiement Enterprise annoncé prochainement. Le modèle est également accessible via l'API OpenAI, permettant aux développeurs de l'intégrer dans leurs propres services. Sur mobile, une mise à jour de l'application est requise pour profiter de l'ensemble des fonctionnalités. Parmi les changements les plus visibles : la génération de variations multiples en une seule requête, la prise en charge de formats allant du 3:1 au 1:3, et une capacité inédite à analyser des demandes complexes avant de générer quoi que ce soit, en s'appuyant parfois sur des recherches web pour affiner le résultat. La principale avancée concerne le rendu du texte dans les images, longtemps considéré comme le talon d'Achille de l'outil. Là où les versions précédentes déformaient systématiquement les mots et produisaient des caractères illisibles, gpt-image-2 peut désormais afficher des phrases entières, voire des paragraphes, de manière cohérente et intégrée visuellement. Cette capacité s'étend à plusieurs langues au-delà de l'anglais, ce qui élargit considérablement son utilité pour les créateurs de contenu à l'international. Pour les professionnels du marketing, de la communication ou du design qui avaient abandonné ChatGPT pour Midjourney ou Adobe Firefly sur ce point précis, cette correction représente un changement concret d'usage. Le modèle gagne également en fidélité d'exécution : il respecte mieux les consignes détaillées, reproduit avec plus de cohérence les styles demandés (photo réaliste, cinématique, pixel art, manga) et restitue les petits éléments qui échappaient souvent aux générations précédentes. Cette mise à jour s'inscrit dans une course à l'amélioration des générateurs d'images multimodaux où OpenAI accusait un certain retard face à des concurrents comme Midjourney v6 ou Stable Diffusion 3. Depuis l'intégration de DALL-E dans ChatGPT, le principal frein à l'adoption massive restait précisément la gestion du texte dans les visuels, un problème structurel lié à la manière dont les modèles de diffusion encodent les caractères. Le passage à gpt-image-2 semble marquer une rupture architecturale sur ce point. OpenAI continue néanmoins de signaler des limites : les mises en page complexes peuvent encore produire des résultats imparfaits, et le rendu multilingue n'est pas encore irréprochable. Les prochains mois diront si cette version consolide la position de ChatGPT comme outil généraliste de création visuelle ou si elle reste distancée par des solutions spécialisées.

UELes créateurs de contenu et professionnels du marketing en France et en Europe peuvent utiliser gpt-image-2 pour générer des visuels avec texte lisible en plusieurs langues via ChatGPT ou l'API OpenAI, élargissant concrètement son utilité pour la production francophone.

CréationOpinion
1 source
OpenAI s'attaque à Google avec son nouveau modèle d'image
4The Information AI 

OpenAI s'attaque à Google avec son nouveau modèle d'image

OpenAI prépare discrètement un nouveau modèle de génération d'images, officieusement baptisé "gpt-image-2" par la communauté en ligne. Depuis plusieurs semaines, des images produites par ce modèle circulent sur X et Reddit, repérées par des utilisateurs attentifs qui ont identifié des tests en cours auprès d'une sélection de comptes ChatGPT et sur des plateformes de classement anonymes. Les résultats sont frappants : les images générées atteignent un niveau de photoréalisme tel qu'elles sont, dans certains cas, pratiquement impossibles à distinguer de photographies authentiques. L'enjeu dépasse largement la prouesse technique. OpenAI vise explicitement 1 milliard d'utilisateurs actifs hebdomadaires sur ChatGPT, un seuil symbolique que l'entreprise espérait franchir avant fin 2025. Elle a manqué cet objectif et stagne depuis dans une fourchette autour de 920 millions d'utilisateurs par semaine. Un modèle d'image nettement supérieur aux solutions existantes pourrait constituer le levier capable de débloquer cette croissance, en attirant une nouvelle vague d'utilisateurs grand public, créatifs et professionnels, qui restent encore sur des outils concurrents comme Midjourney ou les offres de Google. La bataille des modèles d'image s'intensifie à mesure que les grands acteurs de l'IA cherchent à consolider leur position. Google, avec Imagen, et les plateformes spécialisées font face à une OpenAI qui cherche à intégrer toujours davantage de capacités directement dans ChatGPT pour en faire un point d'entrée unique. Le lancement officiel de gpt-image-2 n'a pas encore été annoncé, mais la stratégie de tests progressifs suggère une sortie imminente. Si le modèle tient ses promesses de photoréalisme à grande échelle, il pourrait redistribuer significativement les parts de marché dans un secteur où la qualité visuelle est devenue le principal critère de différenciation.

CréationOpinion
1 source