Aller au contenu principal
GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.
CréationLe Big Data2h

GPT-Image-2 lâché dans la nature : Le nouveau bond d’OpenAI va vous exploser la rétine.

1 source couvre ce sujet·Source originale ↗·

OpenAI a déployé discrètement GPT-Image-2 le 21 avril 2026, sans conférence de presse ni annonce officielle de Sam Altman, directement sur les comptes ChatGPT web et mobile de ses utilisateurs dans le monde entier. Ce nouveau moteur de génération d'images représente un saut qualitatif majeur par rapport à son prédécesseur sur trois dimensions précises : le rendu de texte, la gestion de compositions complexes et le photoréalisme. Les premiers tests diffusés sur X montrent des affiches de films avec une typographie parfaitement lisible, des maquettes de Unes du New York Times où chaque colonne et chaque ligne de crédit est nette, et surtout une grille 10x10 contenant 100 objets distincts commençant par la lettre A, chacun correctement nommé et illustré sans aucune erreur de cohérence visuelle ou textuelle.

Ces avancées changent concrètement ce que les professionnels peuvent faire avec l'IA générative. Jusqu'ici, intégrer du texte lisible dans une image produite par IA relevait de la loterie : les modèles produisaient systématiquement des caractères déformés, illisibles, mélangés à du pixel noise. Avec GPT-Image-2, cette limite disparaît, ce qui ouvre des usages immédiatement opérationnels pour les designers graphiques, les équipes marketing et les créateurs de contenu : prototypage d'interfaces, création d'affiches, génération de visuels publicitaires avec du texte intégré, le tout en quelques secondes et sans retouche. La gestion de la complexité spatiale, illustrée par la grille 10x10, signifie également que le modèle peut produire des compositions denses et structurées sans perte de cohérence, là où Midjourney et les outils de Google montrent encore des limites significatives dès que la scène se complique.

Ce lancement silencieux un mardi s'inscrit dans une stratégie qui n'est pas anodine. Plusieurs observateurs notent que ce type de déploiement discret précède souvent, chez OpenAI, une annonce plus massive dans les jours suivants, des rumeurs évoquent une présentation liée à GPT-5.5 dès jeudi. GPT-Image-2 est par ailleurs le moteur qui alimente déjà l'API Images d'OpenAI depuis quelques semaines, utilisé notamment par des applications tierces comme ChatGPT Canvas et certains outils Canva. Son ouverture progressive au grand public via ChatGPT marque une étape de maturité : le modèle sort du contexte développeur pour entrer dans l'usage quotidien de masse. La concurrence, notamment Midjourney, qui n'a toujours pas de produit web grand public stable, et Adobe Firefly, va devoir répondre à un outil qui combine désormais photoréalisme, précision textuelle et gestion de la complexité dans un seul package accessible à tous.

Impact France/UE

Les designers et équipes marketing français et européens peuvent immédiatement intégrer cet outil à leurs workflows pour générer des visuels avec texte lisible intégré, sans retouche manuelle.

💬 Le point de vue du dev

Le rendu de texte dans les images IA, c'était le dernier gros problème non résolu. GPT-Image-2 le ferme pour de bon : grille 10x10 sans une seule erreur, affiches avec typo lisible au premier coup d'oeil, c'est le genre de démo qui change ce qu'on peut promettre à un client dès demain matin. Midjourney n'a toujours pas de produit web stable, là ils vont vraiment souffrir.

À lire aussi

Deezer : 44 % des nouvelles musiques mises en ligne sont générées par IA, la majorité des écoutes sont frauduleuses
1Ars Technica AI 

Deezer : 44 % des nouvelles musiques mises en ligne sont générées par IA, la majorité des écoutes sont frauduleuses

Deezer a révélé que 44 % des nouvelles musiques téléchargées sur sa plateforme sont générées par intelligence artificielle, soit 75 000 nouvelles pistes IA chaque jour. La société française a développé sa propre technologie de détection des contenus audio synthétiques, qu'elle est l'une des rares plateformes de streaming à déployer activement, et qu'elle commercialise désormais auprès de tiers avec un taux de faux positifs inférieur à 0,01 %. Le constat dépasse la simple prolifération de contenus : la majorité des écoutes de ces titres IA seraient elles-mêmes frauduleuses, générées par des bots et non par de vrais auditeurs. L'ampleur du phénomène soulève des questions directes sur l'économie du streaming musical. Les plateformes reversent des droits aux ayants droit en fonction du nombre d'écoutes ; si ces écoutes sont massivement artificielles, les revenus sont détournés au détriment des artistes humains. Un sondage interne de Deezer illustre la difficulté du problème : lors d'un test où des utilisateurs ont écouté trois morceaux dont deux générés par IA, 97 % d'entre eux n'ont pas été capables d'identifier les titres artificiels. La musique IA peut ainsi circuler dans des playlists sans déclencher la méfiance des auditeurs. Ce phénomène s'inscrit dans une montée en puissance rapide des modèles génératifs audio, Suno, Udio, et d'autres outils permettent désormais de produire des morceaux convaincants en quelques secondes, sans compétences musicales. Contrairement à d'autres secteurs de l'IA qui font régulièrement les manchettes, la musique artificielle s'est développée discrètement, profitant du volume massif de contenus téléchargés sur les plateformes. Spotify et YouTube Music n'ont pas adopté de politique d'étiquetage similaire à celle de Deezer, laissant la question de la transparence largement ouverte. La décision de Deezer de licencier sa technologie de détection pourrait accélérer une prise de conscience sectorielle, mais la course entre génération et détection est loin d'être terminée.

UEDeezer, entreprise française, est en première ligne face à la fraude aux écoutes IA qui détourne les droits versés aux artistes, posant un défi réglementaire direct pour le marché du streaming en Europe.

💬 75 000 pistes IA par jour sur une seule plateforme, c'est pas un problème de niche, c'est une crise silencieuse qui vide les poches des vrais artistes. Ce qui me frappe surtout, c'est la double fraude : du contenu synthétique écouté par des bots, donc de l'argent qui tourne en circuit fermé sans jamais toucher un musicien humain. Deezer a au moins le mérite d'en parler et de vendre sa tech de détection, mais Spotify fait quoi pendant ce temps ?

CréationOpinion
1 source
OpenAI s'attaque à Google avec son nouveau modèle d'image
2The Information AI 

OpenAI s'attaque à Google avec son nouveau modèle d'image

OpenAI prépare discrètement un nouveau modèle de génération d'images, officieusement baptisé "gpt-image-2" par la communauté en ligne. Depuis plusieurs semaines, des images produites par ce modèle circulent sur X et Reddit, repérées par des utilisateurs attentifs qui ont identifié des tests en cours auprès d'une sélection de comptes ChatGPT et sur des plateformes de classement anonymes. Les résultats sont frappants : les images générées atteignent un niveau de photoréalisme tel qu'elles sont, dans certains cas, pratiquement impossibles à distinguer de photographies authentiques. L'enjeu dépasse largement la prouesse technique. OpenAI vise explicitement 1 milliard d'utilisateurs actifs hebdomadaires sur ChatGPT, un seuil symbolique que l'entreprise espérait franchir avant fin 2025. Elle a manqué cet objectif et stagne depuis dans une fourchette autour de 920 millions d'utilisateurs par semaine. Un modèle d'image nettement supérieur aux solutions existantes pourrait constituer le levier capable de débloquer cette croissance, en attirant une nouvelle vague d'utilisateurs grand public, créatifs et professionnels, qui restent encore sur des outils concurrents comme Midjourney ou les offres de Google. La bataille des modèles d'image s'intensifie à mesure que les grands acteurs de l'IA cherchent à consolider leur position. Google, avec Imagen, et les plateformes spécialisées font face à une OpenAI qui cherche à intégrer toujours davantage de capacités directement dans ChatGPT pour en faire un point d'entrée unique. Le lancement officiel de gpt-image-2 n'a pas encore été annoncé, mais la stratégie de tests progressifs suggère une sortie imminente. Si le modèle tient ses promesses de photoréalisme à grande échelle, il pourrait redistribuer significativement les parts de marché dans un secteur où la qualité visuelle est devenue le principal critère de différenciation.

CréationOpinion
1 source
Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma
3Next INpact 

Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma

Val Kilmer, décédé en avril 2025, va apparaître dans le film As Deep as the Grave grâce à une reconstruction entièrement générée par intelligence artificielle. Le long-métrage, réalisé par Coerte Voorhees et produit par son frère John Voorhees, se déroule dans les années 1920 et retrace l'histoire réelle des archéologues Earl et Ann Morris, qui ont mis au jour les vestiges de la civilisation Anasazi dans un canyon d'Arizona. Kilmer devait y incarner le père Fintan, un prêtre catholique tuberculeux. Après des années de production chaotique, le tournage a débuté fin 2020, en pleine pandémie, et s'est étalé sur six ans, son état de santé l'a empêché de tenir le rôle. Plutôt que de recast ou de supprimer définitivement le personnage, l'équipe a obtenu l'autorisation de la famille de l'acteur pour recréer son apparence et sa voix par IA, en se basant sur ses performances passées et sur un corpus d'images personnelles fournies par ses proches. Dans le montage actuel, ce Val Kilmer numérique apparaît pendant une heure et dix-sept minutes. Ce cas est emblématique d'une question qui divise profondément l'industrie cinématographique : jusqu'où peut-on reproduire un acteur sans qu'il soit physiquement présent ? La production affirme avoir respecté les recommandations du syndicat des acteurs SAG-AFTRA, résumées en trois principes, consentement, compensation et collaboration. La famille a validé le projet, Mercedes Kilmer soulignant que son père « a toujours considéré les technologies émergentes avec optimisme ». Mais la distinction technique est cruciale : il ne s'agit ni d'un doublure avec visage greffé en post-production, ni d'images de synthèse classiques. L'IA produit ici un pastiche complet de l'acteur, reconstruit à partir de ses anciennes interprétations. Elle ne peut pas « sentir » une scène, proposer une nuance inédite, ni interagir en temps réel avec les autres comédiens, les séquences avec Kilmer ayant été créées après la fin du tournage principal. Ce film s'inscrit dans un débat plus large sur la transformation du métier d'acteur à l'ère de l'IA générative. Depuis plusieurs années, les syndicats américains, à commencer par le SAG-AFTRA, alertent sur le risque que les studios reproduisent les performances d'acteurs sans leur consentement ni rémunération. La grève des acteurs de 2023 portait en partie sur ces enjeux. As Deep as the Grave est présenté par ses créateurs comme un exemple de bonne pratique, avec l'aval familial et le cadre syndical respecté. Mais la bande-annonce dévoilée au CinemaCon de Los Angeles a déjà relancé les critiques : si la famille consent, qui protège les acteurs vivants de précédents similaires ? Le film, dont la date de sortie n'est pas encore confirmée, sera un test grandeur nature pour mesurer ce que le public et l'industrie sont prêts à accepter.

UECe précédent de reconstruction IA complète d'un acteur décédé alimente le débat européen sur l'encadrement des droits à l'image et à la voix dans le cadre de l'AI Act, et interpelle les syndicats d'acteurs français sur la nécessité de clauses contractuelles protégeant les performances numériques.

CréationOpinion
1 source
Change Weight par Artspace, change ton physique en un swipe ! - avril 2026
4Le Big Data 

Change Weight par Artspace, change ton physique en un swipe ! - avril 2026

Artspace a dévoilé en avril 2026 une nouvelle fonctionnalité baptisée Change Weight, qui permet de modifier la morphologie d'un personnage dans une image générée ou importée, en quelques secondes et sans reprise manuelle. L'outil repose sur un algorithme capable d'identifier la structure osseuse et les tissus du sujet, puis de redistribuer les volumes de façon anatomiquement cohérente. Un simple curseur suffit à alléger ou épaissir une silhouette : l'IA recalcule dans la foulée les textures des vêtements, les plis du tissu, les ombres portées sur la peau et les interactions avec l'arrière-plan. Le résultat, obtenu en une trentaine de secondes selon la plateforme, préserve l'identité faciale du personnage, ce que peu de générateurs concurrents parviennent à garantir. La fonctionnalité s'inscrit dans l'offre Artspace, plateforme de création visuelle par IA qui se positionne face à des acteurs comme Midjourney. L'intérêt de Change Weight dépasse la démonstration technique. Pour un illustrateur, la possibilité de faire varier la corpulence d'un même protagoniste sans recommencer la génération représente un gain de temps substantiel dans des productions souvent contraintes. Pour les équipes marketing, cela signifie pouvoir tester différentes représentations d'un même personnage sans multiplier les séances photo ou les itérations de prompts. La démocratisation de ce niveau de retouche est réelle : ce type de manipulation précise relevait jusqu'ici de logiciels professionnels complexes, coûteux, et réservés aux studios spécialisés. Artspace le rend accessible dans une interface grand public, ce qui abaisse considérablement la barrière d'entrée pour les créateurs indépendants et les agences de taille modeste. Cette annonce s'inscrit dans une tendance de fond qui traverse l'industrie de l'image par IA : après la course à la génération brute, les acteurs du secteur pivotent vers le contrôle fin et la manipulation ciblée. Générer une image depuis un prompt ne suffit plus aux professionnels, qui réclament des outils permettant d'intervenir sur des éléments précis, pose, expression, silhouette, sans altérer le reste de la composition. Artspace, comme d'autres plateformes concurrentes, mise sur cette granularité pour se différencier. La question qui se pose en parallèle est celle des usages sensibles : un outil capable de modifier le corps d'un individu avec un réalisme convaincant alimente logiquement des débats sur les représentations corporelles et les dérives potentielles, un sujet que ni Artspace ni l'article source n'abordent, mais que l'industrie devra inévitablement affronter à mesure que ces fonctionnalités se généralisent.

CréationOutil
1 source