Aller au contenu principal
OpenAI s'attaque à Google avec son nouveau modèle d'image
CréationThe Information AI2h

OpenAI s'attaque à Google avec son nouveau modèle d'image

1 source couvre ce sujet·Source originale ↗·

OpenAI prépare discrètement un nouveau modèle de génération d'images, officieusement baptisé "gpt-image-2" par la communauté en ligne. Depuis plusieurs semaines, des images produites par ce modèle circulent sur X et Reddit, repérées par des utilisateurs attentifs qui ont identifié des tests en cours auprès d'une sélection de comptes ChatGPT et sur des plateformes de classement anonymes. Les résultats sont frappants : les images générées atteignent un niveau de photoréalisme tel qu'elles sont, dans certains cas, pratiquement impossibles à distinguer de photographies authentiques.

L'enjeu dépasse largement la prouesse technique. OpenAI vise explicitement 1 milliard d'utilisateurs actifs hebdomadaires sur ChatGPT, un seuil symbolique que l'entreprise espérait franchir avant fin 2025. Elle a manqué cet objectif et stagne depuis dans une fourchette autour de 920 millions d'utilisateurs par semaine. Un modèle d'image nettement supérieur aux solutions existantes pourrait constituer le levier capable de débloquer cette croissance, en attirant une nouvelle vague d'utilisateurs grand public, créatifs et professionnels, qui restent encore sur des outils concurrents comme Midjourney ou les offres de Google.

La bataille des modèles d'image s'intensifie à mesure que les grands acteurs de l'IA cherchent à consolider leur position. Google, avec Imagen, et les plateformes spécialisées font face à une OpenAI qui cherche à intégrer toujours davantage de capacités directement dans ChatGPT pour en faire un point d'entrée unique. Le lancement officiel de gpt-image-2 n'a pas encore été annoncé, mais la stratégie de tests progressifs suggère une sortie imminente. Si le modèle tient ses promesses de photoréalisme à grande échelle, il pourrait redistribuer significativement les parts de marché dans un secteur où la qualité visuelle est devenue le principal critère de différenciation.

À lire aussi

Deezer : 44 % des nouvelles musiques mises en ligne sont générées par IA, la majorité des écoutes sont frauduleuses
1Ars Technica AI 

Deezer : 44 % des nouvelles musiques mises en ligne sont générées par IA, la majorité des écoutes sont frauduleuses

Deezer a révélé que 44 % des nouvelles musiques téléchargées sur sa plateforme sont générées par intelligence artificielle, soit 75 000 nouvelles pistes IA chaque jour. La société française a développé sa propre technologie de détection des contenus audio synthétiques, qu'elle est l'une des rares plateformes de streaming à déployer activement, et qu'elle commercialise désormais auprès de tiers avec un taux de faux positifs inférieur à 0,01 %. Le constat dépasse la simple prolifération de contenus : la majorité des écoutes de ces titres IA seraient elles-mêmes frauduleuses, générées par des bots et non par de vrais auditeurs. L'ampleur du phénomène soulève des questions directes sur l'économie du streaming musical. Les plateformes reversent des droits aux ayants droit en fonction du nombre d'écoutes ; si ces écoutes sont massivement artificielles, les revenus sont détournés au détriment des artistes humains. Un sondage interne de Deezer illustre la difficulté du problème : lors d'un test où des utilisateurs ont écouté trois morceaux dont deux générés par IA, 97 % d'entre eux n'ont pas été capables d'identifier les titres artificiels. La musique IA peut ainsi circuler dans des playlists sans déclencher la méfiance des auditeurs. Ce phénomène s'inscrit dans une montée en puissance rapide des modèles génératifs audio, Suno, Udio, et d'autres outils permettent désormais de produire des morceaux convaincants en quelques secondes, sans compétences musicales. Contrairement à d'autres secteurs de l'IA qui font régulièrement les manchettes, la musique artificielle s'est développée discrètement, profitant du volume massif de contenus téléchargés sur les plateformes. Spotify et YouTube Music n'ont pas adopté de politique d'étiquetage similaire à celle de Deezer, laissant la question de la transparence largement ouverte. La décision de Deezer de licencier sa technologie de détection pourrait accélérer une prise de conscience sectorielle, mais la course entre génération et détection est loin d'être terminée.

UEDeezer, entreprise française, est en première ligne face à la fraude aux écoutes IA qui détourne les droits versés aux artistes, posant un défi réglementaire direct pour le marché du streaming en Europe.

CréationOpinion
1 source
Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma
2Next INpact 

Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma

Val Kilmer, décédé en avril 2025, va apparaître dans le film As Deep as the Grave grâce à une reconstruction entièrement générée par intelligence artificielle. Le long-métrage, réalisé par Coerte Voorhees et produit par son frère John Voorhees, se déroule dans les années 1920 et retrace l'histoire réelle des archéologues Earl et Ann Morris, qui ont mis au jour les vestiges de la civilisation Anasazi dans un canyon d'Arizona. Kilmer devait y incarner le père Fintan, un prêtre catholique tuberculeux. Après des années de production chaotique, le tournage a débuté fin 2020, en pleine pandémie, et s'est étalé sur six ans, son état de santé l'a empêché de tenir le rôle. Plutôt que de recast ou de supprimer définitivement le personnage, l'équipe a obtenu l'autorisation de la famille de l'acteur pour recréer son apparence et sa voix par IA, en se basant sur ses performances passées et sur un corpus d'images personnelles fournies par ses proches. Dans le montage actuel, ce Val Kilmer numérique apparaît pendant une heure et dix-sept minutes. Ce cas est emblématique d'une question qui divise profondément l'industrie cinématographique : jusqu'où peut-on reproduire un acteur sans qu'il soit physiquement présent ? La production affirme avoir respecté les recommandations du syndicat des acteurs SAG-AFTRA, résumées en trois principes, consentement, compensation et collaboration. La famille a validé le projet, Mercedes Kilmer soulignant que son père « a toujours considéré les technologies émergentes avec optimisme ». Mais la distinction technique est cruciale : il ne s'agit ni d'un doublure avec visage greffé en post-production, ni d'images de synthèse classiques. L'IA produit ici un pastiche complet de l'acteur, reconstruit à partir de ses anciennes interprétations. Elle ne peut pas « sentir » une scène, proposer une nuance inédite, ni interagir en temps réel avec les autres comédiens, les séquences avec Kilmer ayant été créées après la fin du tournage principal. Ce film s'inscrit dans un débat plus large sur la transformation du métier d'acteur à l'ère de l'IA générative. Depuis plusieurs années, les syndicats américains, à commencer par le SAG-AFTRA, alertent sur le risque que les studios reproduisent les performances d'acteurs sans leur consentement ni rémunération. La grève des acteurs de 2023 portait en partie sur ces enjeux. As Deep as the Grave est présenté par ses créateurs comme un exemple de bonne pratique, avec l'aval familial et le cadre syndical respecté. Mais la bande-annonce dévoilée au CinemaCon de Los Angeles a déjà relancé les critiques : si la famille consent, qui protège les acteurs vivants de précédents similaires ? Le film, dont la date de sortie n'est pas encore confirmée, sera un test grandeur nature pour mesurer ce que le public et l'industrie sont prêts à accepter.

UECe précédent de reconstruction IA complète d'un acteur décédé alimente le débat européen sur l'encadrement des droits à l'image et à la voix dans le cadre de l'AI Act, et interpelle les syndicats d'acteurs français sur la nécessité de clauses contractuelles protégeant les performances numériques.

CréationOpinion
1 source
Change Weight par Artspace, change ton physique en un swipe ! - avril 2026
3Le Big Data 

Change Weight par Artspace, change ton physique en un swipe ! - avril 2026

Artspace a dévoilé en avril 2026 une nouvelle fonctionnalité baptisée Change Weight, qui permet de modifier la morphologie d'un personnage dans une image générée ou importée, en quelques secondes et sans reprise manuelle. L'outil repose sur un algorithme capable d'identifier la structure osseuse et les tissus du sujet, puis de redistribuer les volumes de façon anatomiquement cohérente. Un simple curseur suffit à alléger ou épaissir une silhouette : l'IA recalcule dans la foulée les textures des vêtements, les plis du tissu, les ombres portées sur la peau et les interactions avec l'arrière-plan. Le résultat, obtenu en une trentaine de secondes selon la plateforme, préserve l'identité faciale du personnage, ce que peu de générateurs concurrents parviennent à garantir. La fonctionnalité s'inscrit dans l'offre Artspace, plateforme de création visuelle par IA qui se positionne face à des acteurs comme Midjourney. L'intérêt de Change Weight dépasse la démonstration technique. Pour un illustrateur, la possibilité de faire varier la corpulence d'un même protagoniste sans recommencer la génération représente un gain de temps substantiel dans des productions souvent contraintes. Pour les équipes marketing, cela signifie pouvoir tester différentes représentations d'un même personnage sans multiplier les séances photo ou les itérations de prompts. La démocratisation de ce niveau de retouche est réelle : ce type de manipulation précise relevait jusqu'ici de logiciels professionnels complexes, coûteux, et réservés aux studios spécialisés. Artspace le rend accessible dans une interface grand public, ce qui abaisse considérablement la barrière d'entrée pour les créateurs indépendants et les agences de taille modeste. Cette annonce s'inscrit dans une tendance de fond qui traverse l'industrie de l'image par IA : après la course à la génération brute, les acteurs du secteur pivotent vers le contrôle fin et la manipulation ciblée. Générer une image depuis un prompt ne suffit plus aux professionnels, qui réclament des outils permettant d'intervenir sur des éléments précis, pose, expression, silhouette, sans altérer le reste de la composition. Artspace, comme d'autres plateformes concurrentes, mise sur cette granularité pour se différencier. La question qui se pose en parallèle est celle des usages sensibles : un outil capable de modifier le corps d'un individu avec un réalisme convaincant alimente logiquement des débats sur les représentations corporelles et les dérives potentielles, un sujet que ni Artspace ni l'article source n'abordent, mais que l'industrie devra inévitablement affronter à mesure que ces fonctionnalités se généralisent.

CréationOutil
1 source
Avec cette nouveauté, Nano Banana 2 comprend vos goûts mieux que vous-même
4Le Big Data 

Avec cette nouveauté, Nano Banana 2 comprend vos goûts mieux que vous-même

Google a annoncé le 16 avril 2026 le lancement de Personal Intelligence, une nouvelle fonctionnalité intégrée à Gemini, son générateur d'images propulsé par intelligence artificielle. Concrètement, cette mise à jour permet à Gemini de comprendre les préférences et les centres d'intérêt d'un utilisateur sans que celui-ci ait besoin de les détailler dans chaque prompt. L'outil se connecte aux services Google existants pour capter les habitudes, les goûts et le style propre à chaque compte. L'intégration clé repose sur Google Photos : les images personnelles de l'utilisateur, ses proches, ses animaux ou ses souvenirs, servent désormais de référence directe pour enrichir les créations générées. Quelques mots suffisent là où il fallait auparavant rédiger des descriptions minutieuses et multiplier les essais. L'impact est immédiat pour les utilisateurs réguliers de Gemini, qui perdaient jusqu'ici un temps considérable à expliquer leurs intentions créatives à l'outil. En déléguant une partie de ce travail à la machine, Google réduit la friction entre l'idée et le résultat. L'utilisateur peut se mettre en scène dans des styles variés, du dessin au fusain à la peinture numérique, avec un rendu ancré dans sa propre réalité visuelle plutôt que dans des généralités. Le contrôle reste entre ses mains : si une image ne convient pas, il peut corriger une instruction, changer de référence, et affiner le rendu sans repartir de zéro. L'outil affiche également les sources utilisées pour chaque génération, ce qui apporte une forme de transparence sur le processus. Cette évolution s'inscrit dans une tendance lourde de l'IA générative : personnaliser toujours davantage l'expérience en exploitant les données numériques de l'utilisateur. Google précise que les photos personnelles ne servent pas directement à entraîner ses modèles et que l'activation des connexions reste sous contrôle de l'utilisateur. Mais plus l'outil devient précis et contextuel, plus il repose sur une empreinte numérique intime, ce qui soulève des questions durables sur la vie privée et la dépendance aux écosystèmes propriétaires. La course à la personnalisation oppose désormais Google à des acteurs comme Adobe Firefly ou Midjourney, qui développent eux aussi des fonctionnalités d'adaptation au style personnel. Personal Intelligence représente cependant un avantage structurel pour Google, qui dispose déjà d'une masse de données utilisateur sans équivalent via Photos, Search ou Gmail.

UEL'exploitation de données personnelles intimes (photos, historique) par Gemini pour personnaliser les créations soulève des questions de conformité RGPD directement applicables aux utilisateurs français et européens.

CréationOutil
1 source