Aller au contenu principal
Change Weight par Artspace, change ton physique en un swipe ! - avril 2026
CréationLe Big Data4h

Change Weight par Artspace, change ton physique en un swipe ! - avril 2026

1 source couvre ce sujet·Source originale ↗·

Artspace a dévoilé en avril 2026 une nouvelle fonctionnalité baptisée Change Weight, qui permet de modifier la morphologie d'un personnage dans une image générée ou importée, en quelques secondes et sans reprise manuelle. L'outil repose sur un algorithme capable d'identifier la structure osseuse et les tissus du sujet, puis de redistribuer les volumes de façon anatomiquement cohérente. Un simple curseur suffit à alléger ou épaissir une silhouette : l'IA recalcule dans la foulée les textures des vêtements, les plis du tissu, les ombres portées sur la peau et les interactions avec l'arrière-plan. Le résultat, obtenu en une trentaine de secondes selon la plateforme, préserve l'identité faciale du personnage, ce que peu de générateurs concurrents parviennent à garantir. La fonctionnalité s'inscrit dans l'offre Artspace, plateforme de création visuelle par IA qui se positionne face à des acteurs comme Midjourney.

L'intérêt de Change Weight dépasse la démonstration technique. Pour un illustrateur, la possibilité de faire varier la corpulence d'un même protagoniste sans recommencer la génération représente un gain de temps substantiel dans des productions souvent contraintes. Pour les équipes marketing, cela signifie pouvoir tester différentes représentations d'un même personnage sans multiplier les séances photo ou les itérations de prompts. La démocratisation de ce niveau de retouche est réelle : ce type de manipulation précise relevait jusqu'ici de logiciels professionnels complexes, coûteux, et réservés aux studios spécialisés. Artspace le rend accessible dans une interface grand public, ce qui abaisse considérablement la barrière d'entrée pour les créateurs indépendants et les agences de taille modeste.

Cette annonce s'inscrit dans une tendance de fond qui traverse l'industrie de l'image par IA : après la course à la génération brute, les acteurs du secteur pivotent vers le contrôle fin et la manipulation ciblée. Générer une image depuis un prompt ne suffit plus aux professionnels, qui réclament des outils permettant d'intervenir sur des éléments précis, pose, expression, silhouette, sans altérer le reste de la composition. Artspace, comme d'autres plateformes concurrentes, mise sur cette granularité pour se différencier. La question qui se pose en parallèle est celle des usages sensibles : un outil capable de modifier le corps d'un individu avec un réalisme convaincant alimente logiquement des débats sur les représentations corporelles et les dérives potentielles, un sujet que ni Artspace ni l'article source n'abordent, mais que l'industrie devra inévitablement affronter à mesure que ces fonctionnalités se généralisent.

À lire aussi

Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma
1Next INpact 

Un an après sa mort, Val Kilmer (ou plutôt son clone IA) de retour au cinéma

Val Kilmer, décédé en avril 2025, va apparaître dans le film As Deep as the Grave grâce à une reconstruction entièrement générée par intelligence artificielle. Le long-métrage, réalisé par Coerte Voorhees et produit par son frère John Voorhees, se déroule dans les années 1920 et retrace l'histoire réelle des archéologues Earl et Ann Morris, qui ont mis au jour les vestiges de la civilisation Anasazi dans un canyon d'Arizona. Kilmer devait y incarner le père Fintan, un prêtre catholique tuberculeux. Après des années de production chaotique, le tournage a débuté fin 2020, en pleine pandémie, et s'est étalé sur six ans, son état de santé l'a empêché de tenir le rôle. Plutôt que de recast ou de supprimer définitivement le personnage, l'équipe a obtenu l'autorisation de la famille de l'acteur pour recréer son apparence et sa voix par IA, en se basant sur ses performances passées et sur un corpus d'images personnelles fournies par ses proches. Dans le montage actuel, ce Val Kilmer numérique apparaît pendant une heure et dix-sept minutes. Ce cas est emblématique d'une question qui divise profondément l'industrie cinématographique : jusqu'où peut-on reproduire un acteur sans qu'il soit physiquement présent ? La production affirme avoir respecté les recommandations du syndicat des acteurs SAG-AFTRA, résumées en trois principes, consentement, compensation et collaboration. La famille a validé le projet, Mercedes Kilmer soulignant que son père « a toujours considéré les technologies émergentes avec optimisme ». Mais la distinction technique est cruciale : il ne s'agit ni d'un doublure avec visage greffé en post-production, ni d'images de synthèse classiques. L'IA produit ici un pastiche complet de l'acteur, reconstruit à partir de ses anciennes interprétations. Elle ne peut pas « sentir » une scène, proposer une nuance inédite, ni interagir en temps réel avec les autres comédiens, les séquences avec Kilmer ayant été créées après la fin du tournage principal. Ce film s'inscrit dans un débat plus large sur la transformation du métier d'acteur à l'ère de l'IA générative. Depuis plusieurs années, les syndicats américains, à commencer par le SAG-AFTRA, alertent sur le risque que les studios reproduisent les performances d'acteurs sans leur consentement ni rémunération. La grève des acteurs de 2023 portait en partie sur ces enjeux. As Deep as the Grave est présenté par ses créateurs comme un exemple de bonne pratique, avec l'aval familial et le cadre syndical respecté. Mais la bande-annonce dévoilée au CinemaCon de Los Angeles a déjà relancé les critiques : si la famille consent, qui protège les acteurs vivants de précédents similaires ? Le film, dont la date de sortie n'est pas encore confirmée, sera un test grandeur nature pour mesurer ce que le public et l'industrie sont prêts à accepter.

UECe précédent de reconstruction IA complète d'un acteur décédé alimente le débat européen sur l'encadrement des droits à l'image et à la voix dans le cadre de l'AI Act, et interpelle les syndicats d'acteurs français sur la nécessité de clauses contractuelles protégeant les performances numériques.

CréationOpinion
1 source
Avec cette nouveauté, Nano Banana 2 comprend vos goûts mieux que vous-même
2Le Big Data 

Avec cette nouveauté, Nano Banana 2 comprend vos goûts mieux que vous-même

Google a annoncé le 16 avril 2026 le lancement de Personal Intelligence, une nouvelle fonctionnalité intégrée à Gemini, son générateur d'images propulsé par intelligence artificielle. Concrètement, cette mise à jour permet à Gemini de comprendre les préférences et les centres d'intérêt d'un utilisateur sans que celui-ci ait besoin de les détailler dans chaque prompt. L'outil se connecte aux services Google existants pour capter les habitudes, les goûts et le style propre à chaque compte. L'intégration clé repose sur Google Photos : les images personnelles de l'utilisateur, ses proches, ses animaux ou ses souvenirs, servent désormais de référence directe pour enrichir les créations générées. Quelques mots suffisent là où il fallait auparavant rédiger des descriptions minutieuses et multiplier les essais. L'impact est immédiat pour les utilisateurs réguliers de Gemini, qui perdaient jusqu'ici un temps considérable à expliquer leurs intentions créatives à l'outil. En déléguant une partie de ce travail à la machine, Google réduit la friction entre l'idée et le résultat. L'utilisateur peut se mettre en scène dans des styles variés, du dessin au fusain à la peinture numérique, avec un rendu ancré dans sa propre réalité visuelle plutôt que dans des généralités. Le contrôle reste entre ses mains : si une image ne convient pas, il peut corriger une instruction, changer de référence, et affiner le rendu sans repartir de zéro. L'outil affiche également les sources utilisées pour chaque génération, ce qui apporte une forme de transparence sur le processus. Cette évolution s'inscrit dans une tendance lourde de l'IA générative : personnaliser toujours davantage l'expérience en exploitant les données numériques de l'utilisateur. Google précise que les photos personnelles ne servent pas directement à entraîner ses modèles et que l'activation des connexions reste sous contrôle de l'utilisateur. Mais plus l'outil devient précis et contextuel, plus il repose sur une empreinte numérique intime, ce qui soulève des questions durables sur la vie privée et la dépendance aux écosystèmes propriétaires. La course à la personnalisation oppose désormais Google à des acteurs comme Adobe Firefly ou Midjourney, qui développent eux aussi des fonctionnalités d'adaptation au style personnel. Personal Intelligence représente cependant un avantage structurel pour Google, qui dispose déjà d'une masse de données utilisateur sans équivalent via Photos, Search ou Gmail.

UEL'exploitation de données personnelles intimes (photos, historique) par Gemini pour personnaliser les créations soulève des questions de conformité RGPD directement applicables aux utilisateurs français et européens.

CréationOutil
1 source
Vous avez aimé HappyHorse ? Happy Oyster prépare quelque chose d’encore plus fou
3Le Big Data 

Vous avez aimé HappyHorse ? Happy Oyster prépare quelque chose d’encore plus fou

Alibaba Group a officialisé ce jeudi 16 avril 2026 le lancement de Happy Oyster, son nouveau modèle d'intelligence artificielle dédié à la création de mondes 3D interactifs en temps réel. Ce système, développé par Alibaba ATH, succède directement à HappyHorse, le modèle vidéo du groupe qui avait attiré l'attention ces dernières semaines pour ses capacités de génération vidéo à partir de texte et d'images. Contrairement à son prédécesseur, Happy Oyster ne produit pas de simples séquences vidéo linéaires : il construit des environnements tridimensionnels navigables que l'utilisateur peut explorer librement, comme s'il se déplaçait dans un décor numérique. L'API de HappyHorse-1.0, qui a servi de fondation technique à ce nouveau système, doit quant à elle être rendue publique dès le 30 avril prochain. L'impact de cette annonce dépasse le cadre d'une simple mise à jour technologique. Happy Oyster cible explicitement les industries du cinéma, des séries et du jeu vidéo, en proposant aux créateurs un outil capable de générer des environnements complets et dynamiques sans passer par les pipelines de production 3D traditionnels. La frontière entre vidéo générée, moteur de jeu et expérience immersive s'efface : les contenus ne se regardent plus passivement, ils se parcourent. Pour les studios indépendants ou les développeurs solo, cela représente un saut de productivité potentiellement considérable, en réduisant le temps et le coût nécessaires à la création de scènes complexes. Cette sortie s'inscrit dans une bataille technologique intense entre les géants technologiques chinois sur le terrain de la vidéo générative. Le même jour, Tencent dévoilait HY-World 2.0, un système lui aussi orienté vers la création interactive, mais avec une philosophie différente : là où Alibaba mise sur une génération vidéo bout en bout fluide et directement exploitable, Tencent privilégie la production d'éléments 3D modulaires, modifiables de manière isolée. Ces deux approches opposées illustrent la maturité croissante d'un marché chinois de l'IA vidéo qui cherche désormais à dépasser la simple génération de clips pour s'imposer dans la création de mondes numériques entiers. Alibaba, en annonçant simultanément l'ouverture prochaine de son API, signale clairement sa volonté de construire un écosystème de développeurs autour de ses modèles, accélérant ainsi leur adoption industrielle.

UEImpact indirect pour les studios de cinéma et développeurs de jeux vidéo européens, qui pourraient adopter ces outils génératifs 3D dès l'ouverture de l'API HappyHorse-1.0 le 30 avril.

CréationActu
1 source
Netflix VOID AI : l’open source pour réécrire vos vidéos
4Le Big Data 

Netflix VOID AI : l’open source pour réécrire vos vidéos

Netflix a publié en 2026 un outil open source baptisé VOID AI, pour Video Object and Interaction Deletion, capable de supprimer des éléments d'une vidéo tout en recalculant automatiquement les interactions physiques qui en découlent. Là où les logiciels de montage traditionnels se contentaient de "boucher" les zones supprimées avec des pixels voisins, VOID adopte une approche radicalement différente : si une main tenant un verre est effacée, le verre tombe. Si une voiture est retirée d'une scène de collision, la trajectoire des autres véhicules est recalculée. L'outil s'appuie sur des modèles de diffusion vidéo, notamment CogVideoX, et sur un système de masquage précis pour isoler l'objet cible sans contaminer le reste de l'image. Lumières, ombres et perspectives se mettent à jour de façon cohérente, sans intervention manuelle. Ce niveau de précision représente un saut qualitatif majeur pour les professionnels de la post-production. Jusqu'ici, effacer un élément en mouvement dans une séquence complexe pouvait mobiliser des heures de travail manuel, avec des résultats souvent imparfaits sur les zones à fort déplacement. VOID automatise ce processus en intégrant ce que Netflix appelle la "simulation contrefactuelle" : l'IA ne se demande pas seulement à quoi ressemble la scène sans l'objet, mais à quoi elle aurait ressemblé si cet objet n'avait jamais existé. Pour les studios, les créateurs indépendants ou les équipes de post-production, cela signifie des délais réduits et une liberté créative élargie, à condition de disposer d'une machine suffisamment puissante pour faire tourner l'outil. Le raisonnement causal au cœur de VOID ne relève pas de la magie algorithmique mais d'un entraînement rigoureux sur des données physiques synthétiques, générées notamment via Blender et inspirées de bases de données visuelles complexes. Netflix positionne cet outil dans la continuité de ses investissements en recherche appliquée, un domaine où le groupe rivalise désormais avec les grands laboratoires académiques et les éditeurs de logiciels professionnels comme Adobe ou DaVinci Resolve. En publiant VOID en open source, la plateforme fait le choix de l'écosystème plutôt que de la rétention technologique, une stratégie qui lui permet d'accélérer l'adoption, d'attirer des contributions externes et de s'imposer comme référence dans un segment en pleine expansion. Les suites possibles incluent une intégration dans des pipelines de production existants et, à terme, des applications grand public pour l'édition vidéo assistée par IA.

UELes studios de post-production français et européens peuvent adopter directement cet outil open source pour réduire les délais et coûts de montage vidéo complexe.

CréationOutil
1 source