Aller au contenu principal
ÉthiqueLe Big Data1sem

L’actrice générée par IA Tilly Norwood lâche un clip musical… et c’est un cauchemar

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Le studio Particle6 a lancé le clip musical Take the Lead mettant en scène Tilly Norwood, une actrice entièrement générée par IA, en réponse aux critiques sur les limites de l'IA dans la création artistique. Malgré l'implication de 18 professionnels réels (décorateurs, monteurs, costumiers), la vidéo a été accueillie très négativement : le journaliste Michael Hobbes parle d'une œuvre "d'une banalité affligeante". Ce lancement ravive les tensions avec Hollywood, où acteurs et doubleurs se battent depuis fin 2025 pour protéger leurs droits face à la menace de l'IA.

Le lancement du clip musical de Tilly Norwood, une actrice entièrement générée par l’IA, fait l’effet d’une provocation. Malgré l’implication de dix-huit professionnels réels, ce contenu peine à convaincre. Il soulève même des questions sur l’avenir de la propriété intellectuelle et du métier d’acteur. Le lancement du clip musical Take the Lead n’est pas passé inaperçu. Dès sa publication, la vidéo mettant en scène l’actrice virtuelle Tilly Norwood a déclenché une avalanche de réactions critiques sur les réseaux sociaux et dans la presse spécialisée. En voulant prouver que l’IA peut porter un projet artistique de bout en bout , le studio Particle6 a surtout réussi à démontrer l’inverse. Les réactions sont glaciales et les critiques sévères. Ils n’ont pas aimé le clip musical de Tilly Norwood Malgré des précautions prises, la réception publique est négative. Sur les réseaux sociaux, le clip musical de Tilly Norwood est devenu un exemple caricatural des limites actuelles de l’IIA dans la création artistique . Le journaliste Michael Hobbes a donné son avis sur le réseau Bluesky . Il a déclaré avoir « vu des œuvres d’art générées par IA qui paraissent réalistes, mais jamais d’œuvres réussies. Cette vidéo est d’une banalité affligeante et la chanson est insupportable.» De son côté, The Hollywood Reporter souligne le décalage entre les moyens mis en œuvre et le résultat final. Bien que Particle6 insiste sur le fait que 18 personnes réelles , comme des décorateurs, des monteurs et des costumiers, ont travaillé sur la vidéo, le rendu manque de l’étincelle humaine qu’il prétend célébrer. Tilly Norwood: the AI actress responding to criticism with a music video 🎭 The virtual actress Tilly Norwood, created with artificial intelligence, is back in the spotlight with a rather unusual music video titled Take the Lead, designed to address the criticism and backlash… pic.twitter.com/DnylehHql3 — Eugenio Fierro (@EugenioFierro3) March 10, 2026 Comme vous pouvez le voir dans la vidéo ci-dessus, le scénario montre Tilly Norwood évoluer dans un univers fantasmé . Elle est entourée d’éléments visuels extravagants, tandis qu’elle chante son ascension et son rôle dans le futur de la création. Tilly Norwood n’est pas à sa première polémique C’est ce qui m’a surtout intrigué. À la fin de l’année dernière, la société de production Particle6 avait déjà provoqué l’indignation . Elle avait présenté Tilly Norwood comme l’avenir du cinéma. Le timing était particulièrement mal choisi. Parce qu’il intervient en plein milieu d’une fronde historique à Hollywood où acteurs et doubleurs se battaient pour protéger leurs droits face à la menace de l’IA. Eline Van der Velden is the creator of the first ever AI actor – Tilly Norwood. Eline talks about the ethics of her creation – which has come under scrutiny from Hollywood's performers' union. 🎧 More on the use of AI in Hollywood https://t.co/2SjZZagZVx pic.twitter.com/FQE1wfMcZR — BBC World Service (@bbcworldservice) January 13, 2026 Pour beaucoup, Tilly Norwood n’est pas qu’une innovation technique. C’est un symbole. The Verge avait d’ailleurs qualifié l’avatar de manipulation psychologique . Le média accuse même ses créateurs de jouer sur l’empathie humaine pour mieux faire accepter le remplacement des artistes de chair et d’os. De ce fait, sortir un clip musical entièrement centré sur cette actrice virtuelle ressemblait à un pari risqué. Et voilà que le résultat n’a pas convaincu. Deux entreprises spécialisées dans les productions expérimentales liées à l’IA Pour ce premier essai musical de Tilly Norwood, Particle6 s’est associé au studio londonien Xicoia Studios , à en croire les infos rapportées par The Hollywood Reporter . La chanson a été générée grâce à l’application musicale d’IA Suno . Sachez que ce modèle est connu pour sa capacité à créer des morceaux complets à partir de simples prompts . La performance visuelle repose quant à elle sur une technique différente. Particle6 affirme avoir utilisé la capture de mouvement pour enregistrer la performance de sa PDG, Eline van der Velden. C’est elle qui incarne physiquement le personnage. AI-generated ‘actress’ Tilly Norwood eyed by talent agents, could star alongside real actors in film and TV You may live to see man-made horrors beyond your comprehension… pic.twitter.com/116pErjG7h — Catch Up (@CatchUpFeed) September 29, 2025 Le projet mélange plusieurs technologies, dont la génération musicale par IA, l’avatar numérique et la capture de performance humaine. Pour tempérer les critiques sur une automatisation totale, la vidéo rappelle dès le début que 18 personnes réelles ont participé à sa production. Malgré tout cela, les résultats ne sont pas à la hauteur pour beaucoup. L’IA peut-elle susciter de l’empathie ? Au-delà de la qualité visuelle, le cas Tilly Norwood soulève des questions profondes pour l’industrie de la création. Puisque le rejet du public est immédiat. La vidéo montre que l’audience peine encore à éprouver de la sympathie

À lire aussi

1Next INpact2h

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

L'Internet Watch Foundation (IWF), organisation britannique indépendante spécialisée dans la lutte contre les contenus pédocriminels en ligne, tire la sonnette d'alarme dans un rapport publié en 2025 : les images et vidéos d'agressions sexuelles sur mineurs générées par intelligence artificielle sont devenues « routinières ». En juillet 2024, ses analystes repéraient encore les premières vidéos entièrement produites par IA — facilement identifiables à leurs défauts techniques. Un an plus tard, l'organisation a recensé plus de 8 000 images et près de 3 500 vidéos crédibles de ce type, contre seulement 13 vidéos l'année précédente. Plus alarmant encore, 65 % de ces vidéos appartiennent à la « catégorie A », réservée aux contenus les plus extrêmes — une proportion supérieure aux 43 % observés pour les contenus criminels non générés par IA traités sur la même période. Ces contenus ne sont pas moins dangereux parce qu'ils sont artificiels. Selon l'IWF, ils renforcent l'attrait sexuel pour les enfants, contribuent à normaliser des actes d'une violence extrême et peuvent accroître le risque de passages à l'acte. S'y ajoute une double victimisation : les modèles génératifs sont entraînés sur des images d'agressions réelles, ce qui signifie que l'image de survivants est réutilisée, modifiée et parfois « augmentée » pour produire de nouveaux contenus. Cette réexploitation démultiplie le traumatisme des victimes initiales. Le phénomène présente également une dimension de genre très marquée : 97 % des enfants représentés dans ces contenus générés par IA sont des filles, une surreprésentation encore plus forte que dans les affaires de pédocriminalité réelle. Des cas concrets ont illustré cette dérive, notamment en Espagne à Almendralejo, où des images de lycéennes réelles ont été manipulées par IA pour produire des contenus à caractère sexuel. L'IWF, fondée en 1996 et membre du réseau international INHOPE — auquel appartient également l'association française Point de Contact —, travaille en lien avec les forces de police et les fournisseurs d'accès à internet, auxquels elle transmet notamment une liste noire d'environ 150 000 URL de sites diffusant des contenus illégaux. Ce rapport s'inscrit dans un contexte où la démocratisation des outils de génération d'images et de vidéos par IA pose des défis croissants aux dispositifs légaux et techniques de protection de l'enfance à l'échelle mondiale.

UELe réseau INHOPE, dont fait partie l'association française Point de Contact, est directement impliqué dans la lutte contre ces contenus, et la multiplication de ces matériaux générés par IA accroît la pression sur le cadre réglementaire européen pour encadrer les outils génératifs.

ÉthiqueActu
1 source
2Le Monde Pixels1j

IA : « Le contraste entre des patrimoines incommensurables et la menace de plans sociaux massifs est vertigineux »

L'article fourni ne contient que le titre et une légende photo — il manque le corps du texte pour produire un résumé complet. Avec les éléments disponibles : l'article aborde le contraste saisissant entre les fortunes colossales accumulées par les grandes figures de la tech/finance (dont Larry Fink, PDG de BlackRock) et la menace de suppressions massives d'emplois liées à l'IA. Pour un vrai résumé, merci de coller le contenu complet de l'article.

UELe débat sur les destructions d'emplois liées à l'IA est particulièrement vif en France et en Europe, où les partenaires sociaux et le législateur (AI Act, directives sur l'information-consultation des salariés) sont directement confrontés à la question des reconversions massives.

ÉthiqueOpinion
1 source
3MIT Technology Review2j

Le mouvement de bien-être animal de la Bay Area cherche à recruter l'IA

En février à San Francisco, des défenseurs du bien-être animal et des chercheurs en IA se sont réunis lors d'un sommet organisé par Sentient Futures, fondé par Constance Li, pour explorer comment l'IA pourrait transformer la protection animale. Les participants, convaincus que l'AGI est imminente, estiment qu'il est crucial de former les systèmes d'IA à valoriser la vie animale, car ces systèmes pourraient bientôt prendre la majorité des décisions importantes. Ce mouvement, étroitement lié à l'altruisme efficace, mise sur des solutions à grande échelle comme la viande cultivée en laboratoire plutôt que sur des actions locales.

ÉthiqueActu
1 source
4Numerama5j

Moxie Marlinspike (Signal) s’allie à Meta pour « bunkeriser » vos conversations avec l’IA

Moxie Marlinspike, créateur du protocole Signal, lance un nouveau projet appelé Confer qui s'intégrera à Meta AI pour garantir la confidentialité totale des conversations avec l'IA. Dix ans après avoir sécurisé WhatsApp, il applique la même approche de chiffrement de bout en bout aux échanges avec les assistants IA, rendant les données inaccessibles même à Meta et Mark Zuckerberg.

UELes utilisateurs européens de Meta AI pourraient bénéficier d'une protection renforcée de leurs conversations IA, potentiellement alignée avec les exigences du RGPD, si Confer est déployé en Europe.

ÉthiqueActu
1 source