Aller au contenu principal
☕️ Pas de statuettes pour l’IA à la prochaine cérémonie des Oscars
ÉthiqueNext INpact1h

☕️ Pas de statuettes pour l’IA à la prochaine cérémonie des Oscars

Résumé IASource uniqueImpact UE
Source originale ↗·

L'Academy of Motion Picture Arts and Sciences (AMPAS) a publié les règles officielles qui encadreront la 99e cérémonie des Oscars, prévue le 17 mars 2027. La position est sans ambiguïté : seules les performances "manifestement interprétées par des êtres humains avec leur consentement" seront éligibles dans les catégories d'interprétation. Conséquence directe : le clone IA de Val Kilmer, utilisé dans le film As Deep as the Grave pour faire "revenir" l'acteur un an après sa mort, ne pourra prétendre à aucune statuette. L'entité numérique Tilly Norwood, présentée comme une "comédienne IA" par le studio Xicoia et que plusieurs agences de talent ont tenté de représenter, se trouve dans la même situation. Côté scénario, les catégories meilleur scénario original et meilleur scénario adapté exigent désormais une paternité humaine : tout texte généré principalement par une IA sera déclaré inéligible, même si l'usage de l'IA en soutien à l'écriture humaine semble toléré. L'Academy se réserve par ailleurs le droit d'exiger des informations détaillées sur l'usage de l'IA dans n'importe quelle œuvre en compétition.

Ces règles dessinent une ligne de démarcation claire à un moment où Hollywood ne sait pas encore quoi faire de cette technologie. Pour la profession des comédiens, la question dépasse l'anecdote : si un studio peut synthétiser le jeu d'un acteur décédé et le commercialiser, c'est l'ensemble de la relation entre un artiste, son image et son consentement qui est remis en cause. Les tentatives de "vendre" Tilly Norwood aux studios ont suscité un rejet net de la part des syndicats et de la profession, signe que la résistance est organisée et déterminée.

Le contexte est celui d'un Hollywood encore sous le choc des grèves de 2023, où la SAG-AFTRA et les scénaristes du WGA avaient arraché des protections contre l'utilisation non consentie de leurs voix et de leurs ressemblances par les studios. Ces nouvelles règles des Oscars prolongent cette logique en lui donnant une traduction symbolique forte : la plus haute récompense du cinéma américain ne couronnera pas une machine. Reste à voir comment l'Academy vérifiera concrètement la part d'IA dans les œuvres, un chantier technique et juridique qui s'annonce complexe à mesure que les outils génératifs s'intègrent davantage aux workflows de production.

Impact France/UE

Ces règles pourraient inspirer les cérémonies européennes comme les César et renforcer les arguments en faveur d'une protection légale du consentement et de l'image des artistes dans le cadre des discussions sur l'AI Act européen.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

La politique de TikTok sur les publicités IA ne fonctionne pas
1The Verge AI 

La politique de TikTok sur les publicités IA ne fonctionne pas

Plusieurs grandes entreprises diffusent des publicités générées par intelligence artificielle sur TikTok sans apposer le label requis par la plateforme, révèle une enquête du site The Verge. Samsung figure parmi les marques épinglées : plusieurs de ses vidéos promotionnelles publiées sur ses comptes TikTok ne mentionnent nulle part l'utilisation d'outils d'IA générative, ni dans la vidéo elle-même, ni dans les petites lignes. TikTok impose pourtant depuis 2023 une politique explicite d'étiquetage des contenus publicitaires créés ou modifiés par IA, sous peine de sanctions théoriques pour les annonceurs contrevenants. Ce manquement soulève une question de confiance fondamentale pour les consommateurs : si des professionnels de l'image peinent à distinguer une vidéo synthétique d'une vraie, le grand public n'a aucune chance. L'absence de transparence fausse la perception des produits — un visage retouché par IA, une mise en scène impossible ou une voix clonée peuvent créer des attentes irréalistes. Pour l'industrie publicitaire, l'enjeu est de taille : la crédibilité des marques et la confiance des plateformes reposent sur des règles que personne ne semble aujourd'hui contrôler sérieusement. La prolifération des outils d'IA générative — Sora, Runway, Adobe Firefly, entre autres — a rendu la production de contenus synthétiques accessible à presque tous les annonceurs, accélérant une course au contenu bon marché qui dépasse les capacités de modération des plateformes. TikTok n'est pas seul dans cette situation : Meta, YouTube et Google font face aux mêmes défis de détection et d'application. Plusieurs régulateurs, notamment en Europe avec l'AI Act, commencent à imposer des obligations légales d'étiquetage, mais leur mise en œuvre reste balbutiante. La prochaine étape sera probablement judiciaire ou législative — à moins que les plateformes ne renforcent elles-mêmes leurs mécanismes de vérification avant que le scandale ne s'emballe.

UEL'AI Act européen impose des obligations d'étiquetage des contenus générés par IA aux plateformes opérant en Europe, et le non-respect constaté chez TikTok pourrait déclencher des procédures de conformité auprès des régulateurs européens.

ÉthiqueReglementation
1 source
Scandale OpenAI : Ils ont créé des journalistes qui n’existent pas !
2Le Big Data 

Scandale OpenAI : Ils ont créé des journalistes qui n’existent pas !

The Wire by Acutus, site d'information lancé le 29 décembre 2025, utilise des agents d'IA qui se présentent comme de vrais journalistes pour obtenir des citations d'experts humains. L'enquête, publiée par Model Republic via The Midas Project, révèle qu'aucun contributeur humain n'est identifiable sur le site, et que le détecteur Pangram estime à 97 % la proportion de contenus générés automatiquement. L'analyse du code source confirme un processus éditorial largement automatisé : sur cinq étapes de révision, une seule implique un humain, pour une durée moyenne de 44 secondes par article. Les enquêteurs ont retrouvé des champs destinés à alimenter l'IA en informations de base, des suggestions de questions d'interview, et un champ nommé « aiOriginalText » permettant de comparer le texte brut généré aux modifications apportées. L'affaire prend une dimension concrète avec Nathan Calvin, vice-président et conseiller juridique de l'association Encode : il a reçu un email d'un certain Michael Chen, se présentant comme journaliste pour Acutus et proposant un questionnaire sur une loi liée à l'IA au Tennessee. Ce journaliste n'existe nulle part en ligne, et l'adresse utilisée était le contact générique du site. Ce cas franchit un seuil inédit par rapport aux fermes à contenus IA déjà documentées. Jusqu'ici, l'IA produisait des textes ; ici, elle contacte de vraies personnes en se faisant passer pour un journaliste, ce qui lui permet d'extraire des citations authentiques pour crédibiliser un contenu entièrement automatisé. Pour les experts sollicités, il est impossible de distinguer un agent IA d'un journaliste humain. Pour l'ensemble du secteur médiatique, cela signifie qu'un processus éditorial complet, de l'interview à la publication, peut désormais s'exécuter sans intervention humaine réelle en moins d'une minute. La dimension politique aggrave les risques : le site cible aussi des voix critiques envers l'IA. Le chercheur John Sherman, défenseur de la sécurité de l'IA, a fait l'objet d'un article à charge accompagné de prises de contact avec les organisations avec lesquelles il collabore. Les liens entre The Wire by Acutus et OpenAI restent indirects mais troublants. Plusieurs articles du site ont été relayés par Patrick Hynes, figure des relations publiques proche du Parti républicain, dont le réseau se connecte à des structures liées à d'importants financements autour de l'IA, certains impliquant des personnalités associées à OpenAI. Aucune implication directe n'est formellement établie, mais l'hypothèse avancée est sensible : ce type de plateforme pourrait servir à diffuser des positions favorables à l'IA sous couvert de journalisme indépendant. L'affaire survient au moment où OpenAI renforce sa présence dans les médias, ayant récemment racheté l'émission TPBN, très suivie dans la Silicon Valley. Elle relance une question urgente : en l'absence de cadre légal imposant la transparence sur l'origine des contenus, rien n'empêche des agents automatisés de mener des interviews et de publier des articles sans que ni les sources humaines ni les lecteurs ne le sachent.

UEL'AI Act européen impose la transparence sur les contenus générés par IA, ce qui rendrait de telles pratiques illicites en Europe, mais l'absence de mécanismes de vérification concrets expose les experts et médias européens à des risques identiques d'interviews menées par des agents automatisés se faisant passer pour des journalistes.

ÉthiqueActu
1 source
3The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
4The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source