Aller au contenu principal
La politique de TikTok sur les publicités IA ne fonctionne pas
ÉthiqueThe Verge AI6sem

La politique de TikTok sur les publicités IA ne fonctionne pas

Résumé IASource uniqueImpact UE
Source originale ↗·

Plusieurs grandes entreprises diffusent des publicités générées par intelligence artificielle sur TikTok sans apposer le label requis par la plateforme, révèle une enquête du site The Verge. Samsung figure parmi les marques épinglées : plusieurs de ses vidéos promotionnelles publiées sur ses comptes TikTok ne mentionnent nulle part l'utilisation d'outils d'IA générative, ni dans la vidéo elle-même, ni dans les petites lignes. TikTok impose pourtant depuis 2023 une politique explicite d'étiquetage des contenus publicitaires créés ou modifiés par IA, sous peine de sanctions théoriques pour les annonceurs contrevenants.

Ce manquement soulève une question de confiance fondamentale pour les consommateurs : si des professionnels de l'image peinent à distinguer une vidéo synthétique d'une vraie, le grand public n'a aucune chance. L'absence de transparence fausse la perception des produits — un visage retouché par IA, une mise en scène impossible ou une voix clonée peuvent créer des attentes irréalistes. Pour l'industrie publicitaire, l'enjeu est de taille : la crédibilité des marques et la confiance des plateformes reposent sur des règles que personne ne semble aujourd'hui contrôler sérieusement.

La prolifération des outils d'IA générative — Sora, Runway, Adobe Firefly, entre autres — a rendu la production de contenus synthétiques accessible à presque tous les annonceurs, accélérant une course au contenu bon marché qui dépasse les capacités de modération des plateformes. TikTok n'est pas seul dans cette situation : Meta, YouTube et Google font face aux mêmes défis de détection et d'application. Plusieurs régulateurs, notamment en Europe avec l'AI Act, commencent à imposer des obligations légales d'étiquetage, mais leur mise en œuvre reste balbutiante. La prochaine étape sera probablement judiciaire ou législative — à moins que les plateformes ne renforcent elles-mêmes leurs mécanismes de vérification avant que le scandale ne s'emballe.

Impact France/UE

L'AI Act européen impose des obligations d'étiquetage des contenus générés par IA aux plateformes opérant en Europe, et le non-respect constaté chez TikTok pourrait déclencher des procédures de conformité auprès des régulateurs européens.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
Google n'a pas modifié les fonctions IA locales de Chrome, elles restent aussi confuses qu'avant
2Ars Technica AI 

Google n'a pas modifié les fonctions IA locales de Chrome, elles restent aussi confuses qu'avant

Une confusion a récemment agité les utilisateurs de Chrome sur ordinateur : certains ont constaté que leur navigateur téléchargeait discrètement un modèle d'intelligence artificielle de 4 Go, le Gemini Nano de Google. Sur les réseaux sociaux, la découverte a été interprétée comme un déploiement massif et soudain d'IA sur toutes les installations Chrome. En réalité, ce comportement n'a rien de nouveau. Google avait annoncé dès 2024 l'intégration de capacités d'IA locale dans Chrome, destinées à alimenter des fonctionnalités comme "Help Me Write" (aide à la rédaction), l'organisation automatique des onglets et la détection des tentatives d'arnaque. Le modèle est téléchargé en arrière-plan depuis plusieurs années déjà, ce n'est pas une nouveauté technique, mais une nouveauté dans la perception des utilisateurs. Ce que cet épisode révèle avant tout, c'est l'incapacité chronique de Google à communiquer clairement sur ses déploiements d'IA. L'entreprise intègre des modèles lourds dans ses produits sans informer explicitement les utilisateurs, ce qui génère régulièrement des incompréhensions et une méfiance justifiée. Pour les 4 milliards d'utilisateurs de Chrome dans le monde, la question de ce qui tourne en local sur leur machine, et pourquoi, est pourtant loin d'être anodine, notamment sur des appareils aux ressources limitées. Ce flou s'inscrit dans une tendance plus large chez Google, qui multiplie les annonces d'IA sans toujours en expliquer les implications concrètes. Chrome embarque désormais bien d'autres fonctionnalités alimentées par Gemini : un chatbot en mode écran partagé, ainsi qu'une capacité à automatiser la navigation web. Le traitement local via Gemini Nano vise à préserver la confidentialité des données en évitant les allers-retours vers les serveurs cloud, un argument de poids face aux critiques sur la vie privée. Reste que sans transparence sur ce qui est installé, quand et pourquoi, la confiance des utilisateurs risque de s'éroder plus vite que les bénéfices de ces fonctionnalités ne s'imposent.

UELes centaines de millions d'utilisateurs européens de Chrome sont concernés par ce manque de transparence de Google sur le déploiement silencieux de Gemini Nano, une pratique potentiellement en tension avec les obligations d'information du RGPD.

ÉthiqueOutil
1 source
☕️ Pas de statuettes pour l’IA à la prochaine cérémonie des Oscars
3Next INpact 

☕️ Pas de statuettes pour l’IA à la prochaine cérémonie des Oscars

L'Academy of Motion Picture Arts and Sciences (AMPAS) a publié les règles officielles qui encadreront la 99e cérémonie des Oscars, prévue le 17 mars 2027. La position est sans ambiguïté : seules les performances "manifestement interprétées par des êtres humains avec leur consentement" seront éligibles dans les catégories d'interprétation. Conséquence directe : le clone IA de Val Kilmer, utilisé dans le film As Deep as the Grave pour faire "revenir" l'acteur un an après sa mort, ne pourra prétendre à aucune statuette. L'entité numérique Tilly Norwood, présentée comme une "comédienne IA" par le studio Xicoia et que plusieurs agences de talent ont tenté de représenter, se trouve dans la même situation. Côté scénario, les catégories meilleur scénario original et meilleur scénario adapté exigent désormais une paternité humaine : tout texte généré principalement par une IA sera déclaré inéligible, même si l'usage de l'IA en soutien à l'écriture humaine semble toléré. L'Academy se réserve par ailleurs le droit d'exiger des informations détaillées sur l'usage de l'IA dans n'importe quelle œuvre en compétition. Ces règles dessinent une ligne de démarcation claire à un moment où Hollywood ne sait pas encore quoi faire de cette technologie. Pour la profession des comédiens, la question dépasse l'anecdote : si un studio peut synthétiser le jeu d'un acteur décédé et le commercialiser, c'est l'ensemble de la relation entre un artiste, son image et son consentement qui est remis en cause. Les tentatives de "vendre" Tilly Norwood aux studios ont suscité un rejet net de la part des syndicats et de la profession, signe que la résistance est organisée et déterminée. Le contexte est celui d'un Hollywood encore sous le choc des grèves de 2023, où la SAG-AFTRA et les scénaristes du WGA avaient arraché des protections contre l'utilisation non consentie de leurs voix et de leurs ressemblances par les studios. Ces nouvelles règles des Oscars prolongent cette logique en lui donnant une traduction symbolique forte : la plus haute récompense du cinéma américain ne couronnera pas une machine. Reste à voir comment l'Academy vérifiera concrètement la part d'IA dans les œuvres, un chantier technique et juridique qui s'annonce complexe à mesure que les outils génératifs s'intègrent davantage aux workflows de production.

UECes règles pourraient inspirer les cérémonies européennes comme les César et renforcer les arguments en faveur d'une protection légale du consentement et de l'image des artistes dans le cadre des discussions sur l'AI Act européen.

ÉthiqueReglementation
1 source
4The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour