Aller au contenu principal
Derrière les fruits stars de TikTok, une machine à cash pilotée par l’IA
SociétéSiècle Digital6sem

Derrière les fruits stars de TikTok, une machine à cash pilotée par l’IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Sur TikTok, des fruits et légumes dotés de visages expressifs et de voix émotionnelles envahissent les fils d'actualité depuis plusieurs mois, portés par des intrigues sentimentales dignes de Peaky Blinders ou de Secret Story. Ces vidéos entièrement générées par intelligence artificielle — personnages, voix, scénarios — cumulent des dizaines de millions de vues. Derrière l'apparente fantaisie, une infrastructure économique très structurée : des créateurs, souvent anonymes, utilisent des outils comme Kling AI ou Sora combinés à des générateurs de scénarios automatisés pour produire en masse des contenus à faible coût mais à fort potentiel viral.

Ce modèle représente une rupture dans la façon dont le contenu digital est monétisé. Ces comptes génèrent des revenus via le Creator Fund de TikTok, mais surtout via l'affiliation et le placement de produits dissimulés dans les intrigues. Un personnage-citron qui "trahit" un ami-concombre peut, en quelques secondes, glisser un lien vers une boutique Shopify. Pour les annonceurs et les créateurs, le rapport coût-engagement est sans précédent : pas d'acteur, pas de tournage, une audience massive et un algorithme TikTok qui favorise la rétention émotionnelle.

Ce phénomène s'inscrit dans une tendance plus large d'industrialisation du contenu IA sur les plateformes courtes. Des fermes de contenus automatisés opèrent désormais à grande échelle, testant formats et personnages jusqu'à trouver la formule virale. TikTok, conscient du phénomène, n'a pas encore clarifié ses règles sur l'étiquetage des contenus 100 % générés par IA, laissant un vide réglementaire que ces opérateurs exploitent activement.

---

Note : l'article source était tronqué — ce résumé s'appuie sur le contexte connu du phénomène.

Impact France/UE

L'absence de règles claires sur l'étiquetage des contenus 100 % générés par IA sur TikTok contredit les obligations de transparence prévues par l'AI Act européen, que l'ARCOM et la Commission pourraient être amenés à faire respecter.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

“C’est nul… mais tout le monde regarde” : les fruits IA explosent les compteurs sur TikTok
1Presse-citron 

“C’est nul… mais tout le monde regarde” : les fruits IA explosent les compteurs sur TikTok

Des vidéos mettant en scène des fruits générés par intelligence artificielle — fraises pleurantes, mangues en colère, cerises au cœur brisé — ont envahi TikTok ces dernières semaines, accumulant des dizaines de millions de vues sur la plateforme. Ces clips, produits en quelques minutes grâce à des outils comme Kling AI ou Runway, mettent en scène des personnages-fruits dans des scénarios mélodramatiques empruntés aux telenovelas : trahisons, ruptures, rivalités familiales. Le phénomène touche en priorité les créateurs de contenu cherchant à monétiser rapidement une audience sans compétences techniques. Ce succès paradoxal — les commentaires reconnaissent volontiers le caractère "nul" du contenu — illustre un changement profond dans les mécaniques d'engagement des réseaux sociaux. L'algorithme TikTok favorise la rétention et le visionnage répété, or ces vidéos, par leur étrangeté et leur humour involontaire, génèrent exactement ce comportement. Pour les créateurs, le retour sur investissement est quasi immédiat : coût de production nul, viralité potentiellement massive. Ce phénomène s'inscrit dans une vague plus large de contenus IA "low-effort" qui saturent les plateformes depuis l'émergence des générateurs vidéo grand public fin 2024. Il pose une question sérieuse aux plateformes et aux annonceurs : comment valoriser l'attention captée par un contenu que personne ne respecte, mais que tout le monde regarde jusqu'au bout ?

UELes créateurs de contenu francophones sur TikTok sont exposés au même phénomène de saturation par les contenus IA low-effort, qui interroge annonceurs et plateformes européennes sur la valorisation de l'attention captée.

SociétéOpinion
1 source
Chaos total sur YouTube : des vidéos IA absurdes passent entre les mailles du filet
2Le Big Data 

Chaos total sur YouTube : des vidéos IA absurdes passent entre les mailles du filet

YouTube fait face à une prolifération massive de contenus générés automatiquement par intelligence artificielle, au point que la plateforme peine à maintenir un semblant de contrôle éditorial. Des milliers de vidéos produites sans intervention humaine sont publiées chaque jour, contournant les systèmes de modération mis en place par Google. Parmi les cas les plus frappants signalés par des utilisateurs sur Bluesky, certaines vidéos présentent une voix masculine synthétique répétant un mot unique en boucle pendant de longues minutes, parfois sous couvert de contenu éducatif ou de bandes-annonces fictives. Ces productions, souvent incohérentes, longues et jamais relues par un humain, inondent la plateforme malgré les efforts répétés de YouTube pour intensifier sa lutte contre les contenus automatisés. L'impact est concret et touche plusieurs catégories d'acteurs. Les créateurs légitimes voient leur visibilité écrasée par un flot de contenus parasites optimisés pour le référencement algorithmique : titres accrocheurs, miniatures trompeuses, récits entièrement inventés conçus pour maximiser les clics. Les utilisateurs, souvent piégés par le système d'autoplay, enchaînent ces vidéos sans toujours identifier leur nature artificielle. Plus grave, certains de ces contenus ne se limitent pas à l'absurde : ils véhiculent des affirmations fausses ou des théories complotistes qui circulent librement, sans filtre efficace. La désinformation à grande échelle devient ainsi une conséquence directe de cette incapacité à endiguer le phénomène. Ce problème s'inscrit dans une dynamique plus large liée à la démocratisation des outils de génération vidéo par IA, qui permettent désormais à n'importe qui de produire des contenus en masse à coût quasi nul. YouTube a bien tenté de réagir en renforçant ses politiques et ses systèmes de détection, mais chaque vague de suppressions est immédiatement suivie d'une nouvelle vague de publications, dans ce que certains décrivent comme un jeu de tape-taupe numérique sans fin. Les chaînes les plus agressives exploitent méthodiquement les failles de l'algorithme pour maintenir leur présence. La question qui se pose désormais est de savoir si YouTube peut adapter ses outils de modération à la même vitesse que progressent les capacités génératives, ou si la plateforme est structurellement condamnée à subir ce déferlement tant que la création automatisée de contenus reste aussi accessible et rentable.

UELes créateurs francophones voient leur visibilité écrasée par des contenus parasites IA, tandis que les utilisateurs français sont exposés à des flux de désinformation automatisée sans modération efficace de la plateforme.

SociétéOpinion
1 source
Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?
3Le Big Data 

Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?

Une étude publiée par Vantage Point Counseling Services révèle que 28 % des adultes ont déjà vécu une forme de romance avec une intelligence artificielle, dont 53 % étaient au moment des faits engagés dans une relation humaine stable. Ce phénomène s'appuie sur des plateformes comme Replika, qui revendique 30 millions d'utilisateurs actifs dans le monde. L'application permet des échanges intimes, des confidences et des interactions émotionnelles poussées avec un personnage virtuel personnalisable — accessible depuis un smartphone, à tout moment, sans aucune trace physique. La question de la trahison conjugale se pose avec une acuité nouvelle : si l'IA n'a ni corps ni conscience, l'infidélité reste entière dès lors qu'elle implique un détournement d'intimité. Le temps émotionnel investi dans un chatbot — les confidences, la complicité, le secret maintenu — constitue exactement le même vol d'attention que dans une liaison classique. Le mensonge, et non le support, est ce qui fracture un couple. L'IA présente pourtant un avantage pervers sur l'amant humain : elle est conçue pour être irréprochable, infiniment disponible, incapable de décevoir. Pour les couples en difficulté, elle agit moins comme une cause de rupture que comme un révélateur de vide relationnel préexistant. Ce phénomène s'inscrit dans une évolution plus large de la relation homme-machine. Les assistants conversationnels sont désormais optimisés pour générer de l'attachement émotionnel — un marché qui pèse 40 milliards de dollars selon les estimations sectorielles. Les plateformes de compagnie virtuelle comme Replika, Character.AI ou les fonctionnalités sociales intégrées à ChatGPT brouillent délibérément la frontière entre outil et relation. Les psychologues et thérapeutes de couple commencent à traiter des cas de dépendance affective à des IA, et certains cabinets juridiques spécialisés en droit de la famille anticipent des procédures de divorce où des interactions avec un chatbot constitueront des pièces à conviction. La vraie question n'est donc pas de savoir si une IA peut trahir — elle ne le peut pas — mais pourquoi un être humain choisit de lui confier ce qu'il ne dit plus à son partenaire.

SociétéOpinion
1 source
Sur Amazon, les faux guides de jeux générés par IA se multiplient
4Frandroid 

Sur Amazon, les faux guides de jeux générés par IA se multiplient

Sur Amazon, des guides de jeux vidéo générés par intelligence artificielle prolifèrent dans le catalogue de la plateforme, trompant des joueurs qui cherchent de l'aide pour progresser dans leurs titres favoris. Ces ouvrages, produits en masse à faible coût grâce à des outils d'IA générative, sont vendus plusieurs euros voire dizaines d'euros, alors qu'ils contiennent des informations incorrectes, inventées ou périmées. Les auteurs de ces arnaques exploitent la facilité avec laquelle Amazon permet à n'importe qui de publier via son programme Kindle Direct Publishing. L'impact est direct pour les acheteurs : un joueur qui paie pour un guide sur un RPG complexe ou un jeu de stratégie se retrouve avec un document truffé d'erreurs, de niveaux inexistants ou de conseils inutilisables. Au-delà de la frustration individuelle, ce phénomène pollue l'écosystème Amazon : les vrais guides, rédigés par des spécialistes, se noient dans un océan de contenu généré automatiquement, et les avis clients deviennent peu fiables car les acheteurs découvrent la supercherie trop tard. Ce problème s'inscrit dans une tendance plus large de production de contenu IA bas de gamme qui inonde les plateformes de vente en ligne depuis l'essor de ChatGPT et de ses concurrents à partir de 2023. Amazon a déjà tenté de limiter le nombre de publications quotidiennes par auteur sur KDP, sans parvenir à endiguer le flot. La question de la responsabilité de la plateforme dans la modération de ce type de contenu trompeur reste entière, alors que les régulateurs européens examinent de près les pratiques des grandes marketplaces.

UELes régulateurs européens examinent les pratiques des grandes marketplaces face à la prolifération de contenu IA trompeur, ce qui pourrait accélérer les obligations de modération éditoriale sous le Digital Services Act (DSA).

SociétéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour