Aller au contenu principal
La politique de TikTok sur les publicités IA ne fonctionne pas
ÉthiqueThe Verge AI2h

La politique de TikTok sur les publicités IA ne fonctionne pas

1 source couvre ce sujet·Source originale ↗·

Plusieurs grandes entreprises diffusent des publicités générées par intelligence artificielle sur TikTok sans apposer le label requis par la plateforme, révèle une enquête du site The Verge. Samsung figure parmi les marques épinglées : plusieurs de ses vidéos promotionnelles publiées sur ses comptes TikTok ne mentionnent nulle part l'utilisation d'outils d'IA générative, ni dans la vidéo elle-même, ni dans les petites lignes. TikTok impose pourtant depuis 2023 une politique explicite d'étiquetage des contenus publicitaires créés ou modifiés par IA, sous peine de sanctions théoriques pour les annonceurs contrevenants.

Ce manquement soulève une question de confiance fondamentale pour les consommateurs : si des professionnels de l'image peinent à distinguer une vidéo synthétique d'une vraie, le grand public n'a aucune chance. L'absence de transparence fausse la perception des produits — un visage retouché par IA, une mise en scène impossible ou une voix clonée peuvent créer des attentes irréalistes. Pour l'industrie publicitaire, l'enjeu est de taille : la crédibilité des marques et la confiance des plateformes reposent sur des règles que personne ne semble aujourd'hui contrôler sérieusement.

La prolifération des outils d'IA générative — Sora, Runway, Adobe Firefly, entre autres — a rendu la production de contenus synthétiques accessible à presque tous les annonceurs, accélérant une course au contenu bon marché qui dépasse les capacités de modération des plateformes. TikTok n'est pas seul dans cette situation : Meta, YouTube et Google font face aux mêmes défis de détection et d'application. Plusieurs régulateurs, notamment en Europe avec l'AI Act, commencent à imposer des obligations légales d'étiquetage, mais leur mise en œuvre reste balbutiante. La prochaine étape sera probablement judiciaire ou législative — à moins que les plateformes ne renforcent elles-mêmes leurs mécanismes de vérification avant que le scandale ne s'emballe.

Impact France/UE

L'AI Act européen impose des obligations d'étiquetage des contenus générés par IA aux plateformes opérant en Europe, et le non-respect constaté chez TikTok pourrait déclencher des procédures de conformité auprès des régulateurs européens.

À lire aussi

Pourquoi Wikipédia bannit presque totalement les articles générés par l’IA
1Numerama 

Pourquoi Wikipédia bannit presque totalement les articles générés par l’IA

La communauté de Wikipédia a adopté une politique stricte interdisant quasi-totalement l'utilisation de textes générés par des intelligences artificielles génératives pour rédiger ou modifier des articles de l'encyclopédie. Cette décision, fruit de longs débats entre éditeurs bénévoles, s'applique aux principales éditions linguistiques du site. Quelques exceptions limitées subsistent, notamment pour des tâches techniques précises comme la correction grammaticale ou la traduction assistée, mais la rédaction de contenu encyclopédique par IA reste prohibée. Cette interdiction répond à des préoccupations concrètes sur la fiabilité et la neutralité de l'information. Les modèles de langage sont connus pour produire des « hallucinations » — des affirmations fausses présentées avec confiance — ce qui est incompatible avec les standards de vérifiabilité de Wikipédia. Pour une encyclopédie consultée par des centaines de millions de personnes chaque mois, laisser entrer massivement du contenu non vérifiable représenterait un risque systémique pour la qualité de l'information publique mondiale. Cette prise de position s'inscrit dans un contexte plus large de tension entre la démocratisation des outils génératifs et les institutions de connaissance structurée. Alors que des plateformes comme Medium ou des sites d'actualité ont été inondés de contenu IA de faible qualité depuis 2022, Wikipédia choisit une voie opposée, en défendant le travail humain et la traçabilité des sources. La décision pourrait influencer d'autres plateformes collaboratives confrontées aux mêmes enjeux.

UEL'édition francophone de Wikipédia est directement concernée : les contributeurs français et européens ne peuvent plus utiliser de textes génératifs pour rédiger ou modifier des articles encyclopédiques.

ÉthiqueOpinion
1 source
OpenAI : le « mode adulte » de ChatGPT définitivement à l’arrêt
201net 

OpenAI : le « mode adulte » de ChatGPT définitivement à l’arrêt

OpenAI a annoncé la suspension indéfinie du développement du « mode adulte » de ChatGPT, une fonctionnalité qui aurait permis à l'assistant de générer des contenus érotiques. Initialement promise pour début 2026, cette capacité avait déjà été repoussée une première fois avant d'être finalement abandonnée sans date de reprise annoncée. Cette décision prive OpenAI d'un segment potentiellement lucratif du marché des IA génératives, où des concurrents comme Character.AI ou des plateformes spécialisées ont déjà pris position. Pour les utilisateurs adultes qui attendaient cette ouverture, le signal est clair : ChatGPT restera un outil grand public aux garde-fous stricts, malgré la promesse initiale d'une plus grande flexibilité. Ce recul s'inscrit dans un mouvement plus large de prudence chez OpenAI, qui avait également mis en pause certaines fonctionnalités de Sora, son générateur vidéo, face aux critiques. La start-up, valorisée à 300 milliards de dollars et sous pression réglementaire croissante en Europe et aux États-Unis, semble privilégier une image responsable plutôt que l'expansion tous azimuts de ses capacités — un arbitrage qui reflète les tensions entre ambition commerciale et acceptabilité sociale de l'IA générative.

UELa pression réglementaire croissante en Europe influence les arbitrages de modération de contenu d'OpenAI, illustrant comment l'AI Act pousse les grands acteurs vers des approches plus conservatrices sur les contenus sensibles.

ÉthiqueOpinion
1 source
Actualité : GitHub Copilot : Microsoft va utiliser vos données pour alimenter son IA, sauf si vous refusez
3Les Numériques IA 

Actualité : GitHub Copilot : Microsoft va utiliser vos données pour alimenter son IA, sauf si vous refusez

Microsoft a annoncé en mars 2026 une modification de sa politique de données pour GitHub Copilot : les données des utilisateurs — incluant le code, les interactions et les comportements sur la plateforme — seront désormais utilisées pour entraîner ses modèles d'intelligence artificielle, sauf si les utilisateurs se désinscrivent explicitement via les paramètres de leur compte. Ce changement concerne l'ensemble des utilisateurs de GitHub Copilot, qu'ils soient en version gratuite ou payante, et prend effet dans les prochaines semaines. Pour des millions de développeurs, cela signifie que leur code — parfois propriétaire ou sensible — pourrait contribuer à améliorer les outils IA de Microsoft sans action de leur part. Le mécanisme d'opt-out existe, mais il repose sur la démarche active de l'utilisateur, ce qui, statistiquement, laisse la grande majorité des données accessibles. Pour les entreprises qui utilisent GitHub en environnement professionnel, la question de la confidentialité du code source devient immédiatement critique. Microsoft a racheté GitHub en 2018 pour 7,5 milliards de dollars, un investissement dont la rentabilisation passe largement par Copilot, lancé en 2021 et aujourd'hui intégré dans l'écosystème Visual Studio et Azure. La firme de Redmond s'inscrit ainsi dans une tendance plus large : OpenAI, Google et Meta ont tous adopté des politiques similaires d'utilisation des données utilisateurs pour affiner leurs modèles. La pression réglementaire européenne, notamment via le RGPD, pourrait cependant contraindre Microsoft à adapter ces pratiques pour les utilisateurs de l'Union européenne.

UELes développeurs européens utilisant GitHub Copilot doivent se désinscrire activement pour protéger leur code propriétaire ; le RGPD pourrait contraindre Microsoft à imposer un mécanisme d'opt-in explicite pour les utilisateurs de l'UE.

ÉthiqueReglementation
1 source
Green IT : comment réduire l'impact environnemental de l'IA
4InfoQ AI 

Green IT : comment réduire l'impact environnemental de l'IA

L'intelligence artificielle représente un défi croissant pour l'informatique durable : chaque requête adressée à un modèle d'IA consomme une quantité considérable d'énergie, les puces GPU ont une durée de vie limitée à seulement deux ou trois ans, et les coûts environnementaux réels restent invisibles pour les utilisateurs finaux. C'est le constat dressé par Ludi Akue lors de sa conférence intitulée What I Wish I Knew When I Started with Green IT, où elle a mis en lumière l'ampleur d'un problème souvent sous-estimé par les équipes techniques. Pour Akue, les cadres réglementaires actuels — dont l'AI Act de l'Union européenne — restent insuffisants sur le plan de l'application concrète : les obligations existent sur le papier, mais les mécanismes d'enforcement font défaut. Face à cette lacune, elle plaide pour intégrer la durabilité dès la conception des systèmes d'IA, en traitant l'impact environnemental comme une contrainte de design à part entière, au même titre que la performance ou la sécurité. Parmi les leviers techniques disponibles, Akue cite la compression de modèles, la quantification — qui réduit la précision des calculs pour diminuer la consommation — et le développement de nouvelles architectures plus sobres. Ces approches existent déjà dans l'écosystème de la recherche, mais peinent à s'imposer dans les pratiques industrielles courantes. Le débat sur le Green IT en IA s'inscrit dans un contexte plus large de prise de conscience environnementale du secteur numérique, alors que la demande en infrastructure de calcul explose avec la généralisation des grands modèles de langage.

UEL'AI Act européen est explicitement cité comme insuffisant sur le plan de l'enforcement environnemental, laissant les entreprises et institutions européennes sans contrainte réelle pour réduire l'empreinte énergétique de leurs systèmes d'IA.

ÉthiqueOpinion
1 source