
Les contenus générés par IA devront être tatoués, sauf s’ils sont vérifiés par un humain
L'Union européenne franchit une étape décisive dans la régulation des contenus synthétiques. La Commission européenne a lancé une consultation publique, ouverte jusqu'au 3 juin 2026, sur ses lignes directrices d'application de l'article 50 de l'AI Act. Ce texte impose aux fournisseurs et déployeurs d'intelligence artificielle de marquer de façon indélébile et « claire et identifiable » tout contenu généré ou modifié par IA : textes, images, sons, vidéos, réalités virtuelle et augmentée, jumeaux numériques, et même les systèmes d'IA agentique interagissant avec des environnements physiques ou numériques. Une exemption notable est toutefois proposée : les contenus ayant fait l'objet d'une vérification humaine ou d'un contrôle éditorial pourraient être dispensés de cette obligation de marquage. Lucilla Sioli, directrice du bureau IA de la DG Connect à la Commission, résume l'objectif sur LinkedIn : « Nous souhaitons réduire les risques d'usurpation d'identité et de tromperie. »
L'enjeu dépasse la simple transparence technique. Ces règles visent à permettre à tout citoyen de distinguer ce qu'un humain a créé de ce qu'une machine a produit, dans un contexte où deepfakes et désinformation prolifèrent. La réglementation touche également les contenus mixant productions humaines et synthétiques, ainsi que les systèmes d'IA utilisés dans des domaines sensibles comme l'imagerie médicale ou l'évaluation scolaire. Les usages purement personnels et non professionnels sont exemptés, mais la Commission pose une limite claire : cette exception ne couvre ni les activités criminelles, ni les deepfakes diffusés publiquement sur des sujets politiques ou économiques susceptibles d'influencer le débat public. Concrètement, un particulier qui crée des deepfakes humoristiques de sa famille pour des vœux de Noël n'est pas concerné ; en revanche, quiconque diffuse publiquement un deepfake pour critiquer un responsable politique devra le labelliser explicitement comme contenu synthétique.
Ce texte s'inscrit dans une dynamique réglementaire européenne construite depuis 2021 autour de l'AI Act, adopté en 2024 et entré progressivement en vigueur. Le tatouage numérique des contenus IA rejoint d'autres obligations déjà existantes comme les règles sur la désinformation du Digital Services Act. Un code de bonnes pratiques, rédigé par des experts indépendants, doit compléter ces lignes directrices et être finalisé début juin. L'équilibre reste délicat : trop strict, le dispositif freine la créativité et la liberté d'expression ; trop souple, il laisse prospérer la manipulation. La consultation en cours est précisément l'occasion pour les acteurs de l'industrie, les médias et la société civile de peser sur ce curseur avant que les règles définitives ne s'appliquent.
La Commission européenne impose via l'article 50 de l'AI Act le marquage obligatoire de tout contenu généré par IA, contraignant directement les médias, plateformes et entreprises françaises à adapter leurs processus éditoriaux avant la consultation publique du 3 juin 2026.
L'exemption "contrôle éditorial humain", c'est là que tout va se jouer, et je parie que les équipes juridiques l'ont déjà repéré. Dans six mois, t'auras des processus entiers réarchitecturés pour faire passer un relecteur symbolique en bout de chaîne et esquiver le marquage, et c'est parfaitement légal. Bon, sur le papier c'est quand même le texte le plus complet qu'on ait eu jusqu'ici.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



