Aller au contenu principal
AI Act : les usages interdits, impossible à rendre conformes
RégulationLe Big Data6sem

AI Act : les usages interdits, impossible à rendre conformes

Résumé IASource uniqueImpact UE
Source originale ↗·

L'AI Act européen trace des lignes rouges que nulle entreprise ne peut franchir, quelle que soit la sophistication de ses garde-fous. Contrairement aux systèmes classés à haut risque — qui restent autorisés sous conditions strictes — les usages visés par l'Article 5 sont soumis à une interdiction absolue : aucun audit, aucune documentation, aucune supervision humaine ne suffit à les rendre conformes. La seule issue est l'abandon pur et simple du projet.

L'importance de ce texte dépasse le cadre technique : il s'attaque aux atteintes aux droits fondamentaux que l'IA peut provoquer à grande échelle. Manipulation cognitive, exploitation de vulnérabilités financières, scoring social à la chinoise, reconnaissance biométrique en temps réel à des fins répressives, police prédictive individuelle, inférence émotionnelle en milieu professionnel ou scolaire — ces six grandes catégories dessinent les contours d'une éthique numérique spécifiquement européenne. Comme le souligne l'experte Anne-Angélique de Tourtier, spécialiste en privacy et gouvernance IA : « Rien de nouveau ici, c'est même plutôt logique au regard de la culture française et européenne. »

Le danger concret réside dans les projets aux intentions bienveillantes qui franchissent malgré eux ces frontières. Anne-Angélique de Tourtier illustre le piège : un outil d'analyse vocale déployé dans un service client pour « aider les agents à mieux gérer le stress » peut, s'il déduit des émotions ou sert à évaluer les salariés, tomber sous le coup de l'Art. 5, 1.f. S'y ajoute le risque de corrélation indirecte : des données biaisées permettent à un modèle de réintroduire des discriminations que l'on croyait avoir effacées. C'est précisément le rôle du Data Analyst coordonné par un Digital Ethic Officer — deux profils appelés à devenir incontournables — que de surveiller la qualité des données injectées et de conduire des audits de biais réguliers conformément à l'Art. 10.

L'experte nuance toutefois : « Des notions comme la "manipulation" restent floues et peuvent être sujettes à interprétation. » Le vrai terrain de jeu sera jurisprudentiel. Les entreprises qui imaginent pouvoir ajuster n'importe quel projet par la conformité commettent une erreur fondamentale — l'AI Act suit ici la même trajectoire que l'Art. 22 du RGPD sur la décision automatisée : certaines pratiques ne se négocient pas.

Impact France/UE

Les entreprises françaises et européennes déployant des systèmes IA dans ces six catégories interdites doivent les abandonner immédiatement, sans recours possible à un audit ou à des mesures correctives, sous peine de sanctions de l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels
101net 

AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels

Le Parlement européen a adopté une résolution visant à reporter certaines échéances clés de l'AI Act, le règlement européen sur l'intelligence artificielle entré en vigueur en août 2024. Les eurodéputés souhaitent notamment décaler l'application de plusieurs obligations pour donner plus de temps aux entreprises et aux États membres de s'y conformer. La chambre propose également d'inscrire dans le texte une interdiction explicite des applications d'IA permettant de générer des deepfakes sexuels non consentis. Ces ajustements ont des conséquences directes pour les développeurs et fournisseurs de systèmes d'IA en Europe : un délai supplémentaire signifie moins de pression immédiate sur la conformité, mais aussi un signal que la mise en œuvre du texte reste complexe. L'interdiction des deepfakes sexuels répond à une demande croissante de protection des victimes — majoritairement des femmes — face à une pratique en forte hausse facilitée par les outils génératifs grand public. L'AI Act est le premier cadre légal mondial complet sur l'IA, fruit de trois ans de négociations entre le Parlement, le Conseil et la Commission européenne. Son déploiement progressif jusqu'en 2026 fait l'objet de tensions entre ambitions réglementaires et compétitivité industrielle, dans un contexte où l'Europe cherche à ne pas décrocher face aux géants américains et chinois de l'IA.

UELe Parlement européen propose de reporter certaines échéances de l'AI Act et d'interdire explicitement les deepfakes sexuels non consentis, modifiant directement le calendrier de conformité pour tous les développeurs et fournisseurs de systèmes d'IA opérant sur le marché européen.

RégulationReglementation
1 source
Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok
2Le Monde Pixels 

Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok

Le Parlement européen a adopté une résolution interdisant la création et la diffusion d'images pornographiques générées par intelligence artificielle sans le consentement des personnes représentées. Ce vote intervient dans un contexte de multiplication des scandales liés aux outils de «nudification» automatisée, dont Grok, le chatbot d'xAI appartenant à Elon Musk, accusé début 2025 de produire facilement des contenus sexuels explicites, y compris à partir de photos anodines de personnes réelles. La mesure vise à combler un vide juridique flagrant : des millions de femmes ont déjà été victimes de deepfakes pornographiques non consentis, avec des conséquences graves sur leur vie professionnelle et personnelle. En ciblant explicitement les contenus générés par IA, le Parlement européen entend responsabiliser les plateformes qui hébergent ces outils et durcir les sanctions contre leurs auteurs, dans le prolongement de la directive sur les violences faites aux femmes adoptée en 2024. Cette décision s'inscrit dans une volonté plus large de l'Union européenne d'encadrer les dérives de l'IA générative, après l'AI Act entré en vigueur en 2024. La mobilisation des associations féministes — dont la manifestation de Séoul en août 2024 contre la nudification — a pesé dans le débat. La prochaine étape sera la transposition effective dans les législations nationales des Vingt-Sept.

UELa transposition de cette résolution dans les législations nationales des Vingt-Sept obligera les plateformes opérant en Europe à retirer les deepfakes pornographiques non consentis et à renforcer leur modération sous peine de sanctions renforcées.

RégulationReglementation
1 source
Wikipédia interdit officiellement la rédaction d’articles par l’IA
3Frandroid 

Wikipédia interdit officiellement la rédaction d’articles par l’IA

La Fondation Wikimedia a officiellement interdit la rédaction d'articles par intelligence artificielle sur l'encyclopédie en ligne Wikipédia. Cette décision marque un tournant dans la politique éditoriale de l'une des plateformes d'information les plus consultées au monde, avec plus de 60 millions d'articles dans 300 langues. La règle s'applique à la création de contenu directement généré par des outils comme ChatGPT ou Claude, même si les détails précis de la politique — notamment les usages auxiliaires autorisés — restent en cours de clarification au sein des différentes communautés de contributeurs. La décision répond à une inquiétude croissante sur la fiabilité du contenu encyclopédique à l'ère des LLMs. Les modèles de langage sont connus pour produire des « hallucinations » — des affirmations fausses présentées avec assurance —, ce qui est particulièrement dangereux sur une plateforme dont des millions de lecteurs, d'étudiants et de journalistes dépendent quotidiennement. Pour Wikimedia, laisser l'IA rédiger librement risquait de polluer silencieusement une base de connaissance construite sur des décennies de travail humain vérifié. La Fondation reconnaît cependant que l'application de cette règle sera techniquement ardue : détecter automatiquement les textes générés par IA reste un problème non résolu, les outils de détection existants produisant de nombreux faux positifs. Ce choix s'inscrit dans un débat plus large qui agite l'ensemble des médias et institutions de savoir — de la presse aux universités — sur la place de l'IA générative dans la production de contenus à vocation informative. Wikipédia choisit clairement le camp de la prudence.

UELa décision s'applique directement aux versions françaises et européennes de Wikipédia, protégeant l'intégrité d'une ressource encyclopédique massivement utilisée par les étudiants, journalistes et institutions de l'UE.

RégulationReglementation
1 source
La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise
401net 

La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise

Le collier intelligent Friend, gadget de la start-up américaine du même nom, a été interdit à la vente en France et dans l'ensemble de l'Union européenne. Le produit, un pendentif connecté capable d'écouter en continu son environnement et d'entretenir des conversations avec son porteur via une intelligence artificielle, avait été lancé avec une campagne publicitaire visible dans les stations de métro parisiennes, cherchant à séduire un public européen friand de nouveaux objets connectés. L'interdiction ne surprend guère les observateurs du secteur : un dispositif d'écoute permanente porté sur soi soulève des questions fondamentales en matière de protection des données personnelles. Le règlement européen RGPD impose des obligations strictes sur la collecte et le traitement des données audio, notamment le consentement explicite des tiers enregistrés à leur insu. Or, un collier qui capte les conversations autour de son porteur, sans que les personnes présentes en soient informées, contrevient frontalement à ces principes. Pour les utilisateurs comme pour les entreprises, ce type de produit ouvre également des risques sécuritaires liés à l'enregistrement involontaire d'informations sensibles. Friend s'inscrit dans une vague de gadgets IA "compagnons" qui ont tenté de percer en 2024 et 2025, à l'image du Humane Ai Pin ou du Rabbit R1, tous confrontés à des obstacles commerciaux ou réglementaires. L'Europe, avec son cadre juridique parmi les plus exigeants au monde sur la vie privée et désormais renforcé par l'AI Act, constitue un terrain particulièrement difficile pour ces objets d'écoute ambiante. La décision française pourrait faire jurisprudence pour d'autres dispositifs similaires à venir.

UEL'interdiction de vente en France et dans l'UE du collier Friend fait jurisprudence pour les dispositifs d'écoute ambiante, confirmant que le RGPD et l'AI Act constituent des obstacles réglementaires majeurs pour ce type de gadget IA compagnon.

💬 Un collier qui t'écoute en permanence sans prévenir les gens autour de toi, interdit en Europe... difficile de faire plus prévisible. Le RGPD n'est pas une nouveauté, il date de 2018. La vraie question c'est comment ce produit a pu lever des fonds et tourner des pubs dans le métro parisien avant que quelqu'un lève la main.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour