Aller au contenu principal
La loi sur l’IA va être « simplifiée », et ce n’est pas une bonne nouvelle pour les consommateurs européens
Régulation01net18h

La loi sur l’IA va être « simplifiée », et ce n’est pas une bonne nouvelle pour les consommateurs européens

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

L'Union européenne a annoncé jeudi 7 mai un accord politique visant à "simplifier" l'AI Act, sa législation phare sur l'intelligence artificielle adoptée en 2024. Conclu à Bruxelles, cet accord prévoit d'alléger les obligations imposées aux entreprises développant ou déployant des systèmes d'IA sur le territoire européen. Les détails précis des modifications n'ont pas encore tous été rendus publics, mais l'orientation est nette : réduire la charge réglementaire pour faciliter l'innovation, au nom de la compétitivité du continent.

Cette révision anticipée inquiète profondément les associations de défense des consommateurs, qui y voient un recul historique sur les protections acquises. L'AI Act prévoyait des exigences strictes de transparence, de traçabilité et d'évaluation des risques pour les systèmes dits "à haut risque", ceux déployés dans la santé, la justice, l'emploi ou les services publics. Un assouplissement de ces règles affaiblirait concrètement les recours disponibles pour les citoyens européens confrontés à des décisions automatisées qui les affectent directement.

Ce revirement s'inscrit dans un contexte de pression intense exercée par l'administration Trump, qui a explicitement demandé à Bruxelles de démanteler ses réglementations numériques. Les lobbys américains de la tech, représentant notamment Google, Meta et OpenAI, poussent depuis des mois pour un texte moins contraignant. Paradoxalement, ces mêmes acteurs reprochent à l'Europe de ne pas aller assez loin dans certains assouplissements. Cette "simplification" pose une question fondamentale sur la capacité de l'UE à maintenir ses standards face aux pressions diplomatiques et économiques qui convergent pour les éroder.

Impact France/UE

L'assouplissement de l'AI Act réduit directement les protections des citoyens français et européens face aux décisions automatisées dans la santé, l'emploi et la justice, en affaiblissant les obligations de transparence et de traçabilité imposées aux systèmes à haut risque.

💬 Le point de vue du dev

On attendait la simplification pour les PME, pas le démantèlement des protections citoyennes. L'AI Act a mis trois ans à s'imposer face aux lobbys, et là on efface les obligations de transparence sur les systèmes à haut risque en quelques mois, sous pression explicite de Washington. Appeler ça de la "compétitivité", c'est du flan.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise
101net 

La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise

Le collier intelligent Friend, gadget de la start-up américaine du même nom, a été interdit à la vente en France et dans l'ensemble de l'Union européenne. Le produit, un pendentif connecté capable d'écouter en continu son environnement et d'entretenir des conversations avec son porteur via une intelligence artificielle, avait été lancé avec une campagne publicitaire visible dans les stations de métro parisiennes, cherchant à séduire un public européen friand de nouveaux objets connectés. L'interdiction ne surprend guère les observateurs du secteur : un dispositif d'écoute permanente porté sur soi soulève des questions fondamentales en matière de protection des données personnelles. Le règlement européen RGPD impose des obligations strictes sur la collecte et le traitement des données audio, notamment le consentement explicite des tiers enregistrés à leur insu. Or, un collier qui capte les conversations autour de son porteur, sans que les personnes présentes en soient informées, contrevient frontalement à ces principes. Pour les utilisateurs comme pour les entreprises, ce type de produit ouvre également des risques sécuritaires liés à l'enregistrement involontaire d'informations sensibles. Friend s'inscrit dans une vague de gadgets IA "compagnons" qui ont tenté de percer en 2024 et 2025, à l'image du Humane Ai Pin ou du Rabbit R1, tous confrontés à des obstacles commerciaux ou réglementaires. L'Europe, avec son cadre juridique parmi les plus exigeants au monde sur la vie privée et désormais renforcé par l'AI Act, constitue un terrain particulièrement difficile pour ces objets d'écoute ambiante. La décision française pourrait faire jurisprudence pour d'autres dispositifs similaires à venir.

UEL'interdiction de vente en France et dans l'UE du collier Friend fait jurisprudence pour les dispositifs d'écoute ambiante, confirmant que le RGPD et l'AI Act constituent des obstacles réglementaires majeurs pour ce type de gadget IA compagnon.

💬 Un collier qui t'écoute en permanence sans prévenir les gens autour de toi, interdit en Europe... difficile de faire plus prévisible. Le RGPD n'est pas une nouveauté, il date de 2018. La vraie question c'est comment ce produit a pu lever des fonds et tourner des pubs dans le métro parisien avant que quelqu'un lève la main.

RégulationReglementation
1 source
Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
2MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

RégulationReglementation
1 source
La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence
3Frandroid 

La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence

La Commission européenne a conclu, au terme de quatre mois d'enquête, que Google devrait ouvrir Android à des assistants IA concurrents de Gemini. Cette décision s'inscrit dans le cadre du Digital Markets Act (DMA), la législation européenne sur les marchés numériques qui impose aux grandes plateformes désignées comme "contrôleurs d'accès" de ne pas favoriser leurs propres services. Google, qui voit d'un mauvais œil cette injonction, risque des sanctions pouvant atteindre 10 % de son chiffre d'affaires mondial en cas de non-conformité. L'enjeu est considérable : Android équipe plus de 70 % des smartphones dans le monde, et l'assistant IA préinstallé bénéficie d'un avantage structurel massif sur ses concurrents. Forcer Google à proposer un choix d'assistants IA, comme cela a déjà été fait pour les moteurs de recherche avec l'écran de sélection, permettrait à des acteurs comme Mistral, Meta AI, ou d'autres de s'installer sur des centaines de millions d'appareils. Pour les utilisateurs européens, cela signifierait concrètement la possibilité de définir un assistant IA tiers comme assistant par défaut sur leur téléphone Android. Cette enquête s'inscrit dans une pression réglementaire européenne croissante sur les géants du numérique américains, accentuée depuis l'explosion de l'IA générative en 2023. Google a déjà fait l'objet de condamnations antitrust en Europe concernant son moteur de recherche et son système publicitaire. La bataille autour de Gemini sur Android représente le prochain front de ce bras de fer, à un moment où la course aux assistants IA est devenue l'enjeu stratégique central pour Apple, Google, Microsoft et Meta.

UELes utilisateurs européens pourraient bientôt choisir leur assistant IA par défaut sur Android, ouvrant la voie à des acteurs comme Mistral et offrant une alternative concrète à Gemini sur des centaines de millions d'appareils en Europe.

💬 C'est le même bras de fer qu'avec les moteurs de recherche, version IA. L'avantage de la préinstallation, c'est écrasant : si Gemini est là par défaut et que tu n'y touches pas, Mistral n'existe pas pour toi. La DMA force le sujet, c'est déjà ça, reste à voir si l'écran de choix sera moins ignoré que celui qu'on avait eu pour les navigateurs.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
4Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour