Aller au contenu principal
IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination
RégulationNext INpact6sem

IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination

Résumé IASource uniqueImpact UE
Source originale ↗·

La Commission Supérieure du Numérique et des Postes (CSNP) a publié le 26 mars un avis sur l'adoption de l'intelligence artificielle par les entreprises françaises, accompagné d'une table-ronde réunissant les acteurs auditionnés. Le document formule 26 recommandations structurées en cinq chapitres pour aider la France à naviguer entre adoption technologique et cohésion sociale.

Le diagnostic posé par le sénateur Damien Michallet (Les Républicains, Isère) identifie trois tensions majeures auxquelles fait face le pays. La première est financière : les États-Unis ont injecté 420 milliards de dollars dans leurs infrastructures numériques en 2025 seulement, creusant l'écart avec les ambitions européennes. La deuxième est énergétique, l'essor de l'IA entrant en conflit direct avec l'objectif français de réindustrialisation décarbonée. La troisième, sociale, concerne notamment l'avenir professionnel des jeunes diplômés face à l'automatisation.

La ministre déléguée chargée de l'IA et du numérique, Anne Le Hénanff, ajoute à ces trois tensions une quatrième, d'ordre sociétal : le risque de détournement des systèmes d'IA à des fins malveillantes. Elle cite les menaces envers les personnes vulnérables — en écho aux controverses autour de la diffusion de deepfakes pornographiques via Grok — mais aussi envers les entreprises elles-mêmes, exposées à des attaques exploitant des contenus manipulés par IA. Les 26 recommandations de la CSNP s'articulent autour de cinq axes : piloter, accompagner (notamment l'adoption de solutions françaises ou européennes), former, renforcer le dialogue social, et simplifier le cadre réglementaire existant.

Impact France/UE

La CSNP formule 26 recommandations directement adressées aux entreprises et décideurs français, articulant ambition industrielle et conformité à l'AI Act européen, avec un appel explicite au dialogue social pour anticiper les suppressions de postes liées à l'IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
1MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
2Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi
3Next INpact 

Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi

Le 8 avril 2026, le Sénat français adoptait à l'unanimité une proposition de loi instaurant une présomption d'exploitation des contenus culturels par les fournisseurs d'intelligence artificielle. Portée par la sénatrice Agnès Evren (LR), la loi renverse la charge de la preuve : ce n'est plus au créateur de démontrer que son œuvre a été utilisée pour entraîner un modèle d'IA, mais à l'entreprise d'IA de prouver qu'elle ne l'a pas fait. Le texte attend désormais son inscription à l'ordre du jour de l'Assemblée nationale. Pour accélérer le processus, 81 organisations culturelles et de l'information, dont la SACEM, la SCAM, l'ADAMI et le SNEP, ont publié une lettre ouverte appelant les députés à examiner rapidement la proposition. Ces acteurs demandent également la création d'un marché de licences volontaires qui permettrait une rémunération négociée des ayants droit. L'enjeu est considérable pour des secteurs qui voient leurs œuvres aspirées massivement par des entreprises technologiques sans contrepartie financière ni consentement préalable. La présomption légale offrirait à l'industrie culturelle un levier juridique concret face à des acteurs comme OpenAI ou Google, régulièrement visés par des plaintes pour violation du droit d'auteur. Pour les organisations signataires, l'objectif n'est pas le procès systématique mais la création des conditions d'un vrai rapport de force : forcer les entreprises d'IA à venir négocier, plutôt que d'ignorer les créateurs. Un marché de licences structuré garantirait à la fois la compétitivité de la presse et des industries créatives, et offrirait aux modèles d'IA une sécurité juridique présentée comme un avantage concurrentiel. Le passage du texte à l'Assemblée nationale est toutefois loin d'être acquis. Le gouvernement a émis des réserves importantes : la ministre déléguée chargée du numérique, Anne Le Hénanff, a averti que la présomption d'exploitation exposerait l'ensemble des acteurs économiques utilisant de l'IA, des start-up aux entreprises du CAC 40, à un risque de contentieux « dévastateur ». La France se situe ainsi à contre-courant de la tendance mondiale : au Royaume-Uni, le gouvernement avait au contraire envisagé une exception au droit d'auteur autorisant l'entraînement commercial des modèles sans permission préalable, avant de suspendre le projet sous pression des artistes. À l'échelle européenne, le débat sur l'équilibre entre innovation et droits des créateurs reste ouvert, et l'issue française pourrait peser sur la norme continentale.

UESi adoptée par l'Assemblée nationale, cette loi française renversant la charge de la preuve sur l'entraînement des IA pourrait établir un précédent réglementaire européen et contraindre les fournisseurs d'IA opérant en France à négocier des licences avec les ayants droit culturels.

💬 Renverser la charge de la preuve, c'est le seul levier qui avait du sens dans ce bras de fer. Les créateurs ne peuvent pas prouver ce qui se passe dans les pipelines d'entraînement de Google ou OpenAI, mais les boîtes d'IA, elles, peuvent vérifier leurs données sources, et c'est exactement ça qui force la négociation. Reste à voir si l'Assemblée suit, ou si les lobbies tech ont eu le temps de faire leur travail.

RégulationReglementation
1 source
La Chine sanctionne des plateformes IA pour absence de marquage des contenus générés par IA
4TechNode 

La Chine sanctionne des plateformes IA pour absence de marquage des contenus générés par IA

La Cyberspace Administration of China (CAC), le régulateur national de l'internet, a annoncé mardi avoir sanctionné trois plateformes numériques pour manquement à l'obligation d'identifier clairement les contenus générés par intelligence artificielle. Les applications visées sont CapCut, l'éditeur de vidéo populaire détenu par ByteDance, Maoxiang (aussi connue sous le nom Cat Box) et Dreamina AI. Selon le CAC, ces plateformes ont enfreint plusieurs textes législatifs, dont la loi sur la cybersécurité, les mesures provisoires sur l'administration des services d'IA générative, et les dispositions spécifiques sur l'identification des contenus synthétiques générés par IA. Les mesures imposées comprennent des entretiens de mise en conformité avec les régulateurs locaux, des ordres de rectification, des avertissements formels et un renforcement de la responsabilité des personnels concernés. Ces sanctions envoient un signal clair sur la volonté de Pékin d'imposer la transparence algorithmique à grande échelle. L'obligation d'étiquetage des contenus IA vise directement les utilisateurs finaux : elle leur permet de distinguer ce qui est authentique de ce qui est généré ou manipulé numériquement, une distinction devenue critique à l'heure où les deepfakes et les images synthétiques prolifèrent sur les réseaux sociaux. Pour des plateformes comme CapCut, dont l'audience mondiale dépasse des centaines de millions d'utilisateurs, la mise en conformité représente un défi technique et opérationnel considérable. Un responsable du CAC a déclaré qu'il n'existe "aucune marge de compromis ni de contournement" aux règles en vigueur. Cette action s'inscrit dans un cadre réglementaire que la Chine a construit méthodiquement depuis 2022, anticipant de plusieurs années les efforts législatifs occidentaux comparables. Les mesures provisoires sur l'IA générative, entrées en vigueur en août 2023, font partie d'un dispositif progressif qui couvre désormais aussi bien la recommandation algorithmique que la génération de texte et d'images. Avec des acteurs comme ByteDance, Baidu ou Alibaba qui déploient des fonctionnalités IA à un rythme soutenu, le régulateur cherche à prévenir les dérives avant qu'elles ne s'installent, tout en consolidant son rôle de référence mondiale dans la gouvernance de l'IA.

UEL'AI Act européen impose des obligations similaires d'étiquetage des contenus IA dès 2025-2026 ; les sanctions chinoises illustrent concrètement ce qu'une mise en conformité forcée implique pour des plateformes comme CapCut, massivement utilisées en France.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour