AI Act : l'Europe assouplit les délais mais interdit les deepfakes sexuels - le double jeu qui redéfinit la régulation IA
569 voix pour reporter l'AI Act, zéro tolérance sur la nudification non consentie : Bruxelles vient de révéler sa stratégie à deux vitesses, et ses angles morts sont béants
Sommaire (18 sections)
- Que reporte exactement le Parlement européen, et qui a vraiment gagné ce vote ?
- L'interdiction des deepfakes sexuels est-elle juridiquement solide ou symboliquement creuse ?
- L'attaque LiteLLM expose-t-elle une faille systémique que l'AI Act ne couvre pas ?
- GitHub et Wikipedia ont pris des décisions opposées la même semaine, et c'est le vrai problème
- La France veut-elle sa propre loi IA sur la propriété intellectuelle, et à quel prix ?
- Ce que ça signifie pour vous
- Pour les développeurs et équipes techniques
- Pour les décideurs et dirigeants
- Pour l'écosystème français et européen
- À surveiller dans les 90 prochains jours
- Questions fréquentes
- Qu'est-ce que le report de l'AI Act change concrètement pour les entreprises en 2026 ?
- Les deepfakes sexuels sont-ils désormais illégaux partout en Europe ?
- Mon code sur GitHub peut-il être utilisé pour entraîner l'IA de Microsoft ?
- L'attaque LiteLLM me concerne-t-elle ?
- Qu'est-ce que la proposition de loi française change pour les créateurs ?
- Le méta-signal de cette semaine
- Sources
Temps de lecture : 12 min | Basé sur 103 articles de 26 sources | Semaine du 23 au 30 mars 2026
Jeudi dernier, le Parlement européen a accompli deux choses en apparence contradictoires en une seule séance. Il a voté pour donner plus de temps aux entreprises pour se conformer à l'AI Act, et il a simultanément durci les interdictions sur les deepfakes sexuels.
Cette schizophrénie apparente est en réalité une stratégie cohérente. Et elle redéfinit le rapport de force entre Bruxelles, l'industrie IA et les citoyens européens pour les années à venir.
Sauf que la même semaine, une attaque supply chain compromise LiteLLM, GitHub retourne sa veste sur les données utilisateurs, et la France prépare sa propre loi sur la propriété intellectuelle. Le paysage régulatoire de l'IA en Europe n'a jamais été aussi fragmenté. Ni aussi révélateur.
Que reporte exactement le Parlement européen, et qui a vraiment gagné ce vote ?
Le vote est sans ambiguïté : 569 pour, 45 contre, 23 abstentions. Ce n'est pas une victoire arrachée. C'est un consensus.
Ce que le vote repousse, c'est précis. Les systèmes à haut risque (médical, industriel, judiciaire) gagnent jusqu'en décembre 2027 pour se mettre en conformité, contre une échéance initiale à août 2026. Les systèmes relevant de réglementations sectorielles spécifiques ont encore plus de marge. Ce que le vote ne touche pas, c'est l'Article 5. Les six interdictions absolues (manipulation cognitive, scoring social, reconnaissance biométrique en temps réel dans les espaces publics, police prédictive, exploitation des vulnérabilités, inférence émotionnelle) restent en vigueur immédiatement, sans délai, sans exception.
Le cas français qui gêne : L'Article 5 interdit la reconnaissance biométrique en temps réel dans l'espace public. Or la police française l'utilise massivement. La base TAJ (Traitement d'Antécédents Judiciaires) a enregistré près d'un million de requêtes de reconnaissance faciale en 2024 (contre 375 000 en 2019). L'IGPN, l'inspection interne de la police, a elle-même documenté en 2023 que la reconnaissance faciale était "très fréquemment utilisée lors de contrôles d'identité dans la rue", ce qui est illégal au regard du Code de procédure pénale. Le logiciel israélien BriefCam a été utilisé clandestinement depuis 2015 sans déclaration à la CNIL. Et le ministère de l'Intérieur a officiellement déclaré qu'il n'y a "pas de reconnaissance faciale en France" pendant que son propre service d'inspection documentait le contraire. Peine théorique : 5 ans de prison et 300 000 euros d'amende. En pratique, personne n'est poursuivi. Cinq mois après l'entrée en vigueur de l'Article 5, la France n'a toujours pas désigné ses autorités nationales compétentes pour le faire appliquer. L'Europe vote des interdictions à 569 voix, et son propre pays fondateur ne désigne même pas l'arbitre.
L'UE est face à un retard en matière d'IA qui frôle le point de non-retour. 420 milliards de dollars injectés aux États-Unis, une fraction en Europe. Le rapport Draghi plane sur ce vote. Bruxelles a intégré qu'un AI Act trop contraignant trop vite risquait de décourager les investissements au profit des États-Unis et de la Chine. La pression venait d'une coalition inhabituelle : startups européennes (dont Mistral), grands groupes industriels allemands et français, lobbyistes américains des Big Tech. Tous alignés sur les délais, pas sur les objectifs. Pas par conviction commune, mais par panique partagée.
La CSNP française a publié son avis la même semaine. La Commission Supérieure du Numérique et des Postes appelle à la coordination plutôt qu'à la fragmentation, et pointe l'écart de financement : 420 milliards de dollars injectés aux États-Unis, contre une fraction en Europe. Même côté national, la multiplication des régulations inquiète.
À retenir : GPAI (General Purpose AI) désigne les modèles d'IA généralistes comme GPT-4, Claude ou Gemini, par opposition aux systèmes dédiés à une tâche spécifique. L'AI Act impose des obligations particulières aux GPAI à impact systémique, dont le seuil est fixé à 10^25 FLOPs d'entraînement. Ces obligations portent sur la transparence des données d'entraînement et l'évaluation des risques systémiques. Ce sont précisément ces systèmes qui bénéficient du report.
Le point de vue contraire : Le report n'est peut-être pas la victoire industrielle qu'il semble être. En allongeant les délais, Bruxelles réduit aussi la pression d'innovation sur les entreprises européennes pour développer des outils de conformité natifs. Les Américains ne vont pas attendre 2027 pour définir leurs propres standards. Dans 18 mois, ce sera eux qui exporteront les formats de documentation et les frameworks d'audit, et l'Europe qui s'y adaptera.
L'interdiction des deepfakes sexuels est-elle juridiquement solide ou symboliquement creuse ?
Le Parlement interdit la création et la diffusion d'images pornographiques générées par IA sans consentement. Le texte voté vise explicitement les polémiques autour de Grok, le chatbot de xAI, qui avait produit de telles images faute de garde-fous. Difficile de ne pas y voir aussi un message politique adressé à Elon Musk, dont les relations avec la Commission se dégradent depuis des mois sur d'autres terrains (modération de X, conformité au DSA).
La mesure cible aussi les apps de nudification, ces outils qui transforment des photos de personnes habillées en images nues. Ce n'est pas un phénomène marginal. Cette technologie est utilisée massivement contre des lycéennes dans plusieurs pays européens.
À retenir : Les apps de nudification combinent l'inpainting (remplacement de zones d'image par du contenu généré) et des modèles génératifs entraînés sur des corpus explicites. Le résultat est une image synthétique photoréaliste qui ne nécessite aucune manipulation graphique manuelle. N'importe qui avec une photo de profil peut en être victime.
Personne ne conteste le fond. 569 voix pour, et c'est normal. Mais la question de l'intention mérite d'être posée. L'UE est embourbée dans une mélasse décisionnelle sur les vrais sujets structurants de l'IA (conformité des systèmes à haut risque, GPAI, données d'entraînement). Voter une interdiction des deepfakes sexuels, c'est le geste le plus consensuel et le plus visible possible. Ça ne coûte rien politiquement, ça occupe les gros titres, et ça permet de montrer qu'on "agit" pendant que les dossiers industriels prennent du retard.
Le problème d'exécution renforce cette lecture. Détecter si une image est générée par IA reste techniquement non résolu. Les plateformes de distribution les plus utilisées pour ce type de contenu (Telegram, forums offshore, réseaux décentralisés) sont hors juridiction européenne. Voter l'interdiction, c'est une chose. L'appliquer, c'en est une autre. Et c'est précisément ce décalage entre l'annonce et la capacité d'exécution qui donne à cette mesure son parfum de communication institutionnelle.
L'IWF avait alerté en amont sur l'explosion des contenus pédocriminels générés par IA. La même infrastructure technique, les mêmes modèles de diffusion, sert pour les deux catégories de contenu désormais interdit. Ce continuum légal inédit va forcer les régulateurs à traiter ensemble des problèmes qu'ils géraient séparément.
Le paradoxe OpenAI est révélateur. La même semaine, la société abandonnait définitivement son projet de mode adulte pour ChatGPT, citant la pression des investisseurs. La régulation de marché a devancé la régulation légale sur ce sujet précis. Les investisseurs ont fait en deux semaines ce que Bruxelles mettra deux ans à codifier.
L'attaque LiteLLM expose-t-elle une faille systémique que l'AI Act ne couvre pas ?
LiteLLM est le proxy standard pour orchestrer plusieurs APIs IA (OpenAI, Anthropic, Mistral) dans les stacks entreprise. L'infecter revient à installer un mouchard au coeur du cerveau IA de milliers d'organisations.
L'attaque a suivi un schéma chirurgical : le groupe TeamPCP a d'abord compromis Trivy, un scanner de sécurité d'Aqua Security, via une faille dans ses GitHub Actions. Le pipeline CI/CD de LiteLLM utilisait Trivy sans version pinnée. Quand le Trivy compromis s'est exécuté dans le pipeline de build, il a volé le jeton d'authentification PyPI. Avec ce jeton légitime, TeamPCP a publié deux versions malveillantes (1.82.7 et 1.82.8). Trois heures en ligne, 47 000 téléchargements. LiteLLM, c'est 3,4 millions de téléchargements par jour.
Comment est-ce possible en 2026 ? PyPI a rendu l'authentification à deux facteurs obligatoire depuis 2024. Mais la 2FA ne protège pas les jetons API, qui sont ce que les pipelines CI/CD utilisent pour publier. Le système Trusted Publishers (basé sur OIDC) existe, mais LiteLLM ne l'utilisait pas. Seuls 17% des packages utilisent les attestations de signature. La sécurité de PyPI est largement optionnelle, et la faille n'est pas dans PyPI lui-même, mais dans la chaîne de confiance qui y mène.
Le malware volait les clés API OpenAI, Anthropic, AWS, les configurations Kubernetes, les identifiants de bases de données, les secrets CI/CD. Jim Fan, directeur IA chez NVIDIA, a alerté personnellement sur X. Le niveau de l'intervenant en dit long sur la gravité.
À retenir : Une attaque par la chaîne d'approvisionnement logicielle cible un composant partagé plutôt que la cible finale. On n'attaque pas la forteresse, on infecte le fournisseur de briques. Dans l'écosystème IA, où des centaines d'entreprises dépendent des mêmes bibliothèques open source, l'effet multiplicateur est redoutable. TeamPCP a aussi frappé Checkmarx, 45 packages npm, Telnyx et des extensions OpenVSX.
La connexion avec l'AI Act est directe. Le règlement européen, entré en vigueur progressivement depuis août 2024, classe les systèmes IA critiques en "haut risque" et impose des audits de conformité. Mais il ne prévoit aucune certification des dépendances open source tierces. Tu peux auditer ton modèle pendant des mois : si le proxy qui relaie tes appels est compromis, ton audit ne vaut rien. C'est un angle mort béant, et cette attaque vient de le rendre visible.
GitHub et Wikipedia ont pris des décisions opposées la même semaine, et c'est le vrai problème
Wikipedia a voté une interdiction quasi-totale du contenu IA généré pour ses articles. Décision éditoriale, pas légale, mais qui impacte la plus grande base de connaissances publique du web : 6,7 millions d'articles en anglais, et une version francophone directement concernée.
Simultanément, GitHub annonçait l'inverse. Les données utilisateurs alimenteront Copilot par défaut, avec opt-out requis. Traduction : si tu ne vas pas cocher une case dans tes paramètres, ton code propriétaire peut nourrir les modèles de Microsoft.
Ces deux décisions opposées dans la même semaine illustrent une fracture fondamentale. En l'absence de standard légal commun, chaque plateforme invente sa propre politique IA selon ses intérêts commerciaux. Wikipedia protège l'intégrité éditoriale parce que sa valeur est précisément la fiabilité humaine vérifiée. GitHub monétise les données parce que c'est son modèle. Aucune des deux décisions n'est soumise à une obligation légale claire.
L'AI Act n'adresse pas directement l'entraînement sur données utilisateurs publiées sur des plateformes tierces. C'est précisément le terrain que cherche à occuper la proposition de loi française et les discussions sur la rémunération des créateurs.
TikTok illustre l'échec de l'auto-régulation : des publicités générées par IA de grandes marques, Samsung inclus, circulent sans le label obligatoire pourtant imposé par la plateforme elle-même. Si les plateformes ne respectent pas leurs propres règles, la question de qui va les faire respecter devient urgente.
La France veut-elle sa propre loi IA sur la propriété intellectuelle, et à quel prix ?
Le Conseil d'État a validé la proposition de loi sénatoriale. Les fournisseurs d'IA devront prouver qu'ils n'ont pas utilisé d'oeuvres protégées sans autorisation, inversant la charge de la preuve actuellement portée par les auteurs.
L'intention est louable. Mais la question qui se pose est plus brutale : cette loi est-elle seulement applicable ? Et surtout, ne risque-t-elle pas de priver les citoyens européens de l'accès aux meilleurs modèles d'IA ? Si les fournisseurs américains et chinois jugent que la conformité au droit français coûte plus cher que le marché ne rapporte, ils ne se conformeront pas. Ils partiront.
À retenir : L'inversion de la charge de la preuve change tout. En droit actuel, c'est aux auteurs de prouver que leur oeuvre a été utilisée dans un modèle d'IA, ce qui est quasi-impossible vu que les modèles sont des boîtes noires. La proposition française inverse ce principe : c'est au fournisseur d'IA de démontrer qu'il dispose des droits nécessaires. Comme en droit alimentaire, où c'est au fabricant de prouver la sécurité de son produit, pas au consommateur de prouver qu'il a été empoisonné.
La taxe MISTRAL proposée par Arthur Mensch éclaire l'intention réelle. En proposant une contribution volontaire des entreprises IA pour rémunérer les créateurs, Mistral se positionne comme acteur responsable tout en mettant la pression sur les géants américains. Une startup française qui propose de payer pour les données qu'elle utilise, face à des entreprises qui ne l'ont jamais fait : le contraste est calculé. Mais derrière le discours vertueux, c'est aussi une arme concurrentielle. Imposer des contraintes que tes concurrents ne peuvent pas respecter aussi facilement que toi, c'est de la stratégie industrielle déguisée en éthique.
Le risque de fragmentation est sérieux. Si la France adopte sa propre loi sur la propriété intellectuelle et l'IA avant que la Commission publie ses lignes directrices harmonisées, elle crée exactement le type de divergence réglementaire que l'AI Act cherchait à éviter. Une startup IA française devrait alors naviguer deux régimes potentiellement contradictoires sur les données d'entraînement. Ce serait un cauchemar administratif qui freinerait l'innovation bien plus sûrement que n'importe quelle concurrence américaine. L'Europe unie sur la régulation IA, c'était l'objectif. Chaque semaine qui passe l'en éloigne un peu plus.
La connexion transatlantique confirme que ce désordre n'est pas européen : il est global. Sanders et AOC proposent un moratoire sur les centres de données IA aux États-Unis. Les démocrates du Sénat cherchent à inscrire les lignes rouges d'Anthropic dans la loi. Et une juge fédérale bloque les sanctions Trump contre Anthropic en qualifiant la décision d'"orwellienne". L'IA arrive comme un raz de marée réglementaire, et personne, ni en Europe ni aux États-Unis, n'a de cadre cohérent pour l'absorber. La régulation se joue sur trois fronts (UE, France, USA) avec des logiques incompatibles, et aucun standard commun ne se dessine.
Ce que ça signifie pour vous
Pour les développeurs et équipes techniques
Audite immédiatement tes dépendances LiteLLM. Si tu installes depuis PyPI sans hash verification ou sans version exactement pinnée (litellm==x.y.z dans ton requirements.txt), tu as pu être exposé au même vecteur d'attaque. L'analyse Snyk est publique. Renouvelle tes clés API OpenAI, Anthropic et Mistral par précaution. C'est 10 minutes de travail contre un risque réel.
Code sur GitHub sans plan Enterprise ? À compter du 24 avril 2026, tes interactions Copilot alimenteront les modèles de Microsoft par défaut. L'opt-out existe, mais il faut aller le chercher : github.com/settings/copilot/features, section Privacy, deux cases à décocher manuellement. Pour les organisations : github.com/organizations/[org]/settings/copilot. Un opt-out noyé dans les paramètres avancés, pour une collecte de données par défaut : c'est exactement le type de pratique que le RGPD est censé empêcher. La CNIL pourrait se pencher sur la question.
Si tu construis des apps IA déployées dans l'UE, l'AI Act va bientôt exiger une documentation de conformité incluant les dépendances tierces. Le report ne supprime pas l'obligation. Il décale l'échéance. Commence ton inventaire de composants GPAI maintenant, avant que les nouvelles dates soient publiées par la Commission.
À retenir : GPAI (General Purpose AI) désigne les modèles d'IA généralistes capables de réaliser un large éventail de tâches (GPT-4, Claude, Gemini, Mistral Large). L'AI Act leur impose des obligations spécifiques à partir d'un seuil de puissance (10^25 FLOPs d'entraînement) : transparence sur les données utilisées, évaluation des risques systémiques, et tests de sécurité. Ce sont ces obligations qui viennent d'être reportées à décembre 2027.
Pour les décideurs et dirigeants
Le report de l'AI Act n'est pas une amnistie. Les interdictions absolues de l'Article 5 s'appliquent dès maintenant. Le Big Data a détaillé chacune des six catégories : manipulation cognitive, scoring social, reconnaissance biométrique en temps réel, police prédictive, exploitation des vulnérabilités, inférence émotionnelle. Si ton système touche à l'un de ces domaines, le calendrier ne compte plus.
Sur le contenu généré par IA : si ta marque produit ou distribue du contenu IA sans labelling clair, l'affaire TikTok/Samsung vient de montrer que même les grandes marques s'exposent à des enquêtes. La transparence sur l'usage de l'IA dans la production de contenu n'est plus optionnelle. C'est une question de crédibilité, et bientôt de conformité légale.
Sur la propriété intellectuelle : si ton stack utilise des modèles entraînés sur des données tierces et que tu opères en France, la proposition sénatoriale t'exposera à une inversion de la charge de la preuve. Anticipe contractuellement avec tes fournisseurs IA dès maintenant. Demande-leur explicitement leur politique sur les données d'entraînement. Si tu n'obtiens pas de réponse claire, tu auras du mal à te défendre demain.
Pour l'écosystème français et européen
L'émergence simultanée d'une régulation bruxelloise et d'une proposition nationale française crée un risque réel de fragmentation du marché unique. Les startups IA françaises pourraient se retrouver à naviguer deux régimes aux exigences contradictoires sur les données d'entraînement. Pour une jeune pousse qui essaie de lever des fonds et de livrer un produit, c'est le pire scénario imaginable : de l'incertitude juridique ajoutée à un retard technologique déjà préoccupant. L'AI Act devait unifier le cadre européen. Chaque initiative nationale non coordonnée fait exactement l'inverse.
La taxe MISTRAL éclaire une autre dimension de cette stratégie. Mistral se positionne comme architecte d'un modèle alternatif, et la France cherche à peser dans la définition des standards internationaux via ce véhicule. C'est une fenêtre d'influence diplomatique rare. Mais c'est aussi un pari risqué : imposer des contraintes que les géants américains ne peuvent pas respecter aussi facilement, c'est de la politique industrielle. Si ça fonctionne, la France aura défini les règles du jeu. Si ça échoue, elle aura juste freiné ses propres acteurs.
Le vote sur les deepfakes crée un précédent institutionnel. L'UE prouve qu'elle peut légiférer vite et avec une majorité écrasante sur les atteintes individuelles liées à l'IA. La prochaine cible probable est la désinformation électorale générée par IA, à anticiper avant les prochaines échéances électorales en Europe. Mais cette perspective ouvre un débat autrement plus explosif : qui décide de ce qui constitue de la désinformation, et selon quels critères ? Si l'UE légifère sur ce terrain avec la même approche que pour les deepfakes (interdiction large, exécution floue), le risque de dérive vers la censure politique est réel.
À surveiller dans les 90 prochains jours
| Prédiction | Horizon | Confiance |
|---|---|---|
| La France adopte en première lecture un texte national sur la propriété intellectuelle et l'IA avant les lignes directrices harmonisées de la Commission européenne | 6 mois | Haute |
| Au moins une plateforme majeure (Meta, X ou TikTok) reçoit une mise en demeure officielle d'un régulateur national européen pour non-respect des règles de labelling des contenus IA | 3 mois | Moyenne |
| LiteLLM ou un registry PyPI/npm majeur implémente un mécanisme obligatoire de signature cryptographique des releases pour les packages IA les plus téléchargés | 3 mois | Moyenne |
| OpenAI relance une offre de contenu adulte sous forme contractuelle B2B via API uniquement, avec vérification d'identité obligatoire | 6 mois | Basse |
Questions fréquentes
Qu'est-ce que le report de l'AI Act change concrètement pour les entreprises en 2026 ?
Il allonge les délais de mise en conformité pour les systèmes IA à haut risque et les modèles GPAI, mais n'annule aucune obligation. Les interdictions absolues de l'Article 5 restent en vigueur immédiatement. Tu as plus de temps pour préparer ta documentation, mais le risque légal actuel demeure entier.
Les deepfakes sexuels sont-ils désormais illégaux partout en Europe ?
Le Parlement européen a adopté une résolution les interdisant, mais une résolution n'est pas un règlement directement contraignant : elle doit être traduite en législation formelle. Plusieurs États membres disposent déjà de lois nationales couvrant les images intimes non consenties, y compris les deepfakes. L'application reste inégale selon les pays.
Mon code sur GitHub peut-il être utilisé pour entraîner l'IA de Microsoft ?
À compter du 24 avril 2026, GitHub utilisera par défaut les données d'interaction Copilot pour entraîner ses modèles IA. Les comptes Business et Enterprise sont exemptés, ainsi que les étudiants. Pour les utilisateurs Free, Pro et Pro+, l'opt-out se fait sur github.com/settings/copilot/features, section Privacy. Pour les organisations : github.com/organizations/[org]/settings/copilot. Agis avant le 24 avril.
L'attaque LiteLLM me concerne-t-elle ?
Si tu utilises LiteLLM via PyPI sans version précisément pinnée, tu as pu installer une version compromise. Vérifie les hashs de tes packages installés, audite tes logs Kubernetes pour des connexions sortantes inhabituelles, et renouvelle immédiatement toutes tes clés API liées à l'environnement concerné.
Qu'est-ce que la proposition de loi française change pour les créateurs ?
Elle inverserait la charge de la preuve : au lieu que les auteurs prouvent qu'un modèle a utilisé leurs oeuvres (quasi-impossible techniquement), ce serait aux fournisseurs d'IA de démontrer qu'ils ont les droits nécessaires. Validée par le Conseil d'État, elle est en cours d'examen parlementaire et pourrait créer une divergence avec la régulation européenne si adoptée avant les lignes directrices de la Commission.
Le méta-signal de cette semaine
Ce n'est pas le report de l'AI Act. C'est la bifurcation assumée de la stratégie régulatoire européenne.
L'UE a tacitement accepté qu'elle ne peut pas tout réguler à la même vitesse. Elle cède du terrain sur les délais industriels, là où les lobbys sont puissants et les enjeux économiques visibles. Et elle construit des murs sur les atteintes individuelles les plus choquantes : deepfakes sexuels, contenus pédocriminels, manipulation cognitive.
Cette asymétrie reflète une réalité politique profonde. Il est plus facile d'obtenir 569 voix pour interdire la nudification non consentie que d'expliquer à un parlement pourquoi une startup doit auditer ses modèles GPAI en 18 mois plutôt que 36.
La vraie question pour 2026 : cette stratégie des deux vitesses sera-t-elle suffisante ? Ou laissera-t-elle des failles exploitables précisément là où la régulation vient d'être assouplie, pendant que la France joue sa propre partition et que les États-Unis n'arrivent même pas à se mettre d'accord entre eux ?
Sources
- Le Parlement européen repousse la régulation de l'IA et veut interdire la nudification (Next INpact)
- L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA (The Verge AI)
- AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels (01net)
- AI Act : les usages interdits, impossible à rendre conformes (Le Big Data)
- IA : pour éviter la rupture du pacte social, la CSNP promeut la coordination (Next INpact)
- Le Parlement européen interdit les images pornographiques générées par IA (Le Monde Pixels)
- Images et vidéos pédocriminelles crédibles générées par IA se multiplient (Next INpact)
- OpenAI met en pause pour une durée indéterminée la sortie de sa version adulte de ChatGPT (Next INpact)
- Le proxy IA populaire LiteLLM infecté par un malware qui se propage dans les clusters Kubernetes (The Decoder)
- Piratage de LiteLLM : Un cheval de Troie dans les outils d'IA des entreprises (ZDNET FR)
- Cinq jours pour infiltrer, trois heures pour tout voler (Numerama)
- Une cyberattaque en chaîne au coeur de l'IA sème la panique (01net)
- Wikipedia interdit les articles générés par IA (The Verge AI)
- Pourquoi Wikipédia bannit presque totalement les articles générés par l'IA (Numerama)
- GitHub fait machine arrière et va bien entraîner ses IA sur vos données (Numerama)
- GitHub Copilot : Microsoft va utiliser vos données pour alimenter son IA (Les Numériques IA)
- La politique de TikTok sur les publicités IA ne fonctionne pas (The Verge AI)
- Mettre fin au pillage des auteurs par l'IA : la proposition de loi validée par le Conseil d'État (01net)
- L'IA va-t-elle devoir prouver qu'elle ne copie pas ? La France veut changer les règles (Siècle Digital)
- La taxe MISTRAL : une base de négociation pour l'Europe ? (FrenchWeb)
- Face aux tensions sur les contenus, le fondateur de Mistral AI propose une taxe IA (Siècle Digital)
- Sanders et AOC proposent d'interdire la construction de centres de données (TechCrunch AI)
- Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic (The Decoder)
- Sanctions de Trump contre Anthropic : la justice suspend les mesures (Frandroid)
- Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement (Wired AI)
- Wikipédia vient de prendre une mesure radicale contre l'IA (Presse-citron)
Nos prédictions
| Prédiction | Horizon | Confiance | Statut |
|---|---|---|---|
| La France adopte en première lecture un texte national sur la propriété intellectuelle et l'IA avant que la Commission européenne ne publie ses lignes directrices harmonisées sur le même sujet | 6 mois | haute | En cours |
| Au moins une plateforme majeure (Meta, X ou TikTok) reçoit une mise en demeure officielle d'un régulateur national européen pour non-respect des règles de labelling des contenus IA, dans les 90 jours suivant la publication formelle du texte sur les deepfakes | 3 mois | moyenne | En cours |
| LiteLLM ou un registry PyPI/npm majeur implémente un mécanisme obligatoire de signature cryptographique des releases pour les packages IA les plus téléchargés | 3 mois | moyenne | En cours |
| OpenAI relancera une offre de contenu adulte sous forme contractuelle B2B via API uniquement (clients vérifiés, cas d'usage explicites), contournant la pression des investisseurs tout en répondant à la demande du marché | 6 mois | basse | En cours |
Questions fréquentes
Qu'est-ce que le report de l'AI Act change concrètement pour les entreprises en 2026 ?▾
Les deepfakes sexuels sont-ils désormais illégaux partout en Europe ?▾
Mon code sur GitHub peut-il être utilisé pour entraîner l'IA de Microsoft ?▾
L'attaque LiteLLM me concerne-t-elle et comment vérifier si je suis touché ?▾
Qu'est-ce que la proposition de loi française sur l'IA et la propriété intellectuelle change pour les créateurs ?▾
Une analyse comme celle-ci chaque semaine
Abonnez-vous pour recevoir le dossier hebdomadaire directement dans votre boîte mail.
S'abonner gratuitement