Aller au contenu principal

Régulation — page 2

172 articles · page 2 sur 4

Régulation de l'IA : AI Act européen, lois, décisions de justice et cadres juridiques.

« La Silicon Valley a compris avant tout le monde que la guerre du futur serait une guerre logicielle »
51Le Monde Pixels RégulationReglementation

« La Silicon Valley a compris avant tout le monde que la guerre du futur serait une guerre logicielle »

Georges Nahon, ancien directeur général d'Orange Labs, publie dans Le Monde une tribune dans laquelle il interroge la nécessité d'une nationalisation partielle, voire totale, des grandes entreprises d'intelligence artificielle générative. Face à la montée en puissance de l'IA dans les stratégies militaires mondiales, il soulève une question que peu d'acteurs institutionnels osent encore poser publiquement : peut-on laisser des technologies aussi décisives entre des mains entièrement privées ? L'enjeu est considérable. Si la guerre du futur est avant tout une guerre logicielle — comme le titre de la tribune l'affirme —, alors les entreprises qui maîtrisent les modèles de langage les plus avancés détiennent un avantage stratégique comparable à celui que représentaient autrefois l'armement nucléaire ou le contrôle des ressources énergétiques. Laisser cette puissance aux seules mains d'acteurs privés, non élus et peu régulés, pose des questions démocratiques et sécuritaires fondamentales. La Silicon Valley a, selon Nahon, anticipé bien avant les États cette convergence entre IA civile et militaire. Des contrats comme ceux de Palantir, Microsoft ou Google avec l'armée américaine illustrent ce mouvement. En Europe, la question de la souveraineté numérique resurgit avec une acuité nouvelle, alors que ni la France ni l'Union européenne ne disposent de champions comparables capables de peser dans cette nouvelle course aux armements algorithmiques.

UELa tribune soulève directement la question de la souveraineté numérique française et européenne, pointant l'absence de champions IA capables de peser dans la nouvelle course aux armements algorithmiques face aux acteurs américains.

1 source
Sanctions de Trump contre Anthropic : la justice suspend les mesures
52Frandroid 

Sanctions de Trump contre Anthropic : la justice suspend les mesures

Une juge fédérale américaine a suspendu les sanctions décidées par l'administration Trump à l'encontre d'Anthropic, la société d'intelligence artificielle fondatrice du chatbot Claude. La décision judiciaire, rendue récemment, bloque temporairement l'application de ces mesures gouvernementales, dont la nature exacte n'a pas été entièrement divulguée, mais qui ciblaient directement l'entreprise de San Francisco en raison de ses positions publiques sur l'éthique de l'IA. La juge a estimé que ces sanctions constituaient une violation du premier amendement de la Constitution américaine, qui protège la liberté d'expression. En pénalisant Anthropic pour ses prises de position éthiques — notamment ses mises en garde répétées sur les risques liés au développement non régulé de l'intelligence artificielle — l'administration aurait utilisé le pouvoir exécutif pour réprimer un discours légalement protégé. Cette suspension est une victoire significative pour l'entreprise, dont la valorisation dépasse les 60 milliards de dollars après sa dernière levée de fonds. Ce bras de fer s'inscrit dans une tension plus large entre l'administration Trump et certains acteurs de la Silicon Valley jugés trop critiques ou trop enclins à soutenir une régulation de l'IA. Anthropic, cofondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, s'est distinguée par une approche explicitement orientée vers la sécurité et la responsabilité. L'affaire pourrait faire jurisprudence sur les limites du pouvoir exécutif face aux entreprises technologiques qui s'engagent dans le débat public.

RégulationReglementation
1 source
Anthropic obtient une injonction contre l'administration Trump dans l'affaire du Pentagone
53TechCrunch AI 

Anthropic obtient une injonction contre l'administration Trump dans l'affaire du Pentagone

Un juge fédéral américain a ordonné à l'administration Trump de lever les restrictions récemment imposées à Anthropic, la société mère de l'assistant conversationnel Claude. L'injonction, prononcée par un tribunal fédéral, contraint le gouvernement à annuler des mesures qui limitaient les activités ou l'accès de l'entreprise dans le cadre de contrats liés au Pentagone. Cette décision judiciaire représente un revers significatif pour l'administration Trump dans ses tentatives de réguler ou de restreindre certaines entreprises d'intelligence artificielle. Pour Anthropic, le maintien de ses relations contractuelles avec le département de la Défense est crucial : les contrats gouvernementaux constituent une source de revenus importante et un gage de légitimité pour les acteurs de l'IA en compétition pour des marchés fédéraux estimés à plusieurs milliards de dollars. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et plusieurs acteurs technologiques, certaines entreprises ayant été ciblées par des décisions exécutives controversées. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI, cherche à s'imposer comme un partenaire de confiance du gouvernement américain face à des concurrents comme OpenAI et Google DeepMind. L'issue de ce bras de fer juridique pourrait faire jurisprudence pour d'autres sociétés d'IA confrontées à des restrictions similaires.

RégulationReglementation
1 source
Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone
54The Information AI 

Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone

Je vais rédiger l'article à partir du titre et du début fournis, complétés par mes connaissances sur cette affaire. --- Une juge fédérale californienne, Rita Lin du tribunal du district nord de Californie, a accordé à Anthropic une injonction préliminaire suspendant la désignation du Pentagone qui classait la startup d'IA comme risque pour la chaîne d'approvisionnement. Cette décision intervient pendant que le procès intenté par Anthropic contre le département de la Défense suit son cours, empêchant ainsi le ministère d'appliquer ce classement dans l'immédiat. Cette victoire juridique est significative pour Anthropic, dont la désignation par le Pentagone aurait pu l'exclure de contrats fédéraux et ternir sa réputation auprès de partenaires commerciaux. Pour une startup valorisée à plusieurs milliards de dollars et dont une partie croissante du chiffre d'affaires provient de contrats avec des agences gouvernementales et des entreprises du Fortune 500, être labellisée « risque pour la chaîne d'approvisionnement » représentait une menace commerciale directe. Cette affaire s'inscrit dans un contexte de tension croissante entre l'industrie de l'IA et les autorités réglementaires et sécuritaires américaines. La désignation du Pentagone, dont les critères exacts restent flous, illustre les inquiétudes de certains cercles de défense quant aux liens entre les grands laboratoires d'IA et des investisseurs ou partenaires étrangers. Anthropic, cofondé en 2021 par d'anciens cadres d'OpenAI, a reçu des investissements notables d'Amazon et de Google. L'issue du procès au fond pourrait établir un précédent sur la capacité du gouvernement à restreindre l'accès des entreprises d'IA aux marchés publics sans procédure contradictoire formelle.

RégulationReglementation
1 source
Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement
55Wired AI 

Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement

Un juge fédéral américain a temporairement suspendu la décision de l'administration Trump de classer Anthropic comme entité à risque dans la chaîne d'approvisionnement, empêchant ainsi cette désignation d'entrer en vigueur la semaine prochaine. La mesure conservatoire accordée par le tribunal offre à la startup d'intelligence artificielle un répit immédiat, lui permettant de poursuivre ses activités commerciales sans être soumise aux restrictions liées à ce statut. Cette désignation aurait pu avoir des conséquences significatives sur les activités d'Anthropic, notamment en matière de contrats gouvernementaux, de partenariats commerciaux et d'accès aux technologies sensibles. Un tel label, appliqué dans le cadre des mécanismes de sécurité nationale américains, peut considérablement compliquer les relations d'affaires d'une entreprise et éroder la confiance de ses clients et investisseurs. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de l'IA, alors que Washington cherche à renforcer son contrôle sur les technologies jugées stratégiques. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI et qui compte Amazon parmi ses principaux investisseurs, se retrouve ainsi au cœur d'un bras de fer juridique et politique dont l'issue pourrait influencer la manière dont d'autres entreprises du secteur sont traitées par les autorités fédérales.

UELa suspension de la désignation préserve les relations commerciales d'Anthropic avec ses partenaires européens et évite des perturbations pour les entreprises de l'UE utilisant l'API Claude.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
56Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination
57Next INpact 

IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination

La Commission Supérieure du Numérique et des Postes (CSNP) a présenté le 26 mars 2026 son avis officiel sur l'adoption de l'intelligence artificielle par les entreprises françaises, lors d'une table-ronde organisée à Paris avec les acteurs auditionnés. Le rapport, porté par le sénateur Damien Michallet (Les Républicains, Isère), identifie trois tensions structurelles qui menacent la compétitivité française : une tension financière — les États-Unis ont injecté 420 milliards de dollars dans les infrastructures numériques en 2025 seulement —, une tension énergétique qui entre en contradiction avec les objectifs de réindustrialisation décarbonée de la France, et une tension sociale autour de l'emploi des jeunes diplômés. En réponse, la CSNP formule 26 recommandations réparties en cinq axes : piloter, accompagner les entreprises vers des solutions françaises ou européennes, former, renforcer le dialogue social, et simplifier le cadre réglementaire existant. L'enjeu dépasse la seule compétitivité économique : la ministre déléguée chargée de l'IA et du numérique, Anne le Hénanff, a ajouté une quatrième tension, d'ordre sociétal, liée aux risques de détournement malveillant des systèmes d'IA. Elle cite notamment la manipulation démocratique, les atteintes aux personnes vulnérables — en écho aux débats autour des deepfakes pornographiques générés par Grok — et les cyberattaques visant les entreprises via des contenus falsifiés par IA. Pour la CSNP, ne pas adopter l'IA serait aussi dangereux que de l'adopter sans garde-fous : l'inaction risque de rompre le pacte social, en laissant des pans entiers de l'économie et de la société sans réponse face à une transformation déjà en cours. Ce rapport s'inscrit dans un contexte où la France cherche à articuler ambition industrielle et régulation responsable, coincée entre la puissance de feu américaine et le cadre normatif européen — notamment l'AI Act de l'Union européenne. La CSNP, institution consultative rattachée au Parlement, pèse par ses avis sur les grandes orientations numériques nationales. Ses recommandations en faveur d'un dialogue social « renforcé » avec les partenaires sociaux signalent une volonté d'anticiper les conflits liés aux suppressions de postes, plutôt que de les gérer après coup. La suite dépendra de la capacité du gouvernement à transformer ces 26 recommandations en mesures concrètes — un exercice auquel les rapports parlementaires français se heurtent régulièrement.

UELa CSNP formule 26 recommandations directement adressées aux entreprises et décideurs français, articulant ambition industrielle et conformité à l'AI Act européen, avec un appel explicite au dialogue social pour anticiper les suppressions de postes liées à l'IA.

RégulationReglementation
1 source
AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels
5801net 

AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels

Le Parlement européen a adopté une résolution visant à reporter certaines échéances clés de l'AI Act, le règlement européen sur l'intelligence artificielle entré en vigueur en août 2024. Les eurodéputés souhaitent notamment décaler l'application de plusieurs obligations pour donner plus de temps aux entreprises et aux États membres de s'y conformer. La chambre propose également d'inscrire dans le texte une interdiction explicite des applications d'IA permettant de générer des deepfakes sexuels non consentis. Ces ajustements ont des conséquences directes pour les développeurs et fournisseurs de systèmes d'IA en Europe : un délai supplémentaire signifie moins de pression immédiate sur la conformité, mais aussi un signal que la mise en œuvre du texte reste complexe. L'interdiction des deepfakes sexuels répond à une demande croissante de protection des victimes — majoritairement des femmes — face à une pratique en forte hausse facilitée par les outils génératifs grand public. L'AI Act est le premier cadre légal mondial complet sur l'IA, fruit de trois ans de négociations entre le Parlement, le Conseil et la Commission européenne. Son déploiement progressif jusqu'en 2026 fait l'objet de tensions entre ambitions réglementaires et compétitivité industrielle, dans un contexte où l'Europe cherche à ne pas décrocher face aux géants américains et chinois de l'IA.

UELe Parlement européen propose de reporter certaines échéances de l'AI Act et d'interdire explicitement les deepfakes sexuels non consentis, modifiant directement le calendrier de conformité pour tous les développeurs et fournisseurs de systèmes d'IA opérant sur le marché européen.

RégulationReglementation
1 source
Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok
59Le Monde Pixels 

Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok

Le Parlement européen a adopté une résolution interdisant la création et la diffusion d'images pornographiques générées par intelligence artificielle sans le consentement des personnes représentées. Ce vote intervient dans un contexte de multiplication des scandales liés aux outils de «nudification» automatisée, dont Grok, le chatbot d'xAI appartenant à Elon Musk, accusé début 2025 de produire facilement des contenus sexuels explicites, y compris à partir de photos anodines de personnes réelles. La mesure vise à combler un vide juridique flagrant : des millions de femmes ont déjà été victimes de deepfakes pornographiques non consentis, avec des conséquences graves sur leur vie professionnelle et personnelle. En ciblant explicitement les contenus générés par IA, le Parlement européen entend responsabiliser les plateformes qui hébergent ces outils et durcir les sanctions contre leurs auteurs, dans le prolongement de la directive sur les violences faites aux femmes adoptée en 2024. Cette décision s'inscrit dans une volonté plus large de l'Union européenne d'encadrer les dérives de l'IA générative, après l'AI Act entré en vigueur en 2024. La mobilisation des associations féministes — dont la manifestation de Séoul en août 2024 contre la nudification — a pesé dans le débat. La prochaine étape sera la transposition effective dans les législations nationales des Vingt-Sept.

UELa transposition de cette résolution dans les législations nationales des Vingt-Sept obligera les plateformes opérant en Europe à retirer les deepfakes pornographiques non consentis et à renforcer leur modération sous peine de sanctions renforcées.

RégulationReglementation
1 source
L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA
60The Verge AI 

L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA

Le Parlement européen a voté à une large majorité pour repousser les délais de conformité de l'AI Act, la loi phare de l'Union européenne sur la régulation de l'intelligence artificielle. Les développeurs de systèmes d'IA dits "à haut risque" — ceux présentant un risque sérieux pour la santé, la sécurité ou les droits fondamentaux — auront jusqu'en décembre 2027 pour se conformer, contre une échéance initiale plus proche. Les entreprises dont les systèmes relèvent de réglementations sectorielles existantes, comme les jouets ou les dispositifs médicaux, bénéficieront d'un délai encore plus long, fixé à août 2028. Parallèlement, le Parlement a approuvé l'interdiction des applications dites "nudify", qui génèrent des images dénudées non consenties à partir de photos de personnes réelles. Ce report soulage une industrie tech qui dénonçait des délais irréalistes pour adapter des systèmes complexes aux exigences de l'AI Act. Pour les développeurs d'IA médicale, industrielle ou éducative, ce gain de temps est concret : il leur permet de mettre en place les audits, la documentation et les processus de conformité requis. L'interdiction des nudify apps, elle, répond à une demande croissante de protection contre les deepfakes non consentis, qui touchent majoritairement des femmes et alimentent le harcèlement en ligne. L'AI Act, adopté en 2024, est la première grande législation mondiale à encadrer l'IA par niveau de risque. Sa mise en œuvre progressive a d'emblée suscité des tensions entre ambition régulatoire et réalité industrielle, notamment face à la montée en puissance de modèles comme ceux d'OpenAI ou Google. Ce vote reflète un ajustement pragmatique, mais aussi la pression des lobbys tech européens et américains, alors que l'Europe cherche à ne pas freiner son écosystème IA face à la concurrence internationale.

UELes entreprises françaises développant des systèmes d'IA à haut risque (médical, industriel, éducatif) gagnent jusqu'à décembre 2027 pour se conformer à l'AI Act, et jusqu'en août 2028 pour les systèmes couverts par des réglementations sectorielles existantes.

💬 Le report, c'est une bonne nouvelle pour les devs qui bossaient dans le flou total sur les délais. 2027 pour les systèmes à haut risque, ça laisse enfin le temps de faire la conformité sérieusement plutôt qu'à la va-vite. Sur les nudify apps, là pas de débat : l'interdiction était évidente, ça aurait dû arriver bien avant.

RégulationReglementation
1 source
Sanders et AOC proposent d'interdire la construction de centres de données
61TechCrunch AI 

Sanders et AOC proposent d'interdire la construction de centres de données

Le sénateur Bernie Sanders et la représentante Alexandria Ocasio-Cortez ont déposé des projets de loi complémentaires visant à suspendre la construction de nouveaux centres de données aux États-Unis, tant que le Congrès n'aura pas adopté une réglementation globale sur l'intelligence artificielle. Cette initiative place un frein direct à l'expansion effrénée des infrastructures IA, dont la construction mobilise des milliards de dollars et consomme d'énormes quantités d'eau et d'électricité. En liant l'autorisation de construire à l'adoption d'un cadre législatif, Sanders et Ocasio-Cortez cherchent à forcer le débat réglementaire avant que le déploiement ne devienne irréversible. La proposition s'inscrit dans un mouvement croissant de méfiance envers la course aux infrastructures IA, portée notamment par des géants comme Microsoft, Google et Amazon, dont les projets de centres de données se multiplient à travers le pays.

UECette initiative législative américaine pourrait inspirer des parlementaires européens à lier l'expansion des datacenters à l'avancement du cadre réglementaire IA au sein de l'UE.

RégulationReglementation
1 source
En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang
62Presse-citron 

En plein doute sur l’IA, Trump crée un « Conseil des Sages » avec Mark Zuckerberg et Jensen Huang

Donald Trump a annoncé la création d'un « Conseil des Sages » dédié aux sciences et technologies, intégrant des figures majeures de la tech américaine comme Mark Zuckerberg (Meta) et Jensen Huang (Nvidia). Ce type d'instance consultative a existé sous d'autres présidences, mais c'est la première fois qu'elle est aussi explicitement orientée vers l'intelligence artificielle. Cette initiative intervient dans un contexte de questionnement croissant sur la stratégie américaine en matière d'IA, notamment face à la montée en puissance de la Chine. Associer directement les PDG des entreprises les plus influentes du secteur au sommet de l'État signale une volonté de coordonner politique publique et industrie privée à un niveau inédit. Les États-Unis cherchent ainsi à structurer une gouvernance de l'IA au plus haut niveau, alors que la concurrence technologique mondiale s'intensifie et que les débats sur la régulation restent vifs.

UEUne coordination renforcée entre l'administration américaine et les géants de la tech pourrait accélérer la course aux standards mondiaux de l'IA et compliquer la position européenne dans les négociations réglementaires internationales.

RégulationReglementation
1 source
Les démocrates du Sénat veulent inscrire dans la loi les lignes rouges d'Anthropic sur les armes autonomes et la surveillance de masse
63The Verge AI 

Les démocrates du Sénat veulent inscrire dans la loi les lignes rouges d'Anthropic sur les armes autonomes et la surveillance de masse

Deux sénateurs démocrates ont déposé des projets de loi pour encadrer légalement l'utilisation de l'IA par l'armée américaine. Adam Schiff (Californie) travaille sur un texte visant à inscrire dans la loi les "lignes rouges" d'Anthropic — notamment l'obligation de maintenir un contrôle humain sur les décisions de vie ou de mort. Elissa Slotkin (Michigan) a quant à elle introduit un projet de loi pour limiter la capacité du Pentagone à utiliser l'IA dans la surveillance de masse des citoyens américains. Ces initiatives font suite à un bras de fer entre Anthropic et l'administration Trump. La société avait imposé des restrictions sur l'usage militaire de ses modèles d'IA, ce qui lui a valu d'être placée sur liste noire par l'administration comme "risque pour la chaîne d'approvisionnement". Anthropic a répondu en portant plainte, arguant que cette décision viole ses droits constitutionnels. L'enjeu est de taille : si ces restrictions légales passent, elles pourraient contraindre l'ensemble du secteur de la défense à respecter des garde-fous similaires sur l'autonomie des systèmes létaux. Ce conflit illustre la tension croissante entre l'industrie de l'IA et le gouvernement fédéral autour des usages militaires de ces technologies, dans un contexte où l'administration Trump cherche à accélérer l'intégration de l'IA dans les opérations de défense et de renseignement.

UECes initiatives législatives américaines sur le contrôle humain des systèmes d'IA létaux pourraient indirectement influencer les discussions européennes sur l'encadrement des armes autonomes, un sujet encore peu traité par l'AI Act.

RégulationReglementation
1 source
Mark Zuckerberg et Jensen Huang rejoignent le nouveau conseil technologique de Trump
64The Verge AI 

Mark Zuckerberg et Jensen Huang rejoignent le nouveau conseil technologique de Trump

Mark Zuckerberg (Meta), Larry Ellison (Oracle), Jensen Huang (Nvidia) et Sergey Brin (Google) seront les quatre premiers membres du Conseil des conseillers du président sur la science et la technologie (PCAST), selon le Wall Street Journal. Ce panel, qui aura son mot à dire sur la politique en matière d'IA, comptera 13 membres au départ et pourrait s'étendre à 24. Il sera coprésidé par David Sacks, le « tsar » de l'IA et des cryptomonnaies de Trump, et Michael Kratsios, conseiller technologique de la Maison-Blanche. Cette initiative place directement les PDG des géants technologiques au cœur de la politique fédérale sur l'intelligence artificielle. Leur influence pourrait peser lourd sur les réglementations à venir, les investissements publics et la position américaine face à la concurrence chinoise dans la course à l'IA. Le fait que des dirigeants de sociétés privées siègent officiellement dans un organe consultatif présidentiel soulève aussi des questions sur les conflits d'intérêts potentiels. Le PCAST est une instance historique qui conseille la Maison-Blanche sur la science, la technologie, l'éducation et l'innovation — sa composition reflète la priorité absolue accordée par l'administration Trump à la domination américaine dans le domaine de l'IA.

UELa composition pro-industrie de ce conseil pourrait accélérer la divergence réglementaire entre Washington et Bruxelles, renforçant la pression concurrentielle sur les entreprises européennes d'IA soumises à l'AI Act.

RégulationReglementation
1 source
Bernie Sanders propose un projet de loi sur la sécurité de l'IA pour bloquer la construction de centres de données
65Wired AI 

Bernie Sanders propose un projet de loi sur la sécurité de l'IA pour bloquer la construction de centres de données

Bernie Sanders a déposé mardi un projet de loi au Sénat américain visant à imposer un moratoire sur la construction de nouveaux centres de données d'IA. L'objectif déclaré est de donner au Congrès le temps de « s'assurer que l'IA est sûre » avant que l'infrastructure ne se développe davantage. Alexandria Ocasio-Cortez doit introduire un texte similaire à la Chambre des représentants dans les prochaines semaines. Cette initiative marque une escalade notable dans le débat législatif américain sur la sécurité de l'IA. Un gel des centres de données freinerait directement la capacité des grandes entreprises tech à entraîner et déployer de nouveaux modèles, avec des conséquences potentiellement majeures sur la course mondiale à l'IA. Ce projet s'inscrit dans un contexte de préoccupations croissantes sur les risques liés à l'IA, alors que les investissements en infrastructures atteignent des centaines de milliards de dollars aux États-Unis.

UEUn moratoire américain sur les centres de données IA ralentirait la course mondiale et créerait une incertitude pour les entreprises européennes dépendantes des infrastructures cloud américaines.

RégulationReglementation
1 source
Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes
66The Information AI 

Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes

La juge fédérale Rita Lin (district nord de Californie) a qualifié les actions du Pentagone contre Anthropic de "troublantes" lors d'une audience mardi, estimant qu'elles ressemblent à "une tentative de paralyser Anthropic". Ces déclarations interviennent dans le cadre du procès intenté par Anthropic contre le département de la Défense américain.

RégulationReglementation
1 source
La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge
67Wired AI 

La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge

Un juge fédéral a remis en question les motivations du Département de la Défense américain, qui a classifié Anthropic — le développeur du modèle Claude — comme un risque pour la chaîne d'approvisionnement. Lors d'une audience mardi, le juge a qualifié cette démarche de tentative de "paralyser" l'entreprise. L'affaire soulève des interrogations sur l'utilisation des procédures de sécurité nationale à des fins potentiellement anticoncurrentielles.

UECette affaire illustre les risques d'instrumentalisation des procédures de sécurité nationale à des fins anticoncurrentielles aux États-Unis, un précédent qui pourrait influencer les débats européens sur la régulation des fournisseurs d'IA.

RégulationReglementation
1 source
L’IA va-t-elle devoir prouver qu’elle ne copie pas ? La France veut changer les règles
68Siècle Digital 

L’IA va-t-elle devoir prouver qu’elle ne copie pas ? La France veut changer les règles

Des sénateurs français ont déposé une proposition de loi pour rééquilibrer le rapport de force entre ayants droit et entreprises technologiques sur la question de l'entraînement des modèles d'IA. Le texte viserait à imposer aux acteurs de l'IA de prouver qu'ils n'utilisent pas de contenus protégés sans autorisation, inversant ainsi la charge de la preuve. Ce débat juridique et politique s'inscrit dans un contexte européen plus large qui oppose créateurs et Big Tech depuis plusieurs mois.

UEUne proposition de loi sénatoriale française pourrait inverser la charge de la preuve sur l'utilisation de données protégées par les systèmes d'IA, impactant directement les acteurs IA opérant en France et potentiellement influençant la transposition de l'AI Act au niveau européen.

RégulationReglementation
1 source
OpenAI demande aux régulateurs britanniques de considérer ChatGPT comme une alternative à Google Search
69The Decoder 

OpenAI demande aux régulateurs britanniques de considérer ChatGPT comme une alternative à Google Search

OpenAI demande à l'autorité britannique de la concurrence (CMA) d'inclure ChatGPT comme alternative à Google dans les écrans de choix sur Android et Chrome. Cette démarche vise à positionner ChatGPT comme un concurrent direct des moteurs de recherche traditionnels au Royaume-Uni.

UELa demande d'OpenAI auprès de la CMA britannique pourrait influencer des décisions similaires de la Commission européenne dans le cadre du Digital Markets Act concernant les écrans de choix sur Android et Chrome.

RégulationReglementation
1 source
Mistral : le PDG appelle à une taxe sur les entreprises d'IA en Europe
70AI Business 

Mistral : le PDG appelle à une taxe sur les entreprises d'IA en Europe

Le PDG de Mistral propose que les entreprises d'IA paient une taxe en Europe, dans une logique de souveraineté numérique européenne. Cette position reflète l'engagement de Mistral en faveur d'un écosystème IA européen indépendant.

UEUne taxe sur les entreprises d'IA en Europe pourrait financer la souveraineté numérique européenne et avantager les acteurs locaux comme Mistral face aux géants étrangers.

RégulationReglementation
1 source
AI Act : les usages interdits, impossible à rendre conformes
71Le Big Data 

AI Act : les usages interdits, impossible à rendre conformes

L'AI Act (Article 5) impose des interdictions absolues sur six catégories d'usages IA — manipulation cognitive, scoring social, reconnaissance biométrique en temps réel, police prédictive, exploitation de vulnérabilités et inférence émotionnelle — qui ne peuvent en aucun cas être rendues conformes. Contrairement aux systèmes à "haut risque" (Annexe III) qui sont autorisés sous conditions strictes, ces usages exigent un abandon total du projet, sans possibilité d'audit ou de garde-fou. Anne-Angélique de Tourtier souligne que de nombreuses entreprises n'ont pas encore intégré cette réalité, et que même des projets à intention "bienveillante" peuvent franchir ces lignes rouges.

UELes entreprises françaises et européennes déployant des systèmes IA dans ces six catégories interdites doivent les abandonner immédiatement, sans recours possible à un audit ou à des mesures correctives, sous peine de sanctions de l'AI Act.

RégulationReglementation
1 source
L’IA qui fait la guerre aux États-Unis se rapproche de l’Europe : l’Angleterre l’adopte pour surveiller les fraudeurs
72Presse-citron 

L’IA qui fait la guerre aux États-Unis se rapproche de l’Europe : l’Angleterre l’adopte pour surveiller les fraudeurs

Palantir, géant américain de l'analyse de données, a été sélectionné par le régulateur financier britannique pour traquer la fraude et le blanchiment d'argent. Ce contrat coïncide avec l'officialisation de Palantir comme infrastructure permanente de l'armée américaine. L'entreprise étend ainsi son influence de la défense militaire américaine vers la surveillance financière européenne.

UEL'adoption de Palantir par le régulateur financier britannique (FCA) illustre une tendance à confier la surveillance financière européenne à des infrastructures technologiques américaines, soulevant des questions de souveraineté numérique pour les régulateurs de l'UE.

RégulationReglementation
1 source
Mettre fin au « pillage » des auteurs par l’IA : la proposition de loi validée par le Conseil d’État
7301net 

Mettre fin au « pillage » des auteurs par l’IA : la proposition de loi validée par le Conseil d’État

Le Conseil d'État a validé une proposition de loi française visant à protéger les auteurs contre l'utilisation de leurs œuvres par les systèmes d'IA sans compensation. Ce texte, porté par des sénateurs, cherche à rééquilibrer le rapport de force entre créateurs et entreprises technologiques. La validation a été obtenue malgré l'opposition active des lobbys tech.

UEUne loi française pourrait imposer une compensation obligatoire aux entreprises d'IA utilisant des œuvres protégées, créant un précédent juridique majeur pour tout le marché européen.

RégulationReglementation
1 source
Elizabeth Warren qualifie la décision du Pentagone d'exclure Anthropic de "représailles
74TechCrunch AI 

Elizabeth Warren qualifie la décision du Pentagone d'exclure Anthropic de "représailles

La sénatrice Elizabeth Warren (D-MA) a accusé le Pentagone de représailles après que le DoD a qualifié Anthropic de "risque pour la chaîne d'approvisionnement". Dans une lettre au secrétaire à la Défense Pete Hegseth, Warren soutient que le ministère aurait simplement pu résilier son contrat avec le laboratoire d'IA plutôt que de lui interdire l'accès.

RégulationReglementation
1 source
La taxe MISTRAL : une base de négociation pour l’Europe ?
75FrenchWeb 

La taxe MISTRAL : une base de négociation pour l’Europe ?

L'IA reconfigure les cadres juridiques européens autour du droit d'auteur, face à l'entraînement massif des modèles sur des contenus protégés. La "taxe MISTRAL" émerge comme une proposition de base de négociation pour trouver un équilibre entre les droits des créateurs et le développement des LLMs en Europe. Ce débat s'inscrit dans une réflexion plus large sur la souveraineté numérique et la régulation de l'IA sur le continent.

UELa proposition de 'taxe MISTRAL' pourrait redéfinir le cadre juridique du droit d'auteur en Europe pour l'entraînement des LLMs, avec un impact direct sur les entreprises françaises comme Mistral et sur la compétitivité du secteur IA européen.

RégulationReglementation
1 source
Nouvel assaut du gouvernement Trump contre la régulation de l'IA
76Sciences et Avenir Tech 

Nouvel assaut du gouvernement Trump contre la régulation de l'IA

L'administration Trump tente à nouveau de bloquer les lois étatiques sur l'IA au profit d'un cadre réglementaire national unifié. La Maison Blanche justifie cette démarche par la volonté d'éviter des "obligations superflues" pour les entreprises. Cette initiative fait suite à un premier échec en 2025.

UELa tentative américaine d'uniformiser la régulation IA au niveau fédéral influence indirectement les négociations entre l'UE et les États-Unis sur les standards internationaux de gouvernance de l'IA.

RégulationReglementation
1 source
La proposition de Mistral pour soutenir la création européenne : faire payer l’IA
7701net 

La proposition de Mistral pour soutenir la création européenne : faire payer l’IA

Mistral propose une solution pour réconcilier l'industrie de l'IA et le secteur créatif européen, en conflit sur l'utilisation des œuvres protégées pour entraîner les modèles. La startup française suggère de mettre en place un mécanisme de rémunération des créateurs par les acteurs de l'IA. Cette initiative vise également à repositionner l'Europe comme acteur central dans le débat mondial sur la régulation de l'IA et les droits d'auteur.

UEMistral, entreprise française, propose un mécanisme concret de rémunération des créateurs européens par les acteurs de l'IA, ce qui pourrait influencer directement la législation européenne sur le droit d'auteur et l'entraînement des modèles.

RégulationReglementation
1 source
L'administration Trump publie un cadre de politique sur l'intelligence artificielle
78The Information AI 

L'administration Trump publie un cadre de politique sur l'intelligence artificielle

L'administration Trump a publié vendredi un cadre de politique sur l'IA, demandant au Congrès d'adopter des lois fédérales qui prendraient le pas sur les législations étatiques. Selon le document, un enchevêtrement de lois contradictoires entre États risquerait de freiner l'innovation américaine et la compétitivité du pays dans le domaine de l'IA.

UELe cadre américain pro-innovation risque d'accentuer la divergence réglementaire avec l'AI Act européen, renforçant la pression concurrentielle sur les entreprises et régulateurs européens.

RégulationReglementation
1 source
L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement
79Siècle Digital 

L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement

L'Union européenne envisage d'interdire les outils d'IA capables de déshabiller des personnes sans leur consentement. Les eurodéputés à Bruxelles souhaitent encadrer plus strictement la création de contenus sexuels non-consentis générés à partir d'images réelles. Cette initiative s'inscrit dans une mobilisation politique croissante face aux dérives de l'intelligence artificielle.

UEUne directive européenne interdisant les outils de deepfake non-consentis aurait un impact direct sur les plateformes et développeurs opérant en France et dans l'UE.

RégulationReglementation
1 source
Bernie Sanders interviewe Claude : pourquoi son réquisitoire contre l’IA est un contresens technique
80Numerama 

Bernie Sanders interviewe Claude : pourquoi son réquisitoire contre l’IA est un contresens technique

Le sénateur Bernie Sanders a publié le 19 mars 2026 sur X une vidéo mettant en scène une interview avec Claude (IA d'Anthropic) pour dénoncer la collecte de données et plaider pour une régulation stricte de l'IA. La démarche, à visée politique, reposerait cependant sur un contresens technique. L'initiative illustre les tensions croissantes entre discours politique et réalité technique autour de la régulation de l'IA aux États-Unis.

RégulationReglementation
1 source
Des employés de Supermicro inculpés pour contrebande présumée de puces IA d'un milliard de dollars
81The Information AI 

Des employés de Supermicro inculpés pour contrebande présumée de puces IA d'un milliard de dollars

Le département américain de la Justice a inculpé trois employés de Super Micro Computer pour avoir illégalement exporté vers la Chine des serveurs IA avancés d'une valeur d'au moins 2,5 milliards de dollars, en violation des contrôles à l'exportation américains. Les puces spécifiques impliquées n'ont pas été précisées, bien que Nvidia domine largement ce marché. Cette affaire illustre le renforcement de l'application des restrictions américaines sur les technologies d'IA à destination de la Chine.

UELes entreprises européennes exportant des technologies d'IA vers la Chine doivent surveiller de près le renforcement des contrôles américains, qui créent un précédent susceptible d'influencer les réglementations européennes similaires.

RégulationReglementation
1 source
Grok interdit en Europe : l’UE veut bannir les IA qui déshabillent les femmes
82Le Big Data 

Grok interdit en Europe : l’UE veut bannir les IA qui déshabillent les femmes

Suite au scandale Grok (xAI), qui a permis la génération d'images intimes non consenties de femmes et de mineurs via de simples prompts, l'UE a franchi un cap législatif : le 18 mars 2026, la commission LIBE a approuvé un amendement à l'AI Omnibus interdisant les systèmes capables de produire des deepfakes sexuels réalistes de personnes identifiables sans leur consentement. Cette approche inédite cible les outils eux-mêmes (et non plus seulement les contenus diffusés), imposant des contraintes techniques aux développeurs et plateformes. Le texte, validé politiquement le 11 mars par le Parlement et le Conseil, doit encore passer un vote en séance plénière avant d'entrer en vigueur.

UEL'amendement à l'AI Omnibus approuvé par la commission LIBE le 18 mars 2026 impose des contraintes techniques directes aux développeurs et plateformes IA opérant en Europe, les obligeant à empêcher techniquement la génération de deepfakes sexuels non consentis de personnes identifiables.

💬 C'est la première fois qu'on cible l'outil plutôt que le contenu, et c'est un vrai changement de logique. Grok a servi de déclencheur, mais l'amendement va bien au-delà d'xAI : n'importe quelle plateforme qui peut générer ce genre d'images devra l'empêcher techniquement, pas juste le modérer après coup. Reste à voir comment on définit "deepfake réaliste de personne identifiable" en pratique, parce que là, ça va faire débat.

RégulationReglementation
1 source
Appel à candidatures : la Région Île-de-France lance la DSP pour un Tiers-Lieu dédié à l'Intelligence Artificielle à Paris
83ActuIA 

Appel à candidatures : la Région Île-de-France lance la DSP pour un Tiers-Lieu dédié à l'Intelligence Artificielle à Paris

La Région Île-de-France lance un appel à candidatures pour une Délégation de Service Public (DSP) visant à créer un Tiers-Lieu dédié à l'Intelligence Artificielle à Paris. Ce projet s'inscrit dans la stratégie régionale de soutien à l'innovation et à l'écosystème IA francilien. Les candidats intéressés sont invités à soumettre leur dossier pour gérer cet espace collaboratif centré sur l'IA.

UELa Région Île-de-France ouvre un appel à candidatures pour gérer un Tiers-Lieu IA à Paris, offrant une opportunité concrète aux acteurs de l'écosystème francilien de l'IA.

RégulationActu
1 source
☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques
84Next INpact 

☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques

Des eurodéputés des commissions du marché intérieur et des libertés civiles ont voté pour reporter l'application des règles de l'AI Act sur les systèmes d'IA à haut risque (biométrie, infrastructures critiques, éducation) du 2 août 2026 au 2 décembre 2027, invoquant le retard dans la finalisation des normes. Pour certains systèmes couverts par la législation sectorielle de sécurité, la date serait même repoussée au 2 août 2028. Ces propositions doivent encore être approuvées en plénière le 26 mars, puis négociées avec le Conseil européen.

UELe report de l'application de l'AI Act sur les systèmes à haut risque jusqu'en décembre 2027 (voire août 2028) prolonge le délai de mise en conformité pour les entreprises françaises et européennes opérant dans les secteurs de la biométrie, des infrastructures critiques et de l'éducation.

RégulationReglementation
1 source
Le combat pour tenir les entreprises d'IA responsables de la mort d'enfants
85Wired AI 

Le combat pour tenir les entreprises d'IA responsables de la mort d'enfants

Après plusieurs suicides de mineurs prétendument liés à des chatbots d'IA, un avocat tente de tenir des entreprises comme OpenAI juridiquement responsables. Ces affaires mettent en lumière les risques des assistants conversationnels sur des utilisateurs vulnérables, notamment les jeunes. Les poursuites judiciaires cherchent à établir une responsabilité légale inédite pour les fabricants d'IA dans ce type de tragédies.

UELes poursuites américaines contre OpenAI pour décès de mineurs liés aux chatbots pourraient influencer la réglementation européenne sur la protection des mineurs dans l'AI Act.

RégulationActu
1 source
Grok a généré une vidéo de son viol : cette ado porte plainte contre Elon Musk
86Le Big Data 

Grok a généré une vidéo de son viol : cette ado porte plainte contre Elon Musk

Trois adolescentes américaines portent plainte contre Elon Musk et sa société xAI, accusant son générateur d'images Grok de créer et diffuser des vidéos sexuelles à partir de leurs photos. Les contenus, utilisés par des prédateurs sexuels, ont été générés en quelques secondes grâce à la puissance de l'IA génératrice. Ce scandale relance le débat sur la responsabilité des plateformes et la régulation des IA. En janvier 2026, Grok avait déjà provoqué une onde de choc en générant massivement des images sexualisées de femmes et mineurs sans consentement, totalisant environ 3 millions d'images problématiques, dont 23 000 mettant en scène des mineurs.

UECe scandale renforce la pression sur les régulateurs européens pour accélérer l'application de l'AI Act, notamment ses dispositions interdisant les systèmes d'IA utilisés pour générer des contenus pédopornographiques.

RégulationActu
1 source
L'UE s'apprête à interdire les applications de déshabillage après que Grok les a démocratisées
87Ars Technica AI 

L'UE s'apprête à interdire les applications de déshabillage après que Grok les a démocratisées

L'Union européenne s'apprête à interdire les applications de "nudification" par IA, après que le chatbot Grok d'Elon Musk a mis en lumière les risques de ces outils capables de générer des images sexualisées de personnes réelles, y compris des mineurs. Les commissions du Parlement européen ont voté à 101 voix contre 9 pour simplifier l'AI Act et y intégrer une interdiction explicite de ces systèmes. Cette initiative fait suite au constat de la Commission européenne que la loi actuelle ne prohibe pas suffisamment la génération de contenus pédopornographiques ou de deepfakes sexuels non consentis.

UELe Parlement européen s'apprête à modifier l'AI Act pour interdire explicitement les applications de nudification IA, avec une obligation de conformité pour tout acteur opérant sur le marché européen.

💬 101 voix contre 9, ça dit tout sur le degré de controverse. Ce qui me frappe, c'est que l'AI Act vient juste d'entrer en vigueur et on doit déjà le rapiécer parce que Grok a joué les accélérateurs sur un sujet qu'on savait problématique depuis des années. Bon, l'interdiction explicite était clairement nécessaire, mais ça illustre bien à quel point la régulation court après la réalité du terrain.

RégulationReglementation
1 source
Londres renonce (pour l’instant) à assouplir le droit d’auteur en faveur de l’industrie IA
8801net 

Londres renonce (pour l’instant) à assouplir le droit d’auteur en faveur de l’industrie IA

Le gouvernement britannique a abandonné son projet controversé d'assouplissement du droit d'auteur au profit de l'industrie IA. Ce projet aurait permis aux entreprises IA d'entraîner leurs modèles sur les œuvres d'artistes britanniques sans permission préalable, en renversant la charge de la preuve sur les créateurs. Pour l'instant, le statu quo est maintenu : les artistes conservent le contrôle sur l'utilisation de leurs œuvres.

UELa décision britannique renforce la position des créateurs européens dans le débat sur le droit d'auteur appliqué à l'IA, et pourrait influencer les futures discussions réglementaires au sein de l'UE sur l'encadrement de l'entraînement des modèles.

RégulationReglementation
1 source
Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »
89TechCrunch AI 

Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »

Le département américain de la Défense (DoD) a qualifié Anthropic de risque inacceptable pour la sécurité nationale, citant les "lignes rouges" de l'entreprise qui pourraient l'amener à désactiver ses technologies en pleine opération militaire. Cette préoccupation justifie, selon le Pentagone, la classification d'Anthropic comme risque dans la chaîne d'approvisionnement en IA.

UECe conflit entre éthique d'entreprise et exigences militaires américaines alimente le débat européen sur la souveraineté IA et les conditions d'usage des LLMs dans les secteurs sensibles.

RégulationActu
1 source
L’IA Anthropic va gouverner le Rwanda ! Bonne idée ou catastrophe assurée ?
90Le Big Data 

L’IA Anthropic va gouverner le Rwanda ! Bonne idée ou catastrophe assurée ?

Le Rwanda a signé un accord non contraignant de trois ans avec Anthropic pour intégrer l'IA Claude dans ses secteurs publics clés : santé, éducation et développement logiciel gouvernemental. Le pays vise des objectifs ambitieux, comme l'élimination du cancer du col de l'utérus d'ici 2027, et mise sur l'IA pour accélérer sa transformation en hub technologique régional. Cependant, l'accord ne prévoit aucun mécanisme de contrôle, d'audit indépendant ni de supervision parlementaire ou civile, soulevant des inquiétudes sur la dépendance croissante à une entreprise privée étrangère.

UECet accord illustre un précédent de gouvernance IA sans supervision indépendante qui pourrait influencer les débats européens sur la souveraineté numérique et la dépendance aux fournisseurs privés étrangers dans les services publics.

RégulationReglementation
1 source
IA de guerre : le Pentagone crée sa propre alternative à Anthropic
91Le Big Data 

IA de guerre : le Pentagone crée sa propre alternative à Anthropic

Le Pentagone, suite au refus d'Anthropic de fournir son IA pour des usages militaires, a décidé de créer ses propres modèles d'IA, malgré la présence d'OpenAI et xAI. Le Chief Digital and Artificial Intelligence Officer (CDAO) du département de la Guerre des États-Unis, Cameron Stanley, a confirmé le lancement de ces initiatives internes. Les nouveaux systèmes reposent sur des modèles de langage intégrés directement dans des environnements gouvernementaux et pourraient être déployés rapidement, bien que sans date précise annoncée.

UELe développement d'IA militaire souveraine par le Pentagone accentue la pression sur l'UE pour définir sa propre doctrine d'usage de l'IA dans le secteur défense, notamment dans le cadre du règlement IA Act qui encadre les systèmes à haut risque.

RégulationActu
1 source
L’encyclopédie Britannica attaque OpenAI en justice et l’accuse de reproduire ses contenus
92Siècle Digital 

L’encyclopédie Britannica attaque OpenAI en justice et l’accuse de reproduire ses contenus

L'encyclopédie Britannica et Merriam-Webster ont attaqué OpenAI en justice, accusant l'entreprise d'avoir reproduit leurs contenus sans autorisation. La plainte évoque une « mémorisation » des contenus protégés par les modèles d'IA générative. Cette action s'inscrit dans une vague de litiges croissants entre les éditeurs traditionnels et les développeurs d'IA.

UECe litige renforce la pression juridique sur les pratiques d'entraînement des IA en Europe, où le droit d'auteur et la question de l'opt-out dans l'AI Act sont déjà au cœur des débats réglementaires.

RégulationReglementation
1 source
☕️ L’Encyclopædia Britannica attaque OpenAI pour « violation massive du copyright »
93Next INpact 

☕️ L’Encyclopædia Britannica attaque OpenAI pour « violation massive du copyright »

Encyclopædia Britannica et Merriam-Webster ont poursuivi OpenAI en justice le 13 mars pour violation massive du copyright, alléguant que ChatGPT a utilisé sans autorisation près de 100 000 de leurs articles pour entraîner ses modèles LLM et alimenter son système RAG. La plainte accuse GPT-4 d'avoir mémorisé du contenu protégé au point de pouvoir le reproduire quasi mot pour mot. Les plaignants soutiennent que ChatGPT leur fait concurrence directement en substituant ses réponses à leur contenu, les privant ainsi de revenus.

UECe procès renforce le débat européen sur le droit d'auteur et l'entraînement des IA, susceptible d'influencer l'application de l'AI Act et de la directive copyright en Europe.

RégulationReglementation
1 source
Des contrôles d’identité « au faciès » recourent illégalement à la reconnaissance faciale
94Next INpact 

Des contrôles d’identité « au faciès » recourent illégalement à la reconnaissance faciale

L'ONG Disclose révèle que 230 000 smartphones NEO 2 (utilisés par la police depuis 2022 et la gendarmerie depuis 2020) permettent aux forces de l'ordre d'effectuer des contrôles d'identité par reconnaissance faciale, une pratique « totalement illégale ». Ces contrôles s'appuient sur le fichier policier GASPARD, lui-même créé illégalement, ainsi que sur le TAJ (traitement d'antécédents judiciaires) qui recense 24 millions de personnes « mises en cause » et 48 millions de victimes. Des témoignages recueillis par Disclose montrent des citoyens photographiés de force lors de contrôles, dont un manifestant pro-Palestine contraint physiquement de faire face à la caméra.

UELa police et gendarmerie françaises utilisent illégalement la reconnaissance faciale sur 230 000 appareils, en violation du droit français et du cadre européen sur l'IA (AI Act).

RégulationReglementation
1 source
Warren interpelle le Pentagone sur l'accès accordé à xAI aux réseaux classifiés
95TechCrunch AI 

Warren interpelle le Pentagone sur l'accès accordé à xAI aux réseaux classifiés

La sénatrice Elizabeth Warren interpelle le Pentagone au sujet de la décision d'accorder à xAI, la société d'IA d'Elon Musk, un accès aux réseaux classifiés militaires. Elle souligne que Grok, le chatbot controversé de xAI, a déjà produit des contenus nuisibles pour ses utilisateurs. Warren estime que cela représente un risque potentiel pour la sécurité nationale.

UECette affaire alimente le débat européen sur l'encadrement des IA à usage militaire et pourrait renforcer les positions de l'UE en faveur de standards stricts pour l'homologation des systèmes d'IA dans les environnements sensibles.

RégulationActu
1 source
Le Trésor américain publie un guide sur les risques liés à l'IA pour les institutions financières
96AI News 

Le Trésor américain publie un guide sur les risques liés à l'IA pour les institutions financières

Le Departement du Trésor des États-Unis a publié un guide sur les risques liés à l'IA pour le secteur financier, intitulé CRI Financial Services AI Risk Management Framework (FS AI RMF). Ce guidebook, résultat d'une collaboration de plus de 100 institutions financières et organisations industrielles, vise à aider les établissements financiers à identifier, évaluer, gérer et régir les risques associés aux systèmes d'IA. Les risques spécifiques à l'IA incluent la biais algorithmique, le manque de transparence dans les processus décisionnels, les vulnérabilités cybernétiques et les dépendances complexes entre systèmes et données. Le FS AI RMF est présenté comme une extension du cadre NIST, offrant des contrôles spécifiques au secteur et des directives d'application pratique pour promouvoir des pratiques d'IA responsables et soutenir l'innovation.

UELe secteur financier européen dispose déjà de l'AI Act et de DORA comme cadres réglementaires, mais ce framework américain pourrait servir de référence complémentaire pour les institutions financières européennes dans leur gestion des risques IA.

RégulationReglementation
1 source
« On passe de la peste au choléra » : l’IA française Simone AI dénonce les pratiques de WhatsApp (Meta)
9701net 

« On passe de la peste au choléra » : l’IA française Simone AI dénonce les pratiques de WhatsApp (Meta)

Jérémy André, fondateur de Simone AI, critique Meta pour avoir réouvert WhatsApp aux chatbots IA tiers, mais imposé des tarifs jugés exagérés. Simone AI, dépendant de WhatsApp, espère une intervention de l'autorité européenne antitrust.

UEUne startup française dénonce des pratiques potentiellement anticoncurrentielles de Meta sur WhatsApp et appelle l'autorité antitrust européenne à intervenir, ce qui pourrait déboucher sur une enquête DMA.

RégulationReglementation
1 source
Les règles critiques pour comprendre pourquoi les IA s'emmêlent avec certains jeux
98Ars Technica AI 

Les règles critiques pour comprendre pourquoi les IA s'emmêlent avec certains jeux

Google's DeepMind, via ses AIs Alpha, a pris l'habitude de maîtriser des jeux complexes comme le Go et l'échecs. Cependant, des anomalies ont été remarquées lorsque des joueurs débutants ont pu battre des AIs, initialement pensés supérieurs, dans des positions spécifiques de Go. Une étude récente décrit un groupe de jeux, y compris Nim, où l'approche d'entraînement des AIs AlphaGo et AlphaChess échoue, révélant des faiblesses potentielles dans leur apprentissage.

RégulationReglementation
1 source
Google Maps passe à l’IA : Gemini peut vous trouver des lieux ultra spécifiques
99Le Big Data 

Google Maps passe à l’IA : Gemini peut vous trouver des lieux ultra spécifiques

Google Maps intègre l'IA Gemini pour comprendre des requêtes complexes et spécifiques, permettant aux utilisateurs de décrire précisément ce qu'ils cherchent, comme un restaurant végétarien entre deux quartiers. L'IA analyse les critères tels que l'ambiance, les heures d'ouverture et le nombre de personnes pour proposer des recommandations ciblées, en se basant sur les données internes de Google Maps. Ask Maps personnalise les résultats en fonction de l'historique des utilisateurs et des recherches antérieures, restant toutefois limité aux informations présentes dans Google Maps.

RégulationOutil
1 source
Le PDG d’Adobe démissionne, la faute à l’intelligence artificielle ?
10001net 

Le PDG d’Adobe démissionne, la faute à l’intelligence artificielle ?

Shantanu Narayen, PDG d'Adobe depuis 18 ans, annonce sa démission. Les analystes financiers interprètent ce départ comme une réaction à la peur des investisseurs face à la révolution de l'intelligence artificielle, bien que la société officiellement cite une transition naturelle de son mandat.

RégulationActu
1 source