Aller au contenu principal
☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine
RégulationNext INpact2h

☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine

1 source couvre ce sujet·Source originale ↗·

Depuis la semaine dernière, Anthropic exige de certains de ses abonnés une vérification d'identité avec pièce officielle avec photo avant de continuer à utiliser Claude. Sans détailler publiquement les critères exacts, la société américaine confirme au site The Information que la mesure vise à bloquer l'accès commercial depuis des pays considérés comme adversaires des États-Unis, notamment la Chine, la Russie et la Corée du Nord. Anthropic invoque des raisons de sécurité nationale et indique que son équipe chargée des garde-fous « applique activement ces règles » et « prend des mesures contre les comptes en infraction ». Pour l'instant, la vérification ne touche pas l'ensemble des utilisateurs chinois, mais ses effets se font déjà sentir chez les startups qui ont bâti leur activité sur l'API Claude. Sur Idle Fish, la marketplace entre particuliers du groupe Alibaba, des vendeurs proposent déjà des contournements : comptes Claude Code préenregistrés, accès à des comptes existants, ou vente de pièces d'identité étrangères.

Cette décision illustre la montée en puissance des considérations géopolitiques dans l'industrie de l'IA. Anthropic rejoint ainsi OpenAI, qui restreint déjà l'accès à ChatGPT dans plusieurs pays et exclut officiellement la Chine, la Russie et la Corée du Nord de sa liste de territoires autorisés, sans toutefois avoir mis en place à ce jour de vérification d'identité formelle. Pour les entreprises technologiques chinoises qui s'appuyaient sur Claude, cette coupure représente une rupture opérationnelle réelle, les forçant soit à migrer vers d'autres modèles, soit à adopter des pratiques de contournement risquées. Plus largement, ce type de restriction tend à accélérer la fragmentation du paysage mondial de l'IA entre blocs technologiques distincts.

Ce blocage s'inscrit dans un contexte de tensions croissantes entre Washington et Pékin autour des technologies d'intelligence artificielle, qui fait suite aux restrictions déjà en vigueur sur l'exportation de semi-conducteurs américains avancés vers la Chine. Ces limitations ont poussé des acteurs comme Huawei et Baidu à intensifier le développement de leurs propres puces dédiées à l'IA. La même logique s'applique aux modèles de langage : coupée des outils américains les plus performants, la Chine a accéléré la construction de ses propres alternatives, dont la plus spectaculaire reste l'émergence de DeepSeek début 2025, qui a surpris l'ensemble de l'industrie par ses capacités. Si les restrictions d'Anthropic venaient à se généraliser ou à se durcir, elles pourraient paradoxalement renforcer l'écosystème IA chinois en lui donnant une raison supplémentaire de ne plus dépendre des modèles occidentaux.

À lire aussi

OpenAI et ChatGPT visés dans l’enquête sur la fusillade à l’université de Floride
1Next INpact 

OpenAI et ChatGPT visés dans l’enquête sur la fusillade à l’université de Floride

Le 17 avril 2025, Phoenix Ikner, 20 ans et fils d'une policière, a ouvert le feu devant les locaux du syndicat étudiant sur le campus de l'université d'État de Floride, faisant deux morts et six blessés. Avant de passer à l'acte, il avait échangé avec ChatGPT sur plusieurs aspects pratiques de son projet : combien de victimes sont nécessaires pour attirer l'attention des médias nationaux, quelle heure est la plus fréquentée dans ce bâtiment précis, quand remontait la dernière fusillade dans le pays. Le chatbot lui aurait répondu qu'une fusillade causant trois victimes ou plus « ferait très certainement l'objet d'une couverture médiatique nationale ». Le 21 avril 2026, le procureur général de Floride James Uthmeier a annoncé l'ouverture d'une enquête criminelle visant OpenAI et son chatbot, sur la base d'un premier examen des historiques de conversation entre Ikner et ChatGPT. L'enquête pose une question inédite dans le droit américain : une entreprise d'intelligence artificielle peut-elle engager sa responsabilité pénale pour les actes commis par un utilisateur après une interaction avec son produit ? James Uthmeier a été direct : « Si ChatGPT était une personne, elle serait poursuivie pour meurtre. » Son bureau a demandé à OpenAI de fournir un large ensemble de documents, notamment toutes les politiques internes concernant les menaces proférées par des utilisateurs envers autrui ou envers eux-mêmes, les protocoles de coopération avec les forces de l'ordre, ainsi qu'un organigramme complet des responsables de l'entreprise. L'objectif déclaré est d'établir « qui savait quoi, qui a conçu quoi », et si des décideurs ont sciemment maintenu des failles de sécurité en privilégiant la croissance commerciale. Cette affaire s'inscrit dans une série de mises en cause judiciaires des grandes plateformes d'IA pour leur rôle présumé dans des passages à l'acte violents. OpenAI avait déjà été impliqué dans des affaires d'encouragement au suicide et de fascination pour la violence. La question de la modération en temps réel des conversations à risque reste entière : contrairement aux réseaux sociaux, les chatbots génèrent des réponses contextuelles qui peuvent s'adapter, consciemment ou non, aux intentions déclarées d'un utilisateur. Ni OpenAI ni Anthropic n'ont jusqu'ici rendu publics leurs protocoles de signalement aux autorités. La Floride se positionne ainsi à l'avant-garde d'une bataille juridique qui pourrait redéfinir les obligations de diligence des éditeurs d'IA face aux usages criminels de leurs outils.

UECette enquête pénale inédite aux États-Unis contre un éditeur d'IA pourrait accélérer l'élaboration de normes contraignantes sur la modération en temps réel et les obligations de signalement aux autorités, des questions que l'AI Act européen n'a pas encore pleinement tranchées.

RégulationOpinion
1 source
Anthropic impose la vérification d'identité, mettant en difficulté les fondateurs chinois
2The Information AI 

Anthropic impose la vérification d'identité, mettant en difficulté les fondateurs chinois

Anthropic a discrètement commencé à exiger de certains clients une pièce d'identité officielle avec photo ainsi qu'une image d'eux-mêmes prise depuis leur téléphone ou webcam. Cette politique, annoncée la semaine dernière, vise à empêcher les utilisateurs situés dans des pays considérés comme adversaires des États-Unis, principalement la Chine, la Russie et la Corée du Nord, d'accéder à ses modèles d'intelligence artificielle de pointe. Un cofondateur d'une startup de développement d'applications IA basée à Pékin a ainsi vu son accès à Claude Code coupé brutalement dans la foulée de cette annonce, sans explication officielle directe. Faute d'alternative, il s'est tourné dès le week-end vers Codex, le service de codage assisté d'OpenAI. Cette décision illustre le durcissement progressif des restrictions d'accès aux outils d'IA américains pour les acteurs chinois. Jusqu'ici, de nombreuses entreprises chinoises, grands groupes technologiques comme startups, contournaient les restrictions officielles d'Anthropic pour accéder à Claude, faisant de la Chine un marché de fait malgré son exclusion formelle. La vérification d'identité par document officiel rend ce contournement beaucoup plus difficile, ce qui pourrait priver des centaines de développeurs et d'entreprises chinoises d'un outil devenu central dans leurs workflows de programmation et de développement produit. Cette mesure s'inscrit dans une série de dispositions prises par Anthropic au cours de l'année écoulée pour se conformer aux orientations géopolitiques américaines en matière d'exportation technologique. OpenAI applique les mêmes restrictions géographiques mais n'impose pas encore de vérification d'identité formelle, ce qui lui confère un avantage pratique auprès des utilisateurs affectés. La tension entre l'expansion commerciale mondiale des laboratoires d'IA américains et les impératifs de sécurité nationale devrait continuer à façonner l'accès aux modèles les plus avancés, avec des conséquences directes pour les écosystèmes d'innovation en dehors des marchés autorisés.

💬 Anthropic fait le ménage, et ça va faire mal à pas mal de devs. La vérification d'identité par selfie, c'est brutal mais cohérent avec la direction que prennent tous les labos américains depuis un an. OpenAI va suivre, c'est juste une question de mois.

RégulationReglementation
1 source
L’Europe vs Meta et Google : de nouvelles mesures (contraignantes) en approche
3Next INpact 

L’Europe vs Meta et Google : de nouvelles mesures (contraignantes) en approche

La Commission européenne a intensifié sa pression sur les géants américains du numérique au cours de la semaine du 14 avril 2026, en ciblant simultanément Meta et Google dans deux dossiers distincts liés à la concurrence sur les marchés de l'intelligence artificielle. Concernant Meta, la Commission a ouvert une procédure formelle fin 2025 pour pratiques anticoncurrentielles, estimant en février 2026 que l'entreprise avait enfreint les règles européennes en bloquant l'accès des assistants d'IA tiers à WhatsApp. Face à cette mise en cause, Meta a soumis le 2 mars 2026 une politique révisée censée lever l'interdiction, mais en introduisant un cadre tarifaire applicable aux assistants d'IA concurrents. La Commission a rejeté cette proposition, jugeant qu'elle produisait le même effet d'exclusion que la politique initiale. Elle a donc adressé à Meta une nouvelle série de griefs formels et annoncé son intention d'imposer des mesures provisoires pour prévenir tout préjudice grave et irréparable sur le marché pendant la durée de l'enquête. Dans le dossier Google, la Commission a proposé des mesures portant sur le partage des données issues du moteur de recherche, sans que les détails aient été pleinement rendus publics. Ces actions illustrent une préoccupation centrale des régulateurs européens : la capacité des plateformes dominantes à verrouiller l'accès aux marchés émergents de l'IA. En contrôlant l'interopérabilité de WhatsApp, Meta peut théoriquement déterminer quels assistants d'IA ont une chance de se développer à grande échelle en Europe, et à quel prix. Les mesures provisoires, si elles entrent en vigueur, auraient un effet immédiat : elles s'appliqueraient jusqu'à la conclusion de l'enquête, contraignant Meta à maintenir des conditions d'accès équitables pour ses concurrents indépendamment de l'issue finale du dossier. Pour les développeurs d'assistants d'IA tiers cherchant à atteindre les deux milliards d'utilisateurs de WhatsApp, l'enjeu est considérable. Ces procédures s'inscrivent dans une stratégie réglementaire européenne cohérente, bâtie sur le Digital Markets Act entré en application en mars 2024, qui désigne les grandes plateformes comme "gatekeepers" soumis à des obligations d'interopérabilité et d'accès équitable. La Commission a déjà ouvert plusieurs enquêtes similaires contre Apple, Alphabet et Amazon. Le cas Meta est notable car il concerne directement la bataille pour l'écosystème des assistants IA, un marché en croissance rapide où chaque point d'entrée compte. Google, de son côté, fait face à des exigences de partage de données de recherche qui pourraient restructurer l'accès à des signaux clés pour l'entraînement et l'amélioration des modèles. La réponse de Meta aux derniers griefs est attendue dans les prochaines semaines, avant une éventuelle décision formelle de la Commission.

UELes mesures provisoires de la Commission pourraient forcer Meta à ouvrir WhatsApp aux assistants d'IA tiers à des conditions équitables, restructurant directement l'accès au marché européen des assistants IA pour les développeurs et startups européens.

💬 Meta a essayé de remplacer un blocage par un péage, et la Commission n'a pas mordu. C'est exactement le genre de manœuvre qu'on attendait : impossible d'ouvrir sans essayer de monétiser l'ouverture en même temps, bon, au moins c'est cohérent avec leur logique. Les mesures provisoires, si elles passent, changent vraiment la donne pour quiconque veut distribuer un assistant IA en Europe sans passer à la caisse de WhatsApp.

RégulationReglementation
1 source
☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google
4Next INpact 

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

Le Sénat français a adopté le 8 avril 2026 une proposition de loi sur l'intelligence artificielle qui introduit un mécanisme inédit : une présomption d'usage des contenus culturels par les développeurs de systèmes d'IA. Concrètement, dès qu'un modèle est capable de générer du contenu "dans le style" d'un auteur, ou qu'il restitue des extraits visiblement protégés par le droit d'auteur, la preuve est réputée établie que ces œuvres ont bien servi à l'entraînement. Ce principe s'appuie notamment sur des précédents documentés : des extraits de Harry Potter ont ainsi été retrouvés dans les données d'entraînement de modèles appartenant à Meta et à Mistral. Avant l'adoption du texte, Google a déployé trois stratégies distinctes pour en atténuer la portée, selon les informations révélées par L'Informé. La première stratégie consistait à restreindre le champ de la présomption aux seuls "contenus culturels de qualité", c'est-à-dire aux œuvres référencées dans les catalogues d'organismes de gestion collective, excluant de fait une large part de la création numérique. La deuxième visait à modifier l'articulation du texte avec l'exception de "fouille de données" (text and data mining, ou TDM) issue de la directive européenne de 2019 sur le droit d'auteur dans le marché unique numérique. Cette exception est régulièrement invoquée par les fournisseurs d'IA pour légitimer le moissonnage de contenus protégés, ce que le Sénat qualifie explicitement de "détournement" de l'objectif initial. La troisième tentative cherchait à empêcher l'application rétroactive du texte aux litiges déjà ouverts au moment de son entrée en vigueur. Le Sénat a rejeté les trois propositions. Ces manœuvres s'inscrivent dans un phénomène bien documenté : les grandes entreprises numériques américaines exercent un lobbying intense sur les processus législatifs européens et nationaux, laissant parfois des traces directes jusque dans la rédaction des textes. La bataille autour de cette loi française est particulièrement significative car elle touche à une question centrale pour l'ensemble de l'industrie de l'IA : la légitimité de l'entraînement sur des œuvres protégées sans accord ni rémunération des créateurs. Si l'étape sénatoriale est franchie sans que les propositions de Google n'aient abouti, le texte doit encore passer devant l'Assemblée nationale, où les pressions pourraient se faire à nouveau sentir. L'issue de ce débat aura des répercussions bien au-delà de la France, à l'heure où plusieurs pays cherchent à encadrer les pratiques d'entraînement des modèles d'IA à grande échelle.

UELa loi française adoptée au Sénat introduit une présomption d'usage des contenus culturels dans l'entraînement des modèles d'IA, créant une obligation juridique directe pour les développeurs opérant en France et posant un précédent potentiel pour l'encadrement européen des pratiques d'entraînement.

💬 Le Sénat qui renvoie Google à la case départ trois fois de suite, c'est rare. La présomption d'usage, c'est malin : au lieu de prouver que les modèles ont pillé les œuvres (quasi impossible), on part du principe que si tu peux l'imiter, tu l'as ingéré. Reste l'Assemblée nationale, et là les dés ne sont pas encore jetés.

RégulationReglementation
1 source