Aller au contenu principal
Après le trafic de puces IA vers la Chine, Nvidia est à nouveau sous pression
Régulation01net6sem

Après le trafic de puces IA vers la Chine, Nvidia est à nouveau sous pression

Résumé IASource uniqueImpact UE
Source originale ↗·

Deux sénateurs américains, Jim Banks (républicain) et Elizabeth Warren (démocrate), ont adressé une demande conjointe à Nvidia pour exiger la suspension immédiate des ventes de puces d'intelligence artificielle avancées vers la Chine et plusieurs pays d'Asie du Sud-Est utilisés comme intermédiaires. Cette prise de position intervient dans le sillage de l'arrestation de trois individus soupçonnés d'avoir organisé un trafic illégal de semi-conducteurs, une affaire qui a remis en lumière les failles dans le contrôle des exportations américaines de composants stratégiques.

L'enjeu est de taille : les puces Nvidia — notamment les séries H100 et A100 — sont au cœur de la course mondiale à l'IA, et leur transfert vers des entités chinoises représente un risque géopolitique et militaire direct pour Washington. En passant par des pays tiers comme Singapour, la Malaisie ou les Émirats arabes unis, certains acteurs contournent les restrictions d'exportation imposées depuis 2022. Si Nvidia n'est pas accusée de complicité directe, les sénateurs estiment que l'entreprise doit renforcer ses mécanismes de vérification des acheteurs finaux.

Cette pression s'inscrit dans un contexte de durcissement progressif de la politique américaine sur les exportations technologiques vers la Chine, accéléré sous les administrations Biden puis Trump. Nvidia, qui réalisait encore plusieurs milliards de dollars de chiffre d'affaires annuel en Chine avant les premières restrictions, navigue entre obligations réglementaires et intérêts commerciaux. L'affaire illustre la difficulté structurelle à contrôler des chaînes d'approvisionnement mondiales complexes, et pourrait déboucher sur des règles d'exportation encore plus strictes.

Impact France/UE

Un durcissement des contrôles d'exportation américains sur les semi-conducteurs avancés pourrait restreindre l'accès des acteurs européens aux composants stratégiques nécessaires au développement de l'IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple
1The Verge AI 

L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple

La startup californienne Kintsugi, fondée il y a sept ans, vient d'annoncer sa fermeture après avoir échoué à obtenir l'autorisation de la FDA pour son outil d'intelligence artificielle capable de détecter des signes de dépression et d'anxiété dans la voix humaine. Faute de clairance réglementaire obtenue dans les délais, l'entreprise a décidé de rendre la majeure partie de sa technologie disponible en open source. Certains composants pourraient trouver une seconde vie en dehors du secteur médical, notamment pour détecter les deepfakes audio. L'évaluation de la santé mentale repose encore aujourd'hui quasi exclusivement sur des questionnaires remplis par les patients et des entretiens cliniques, contrairement à la médecine physique qui s'appuie sur des analyses biologiques ou des imageries. L'approche de Kintsugi était radicalement différente : son logiciel n'analysait pas ce qu'une personne disait, mais la manière dont elle le disait, en cherchant dans les modulations vocales des marqueurs de troubles psychiques. Cette technologie représentait une promesse réelle de dépistage précoce et objectif, accessible sans infrastructure médicale lourde. Le parcours de Kintsugi illustre la difficulté structurelle d'introduire des outils d'IA dans le domaine médical aux États-Unis. La FDA soumet les dispositifs de diagnostic à des exigences strictes de validation clinique, un processus long et coûteux qui épuise souvent les ressources des startups avant qu'elles n'atteignent le marché. L'abandon de cette technologie au profit de l'open source pourrait néanmoins permettre à des chercheurs ou d'autres entreprises de poursuivre ces travaux, dans un contexte où la détection automatisée de la santé mentale reste un enjeu médical et technologique majeur.

UELe cas Kintsugi illustre les obstacles que rencontreront les startups européennes soumises à l'AI Act, qui classe les outils d'IA diagnostique médicale en risque élevé avec des exigences de validation clinique tout aussi contraignantes.

RégulationReglementation
1 source
Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve
2Next INpact 

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

Le Sénat français a adopté à l'unanimité, le 8 avril 2026, une proposition de loi instaurant une présomption d'utilisation des contenus culturels protégés par le droit d'auteur lors de l'entraînement des systèmes d'intelligence artificielle. Portée par la sénatrice Agnès Evren (LR), le texte dispose que toute œuvre protégée par un droit d'auteur ou un droit voisin est présumée avoir été utilisée par un fournisseur d'IA dès lors qu'un indice rend cette utilisation vraisemblable, par exemple, si un chatbot est capable de citer des extraits d'un livre. En cas de contentieux, ce ne sera donc plus au créateur de prouver que son œuvre a été moissonnée, mais à l'opérateur de l'IA de démontrer qu'il ne l'a pas utilisée de façon irrégulière. La proposition doit désormais passer en première lecture à l'Assemblée nationale. Ce renversement de la charge de la preuve modifie structurellement le rapport de force entre ayants droit et géants technologiques. Jusqu'ici, les créateurs, auteurs, éditeurs, musiciens, journalistes, se trouvaient dans l'impossibilité pratique de prouver que leurs œuvres avaient servi à entraîner des modèles dont les données d'entraînement restent opaques, souvent protégées par le secret des affaires. La nouvelle présomption leur offre un levier juridique concret : obliger les entreprises d'IA à justifier leurs pratiques devant un tribunal, ou, mieux, à négocier des accords de licence en amont pour éviter les procédures. Pour l'industrie de l'IA, cela implique une pression accrue vers la transparence sur les corpus d'entraînement, avec des conséquences potentielles sur les modèles entraînés massivement sur du contenu web non licencié. La proposition s'inscrit dans un mouvement plus large de régulation du rapport entre IA et propriété intellectuelle. Au niveau européen, le rapport de l'eurodéputé Alex Voss, voté le 11 mars 2026 au Parlement européen, recommandait déjà d'instaurer une présomption réfragable similaire, bien que limitée aux cas de non-respect des obligations de transparence prévues par l'AI Act. Le Sénat français va donc plus loin que Bruxelles, ce qui n'a pas manqué de susciter des réserves du côté du gouvernement : les ministres de la Culture et du Numérique ont mis en garde contre les risques de judiciarisation excessive et d'insécurité juridique, préférant privilégier la voie de la négociation. Ce débat illustre la tension persistante entre la nécessité de protéger la création culturelle et celle de ne pas entraver le développement d'une industrie dans laquelle la France et l'Europe cherchent à peser face aux acteurs américains et chinois.

UELes fournisseurs d'IA opérant en France devront désormais prouver qu'ils n'ont pas utilisé irrégulièrement des œuvres protégées, sous peine de contentieux, ce qui les pousse à négocier des licences ou à documenter leurs corpus d'entraînement pour le marché français et, potentiellement, européen.

💬 C'est le renversement qu'on attendait depuis que les premiers procès ont calé faute de preuves. Obliger les opérateurs à justifier leurs corpus plutôt que d'imposer aux créateurs de prouver le pillage, c'est enfin remettre la charge du côté qui a les moyens de l'assumer. Reste à voir ce que l'Assemblée en fait, et si le gouvernement ne vide pas le texte de sa substance sous prétexte de "compétitivité".

RégulationReglementation
1 source
☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine
3Next INpact 

☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine

Depuis la semaine dernière, Anthropic exige de certains de ses abonnés une vérification d'identité avec pièce officielle avec photo avant de continuer à utiliser Claude. Sans détailler publiquement les critères exacts, la société américaine confirme au site The Information que la mesure vise à bloquer l'accès commercial depuis des pays considérés comme adversaires des États-Unis, notamment la Chine, la Russie et la Corée du Nord. Anthropic invoque des raisons de sécurité nationale et indique que son équipe chargée des garde-fous « applique activement ces règles » et « prend des mesures contre les comptes en infraction ». Pour l'instant, la vérification ne touche pas l'ensemble des utilisateurs chinois, mais ses effets se font déjà sentir chez les startups qui ont bâti leur activité sur l'API Claude. Sur Idle Fish, la marketplace entre particuliers du groupe Alibaba, des vendeurs proposent déjà des contournements : comptes Claude Code préenregistrés, accès à des comptes existants, ou vente de pièces d'identité étrangères. Cette décision illustre la montée en puissance des considérations géopolitiques dans l'industrie de l'IA. Anthropic rejoint ainsi OpenAI, qui restreint déjà l'accès à ChatGPT dans plusieurs pays et exclut officiellement la Chine, la Russie et la Corée du Nord de sa liste de territoires autorisés, sans toutefois avoir mis en place à ce jour de vérification d'identité formelle. Pour les entreprises technologiques chinoises qui s'appuyaient sur Claude, cette coupure représente une rupture opérationnelle réelle, les forçant soit à migrer vers d'autres modèles, soit à adopter des pratiques de contournement risquées. Plus largement, ce type de restriction tend à accélérer la fragmentation du paysage mondial de l'IA entre blocs technologiques distincts. Ce blocage s'inscrit dans un contexte de tensions croissantes entre Washington et Pékin autour des technologies d'intelligence artificielle, qui fait suite aux restrictions déjà en vigueur sur l'exportation de semi-conducteurs américains avancés vers la Chine. Ces limitations ont poussé des acteurs comme Huawei et Baidu à intensifier le développement de leurs propres puces dédiées à l'IA. La même logique s'applique aux modèles de langage : coupée des outils américains les plus performants, la Chine a accéléré la construction de ses propres alternatives, dont la plus spectaculaire reste l'émergence de DeepSeek début 2025, qui a surpris l'ensemble de l'industrie par ses capacités. Si les restrictions d'Anthropic venaient à se généraliser ou à se durcir, elles pourraient paradoxalement renforcer l'écosystème IA chinois en lui donnant une raison supplémentaire de ne plus dépendre des modèles occidentaux.

RégulationReglementation
1 source
☕️ Les promesses non tenues autour de Siri vont coûter cher à Apple
4Next INpact 

☕️ Les promesses non tenues autour de Siri vont coûter cher à Apple

Apple a proposé un règlement amiable de 250 millions de dollars pour mettre fin à un recours collectif déposé en Californie, après que des consommateurs américains ont accusé l'entreprise de publicité mensongère autour de son assistant Siri. Le litige porte sur des spots télévisés diffusés à l'automne 2024, au moment du lancement de la gamme iPhone 16, dans lesquels l'actrice Bella Ramsey, connue pour ses rôles dans Game of Thrones et The Last of Us, interagissait avec un Siri capable de croiser des informations issues de plusieurs applications simultanément et d'exploiter le contexte de l'utilisateur pour répondre à des questions complexes. Ces fonctionnalités, présentées comme imminentes lors de la WWDC de juin 2024, n'ont jamais vu le jour. Apple a depuis discrètement retiré l'une de ces publicités, mais les archives d'internet en ont conservé la trace. Le chèque de 250 millions, qui ne comprend aucune reconnaissance de faute de la part d'Apple, doit encore être validé par le juge californien en charge du dossier. Si l'accord est approuvé, il constituera l'un des règlements judiciaires les plus importants de l'histoire d'Apple. Au-delà du montant, c'est l'ampleur du décalage entre la communication et la réalité qui frappe : les plaignants affirment qu'Apple a vendu des capacités d'IA « qui n'existaient pas à l'époque, qui n'existent toujours pas, et qui n'existeront pas dans les deux prochaines années ». Pour les consommateurs ayant acheté un iPhone 16 en partie motivés par ces promesses, la déception est concrète et mesurable. Pour l'industrie technologique plus largement, ce recours envoie un signal clair : les annonces de fonctionnalités IA non déployées peuvent désormais exposer les entreprises à une responsabilité juridique significative, à mesure que les régulateurs et les juridictions civiles s'emparent du sujet. Le retard de ce « Siri 2.0 » n'est pas un accident isolé, mais le symptôme d'une crise plus profonde au sein de la division intelligence artificielle d'Apple. L'entreprise, qui avait dévoilé Apple Intelligence avec une confiance affichée en juin 2024, a enchaîné les reports, faute de modèle suffisamment performant pour alimenter les nouvelles ambitions de l'assistant. Cette situation a déclenché une réorganisation interne et provoqué le départ de John Giannandrea, le principal responsable de l'IA chez Apple. Pour combler son retard, Cupertino a confirmé début janvier 2026 un accord avec Google pour intégrer les modèles Gemini à ses futures fonctionnalités d'IA. Le Siri personnalisé est désormais attendu avec iOS 27, mais la crédibilité d'Apple dans ce domaine reste entamée, dans un secteur où ses rivaux, Google, Microsoft, Amazon, ont déjà plusieurs longueurs d'avance.

UECe précédent judiciaire américain pourrait inciter les régulateurs européens à renforcer l'application de l'AI Act et du droit de la consommation contre les affirmations trompeuses sur les capacités des systèmes d'IA dans la publicité.

💬 Apple a vendu du rêve sur Siri, le rêve n'est jamais arrivé, et ça leur coûte 250 millions. Ce n'est pas le montant qui m'intéresse, c'est le signal : annoncer une feature IA inexistante en pub, c'est désormais un risque juridique réel. Et toute l'industrie fait ça, pas seulement Cupertino.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour