Aller au contenu principal
RégulationLa Tribune59min

OPINION. « De Paris à Nairobi, nous refusons une révolution de l’IA sous dépendance »

Résumé IASource uniqueImpact UE
Source originale ↗·

Un an après le Sommet de Paris pour l'action sur l'intelligence artificielle, la France et le Kenya ont cosigné une tribune commune en marge du Sommet "Africa Forward". Les deux pays, réunis autour d'une conviction partagée, affirment que l'intelligence artificielle souveraine est atteignable, mais qu'aucune nation ne peut la construire seule. Ils identifient des secteurs prioritaires pour cette coopération : la santé, l'agriculture, l'éducation et les services publics, domaines dans lesquels l'IA pourrait transformer en profondeur les conditions de vie de millions de personnes.

L'enjeu dépasse le cadre bilatéral. En refusant explicitement une "révolution de l'IA sous dépendance", Paris et Nairobi pointent le risque que les pays du Sud global deviennent captifs de systèmes conçus par quelques grandes puissances technologiques, principalement américaines et chinoises. Pour le continent africain, cette dépendance pourrait se traduire par une perte de contrôle sur les données nationales, les infrastructures numériques et, à terme, les orientations des politiques publiques elles-mêmes.

Cette prise de position intervient dans un contexte de tensions croissantes autour de la gouvernance mondiale de l'IA. Depuis le Sommet de Bletchley Park en 2023, les grandes économies peinent à s'accorder sur un cadre réglementaire commun, et les forums multilatéraux successifs n'ont pas encore produit d'engagements contraignants. Le rapprochement franco-kényan illustre une stratégie alternative : construire des coalitions régionales capables de mutualiser expertises, infrastructures et données pour peser face aux géants du secteur. Des obstacles concrets restent à franchir, mais l'ambition commune est désormais posée par écrit.

Impact France/UE

La France cosigne officiellement avec le Kenya une tribune pour une IA souveraine, signalant une orientation diplomatique française visant à contrebalancer la dépendance aux géants technologiques américains et chinois.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple
1The Verge AI 

L'approbation d'une IA de détection de la dépression par la FDA n'est pas simple

La startup californienne Kintsugi, fondée il y a sept ans, vient d'annoncer sa fermeture après avoir échoué à obtenir l'autorisation de la FDA pour son outil d'intelligence artificielle capable de détecter des signes de dépression et d'anxiété dans la voix humaine. Faute de clairance réglementaire obtenue dans les délais, l'entreprise a décidé de rendre la majeure partie de sa technologie disponible en open source. Certains composants pourraient trouver une seconde vie en dehors du secteur médical, notamment pour détecter les deepfakes audio. L'évaluation de la santé mentale repose encore aujourd'hui quasi exclusivement sur des questionnaires remplis par les patients et des entretiens cliniques, contrairement à la médecine physique qui s'appuie sur des analyses biologiques ou des imageries. L'approche de Kintsugi était radicalement différente : son logiciel n'analysait pas ce qu'une personne disait, mais la manière dont elle le disait, en cherchant dans les modulations vocales des marqueurs de troubles psychiques. Cette technologie représentait une promesse réelle de dépistage précoce et objectif, accessible sans infrastructure médicale lourde. Le parcours de Kintsugi illustre la difficulté structurelle d'introduire des outils d'IA dans le domaine médical aux États-Unis. La FDA soumet les dispositifs de diagnostic à des exigences strictes de validation clinique, un processus long et coûteux qui épuise souvent les ressources des startups avant qu'elles n'atteignent le marché. L'abandon de cette technologie au profit de l'open source pourrait néanmoins permettre à des chercheurs ou d'autres entreprises de poursuivre ces travaux, dans un contexte où la détection automatisée de la santé mentale reste un enjeu médical et technologique majeur.

UELe cas Kintsugi illustre les obstacles que rencontreront les startups européennes soumises à l'AI Act, qui classe les outils d'IA diagnostique médicale en risque élevé avec des exigences de validation clinique tout aussi contraignantes.

RégulationReglementation
1 source
L'UE veut réguler l'IA mais dépend de la coopération d'OpenAI et Anthropic
2The Decoder 

L'UE veut réguler l'IA mais dépend de la coopération d'OpenAI et Anthropic

L'Union européenne peine à exercer une supervision concrète sur les modèles d'IA les plus puissants, faute d'accès garanti aux systèmes qu'elle souhaite évaluer. OpenAI a proposé à la Commission européenne un accès direct à son nouveau modèle GPT-5.5 Cyber pour des évaluations de sécurité, et des discussions sont déjà en cours. Du côté d'Anthropic, la situation est plus bloquée : après quatre à cinq réunions portant sur son modèle Mythos, les régulateurs n'ont toujours pas obtenu l'accès demandé. Ce décalage révèle une fragilité structurelle du cadre réglementaire européen. L'AI Act, présenté comme le premier règlement contraignant au monde sur l'intelligence artificielle, n'impose pas encore de mécanismes d'accès obligatoires et opposables aux modèles les plus avancés. Résultat : les régulateurs ne peuvent pas auditer ce qu'on ne leur montre pas. Si les grandes entreprises américaines choisissent de coopérer à des degrés très différents, c'est toute la crédibilité de la supervision européenne qui s'en trouve fragilisée, et avec elle la confiance du public dans l'efficacité réelle de ces règles. La situation intervient alors que l'Europe accélère la mise en oeuvre de l'AI Act, dont les premières obligations pour les modèles à usage général sont entrées en vigueur en août 2024. Les modèles dits "à risque systémique" sont soumis à des exigences de transparence renforcées, mais les mécanismes d'audit indépendants restent en construction. L'Europe se retrouve dans une position inconfortable : vouloir réguler des technologies qu'elle ne produit pas, face à des entreprises dont le siège, les ressources juridiques et les leviers de négociation sont aux États-Unis.

UEL'AI Act ne dispose pas encore de mécanismes d'accès contraignants pour les modèles à risque systémique, exposant une fragilité structurelle dans la capacité de supervision des régulateurs européens face aux grands fournisseurs américains.

💬 Anthropic refuse l'accès depuis cinq réunions, OpenAI joue le jeu pour l'instant : ce décalage dit tout sur ce que "régulation" veut vraiment dire ici. L'AI Act a des obligations de transparence, mais sans droit d'audit opposable, c'est un règlement qui demande poliment. Reste à voir combien de temps les coopérations volontaires tiendront quand les audits commenceront à coûter quelque chose.

RégulationReglementation
1 source
Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA
3AI News 

Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA

Fin février, le secrétaire américain à la Défense Pete Hegseth a adressé un ultimatum au PDG d'Anthropic, Dario Amodei : supprimer les garde-fous empêchant Claude d'être utilisé pour des armes entièrement autonomes et de la surveillance de masse intérieure, ou en subir les conséquences. Amodei a refusé, estimant qu'Anthropic ne pouvait pas "en bonne conscience" répondre à la demande du Pentagone, certains usages de l'IA pouvant "saper plutôt que défendre les valeurs démocratiques". La réaction de Washington a été immédiate : Donald Trump a ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic, le Pentagone a classé l'entreprise comme risque pour la chaîne d'approvisionnement -- label habituellement réservé à des entités étrangères adverses comme Huawei -- et le contrat de 200 millions de dollars avec le ministère de la Défense a été annulé. Londres a interprété cet épisode très différemment. Le département britannique pour la Science, l'Innovation et la Technologie (DSIT) a élaboré des propositions concrètes destinées à l'entreprise, valorisée 380 milliards de dollars : une double cotation à la Bourse de Londres et l'expansion de ses bureaux dans la capitale. Le bureau du Premier ministre Keir Starmer soutient l'initiative, qui sera soumise à Amodei lors de sa visite prévue fin mai. Anthropic compte déjà environ 200 employés au Royaume-Uni et a nommé l'ancien Premier ministre Rishi Sunak conseiller senior l'an dernier. En offrant cette ouverture, le gouvernement britannique envoie un signal explicite : les contraintes éthiques intégrées dans les produits d'Anthropic sont un atout, pas un frein. Une double cotation à Londres permettrait par ailleurs à la société d'accéder aux investisseurs institutionnels européens, à un moment où sa situation réglementaire aux États-Unis reste incertaine -- l'appel du Pentagone contre l'injonction provisoire qui bloque la désignation "risque d'approvisionnement" est toujours en cours devant la Cour d'appel du Neuvième Circuit. L'affaire dépasse le simple conflit juridique et commercial. La juge fédérale Rita Lin, qui a accordé l'injonction provisoire en mars, a jugé les actions du gouvernement américain "troublantes" et probablement contraires à la loi -- un constat qui pèse dans le débat international sur la gouvernance de l'IA. Le Royaume-Uni se positionne comme un environnement intermédiaire entre Washington, qui exige un accès militaire sans restriction, et Bruxelles, où l'AI Act européen impose ses propres contraintes. Ce positionnement ne demande pas à Anthropic de renoncer aux garde-fous pour lesquels l'entreprise s'est battue en justice. La compétition pour attirer les grands laboratoires d'IA à Londres est déjà intense : OpenAI a promis d'en faire son plus grand hub de recherche hors des États-Unis, et Google est ancré à King's Cross depuis le rachat de DeepMind en 2014. Dans ce contexte, Anthropic représente la cible la plus stratégique à ce jour, d'autant que le Royaume-Uni vient d'annoncer la création d'un laboratoire de recherche public doté de 40 millions de livres sterling, reconnaissant ainsi l'absence d'un champion national face aux grandes puissances américaines.

UELe Royaume-Uni se positionne comme hub alternatif entre Washington et Bruxelles en valorisant les garde-fous éthiques d'Anthropic, ce qui pourrait orienter des capitaux institutionnels européens vers l'entreprise et renforcer indirectement le modèle de gouvernance incarné par l'AI Act.

RégulationReglementation
1 source
Après le trafic de puces IA vers la Chine, Nvidia est à nouveau sous pression
401net 

Après le trafic de puces IA vers la Chine, Nvidia est à nouveau sous pression

Deux sénateurs américains, Jim Banks (républicain) et Elizabeth Warren (démocrate), ont adressé une demande conjointe à Nvidia pour exiger la suspension immédiate des ventes de puces d'intelligence artificielle avancées vers la Chine et plusieurs pays d'Asie du Sud-Est utilisés comme intermédiaires. Cette prise de position intervient dans le sillage de l'arrestation de trois individus soupçonnés d'avoir organisé un trafic illégal de semi-conducteurs, une affaire qui a remis en lumière les failles dans le contrôle des exportations américaines de composants stratégiques. L'enjeu est de taille : les puces Nvidia — notamment les séries H100 et A100 — sont au cœur de la course mondiale à l'IA, et leur transfert vers des entités chinoises représente un risque géopolitique et militaire direct pour Washington. En passant par des pays tiers comme Singapour, la Malaisie ou les Émirats arabes unis, certains acteurs contournent les restrictions d'exportation imposées depuis 2022. Si Nvidia n'est pas accusée de complicité directe, les sénateurs estiment que l'entreprise doit renforcer ses mécanismes de vérification des acheteurs finaux. Cette pression s'inscrit dans un contexte de durcissement progressif de la politique américaine sur les exportations technologiques vers la Chine, accéléré sous les administrations Biden puis Trump. Nvidia, qui réalisait encore plusieurs milliards de dollars de chiffre d'affaires annuel en Chine avant les premières restrictions, navigue entre obligations réglementaires et intérêts commerciaux. L'affaire illustre la difficulté structurelle à contrôler des chaînes d'approvisionnement mondiales complexes, et pourrait déboucher sur des règles d'exportation encore plus strictes.

UEUn durcissement des contrôles d'exportation américains sur les semi-conducteurs avancés pourrait restreindre l'accès des acteurs européens aux composants stratégiques nécessaires au développement de l'IA.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour