
L'UE veut réguler l'IA mais dépend de la coopération d'OpenAI et Anthropic
L'Union européenne peine à exercer une supervision concrète sur les modèles d'IA les plus puissants, faute d'accès garanti aux systèmes qu'elle souhaite évaluer. OpenAI a proposé à la Commission européenne un accès direct à son nouveau modèle GPT-5.5 Cyber pour des évaluations de sécurité, et des discussions sont déjà en cours. Du côté d'Anthropic, la situation est plus bloquée : après quatre à cinq réunions portant sur son modèle Mythos, les régulateurs n'ont toujours pas obtenu l'accès demandé.
Ce décalage révèle une fragilité structurelle du cadre réglementaire européen. L'AI Act, présenté comme le premier règlement contraignant au monde sur l'intelligence artificielle, n'impose pas encore de mécanismes d'accès obligatoires et opposables aux modèles les plus avancés. Résultat : les régulateurs ne peuvent pas auditer ce qu'on ne leur montre pas. Si les grandes entreprises américaines choisissent de coopérer à des degrés très différents, c'est toute la crédibilité de la supervision européenne qui s'en trouve fragilisée, et avec elle la confiance du public dans l'efficacité réelle de ces règles.
La situation intervient alors que l'Europe accélère la mise en oeuvre de l'AI Act, dont les premières obligations pour les modèles à usage général sont entrées en vigueur en août 2024. Les modèles dits "à risque systémique" sont soumis à des exigences de transparence renforcées, mais les mécanismes d'audit indépendants restent en construction. L'Europe se retrouve dans une position inconfortable : vouloir réguler des technologies qu'elle ne produit pas, face à des entreprises dont le siège, les ressources juridiques et les leviers de négociation sont aux États-Unis.
L'AI Act ne dispose pas encore de mécanismes d'accès contraignants pour les modèles à risque systémique, exposant une fragilité structurelle dans la capacité de supervision des régulateurs européens face aux grands fournisseurs américains.
Anthropic refuse l'accès depuis cinq réunions, OpenAI joue le jeu pour l'instant : ce décalage dit tout sur ce que "régulation" veut vraiment dire ici. L'AI Act a des obligations de transparence, mais sans droit d'audit opposable, c'est un règlement qui demande poliment. Reste à voir combien de temps les coopérations volontaires tiendront quand les audits commenceront à coûter quelque chose.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




