
Cette guerre ne finit jamais : la Maison-Blanche freine l’expansion d’une IA d’Anthropic jugée incontrôlable
La Maison-Blanche a bloqué le projet d'Anthropic d'élargir l'accès à son modèle d'IA Mythos, actuellement limité à environ cinquante organisations. L'entreprise souhaitait intégrer soixante-dix nouveaux clients pour atteindre environ cent vingt organisations partenaires, mais Washington a mis son veto. Officiellement, la décision repose sur des impératifs de sécurité nationale. En réalité, selon plusieurs sources internes citées dans des analyses récentes, le gouvernement américain craint surtout de perdre son accès prioritaire à la puissance de calcul associée au modèle : davantage de clients signifie moins de ressources disponibles pour les usages gouvernementaux. Un tweet analysant la situation résume la logique de la Maison-Blanche : ce n'est pas tant la dangerosité du modèle qui pose problème que la volonté de garder la main dessus.
L'enjeu dépasse la simple question d'accès. Mythos est décrit comme capable d'identifier et d'exploiter des failles critiques dans des infrastructures sensibles, réseaux électriques, hôpitaux, centrales énergétiques, avec une efficacité sans précédent. Des analyses internes évoquent un niveau de performance offensif jugé inédit pour un système commercial. Ce risque a été aggravé par un incident récent : des acteurs malveillants auraient réussi à accéder au modèle et exploiteraient déjà ses capacités offensives, au-delà du simple test. Ce point change radicalement la nature du débat : il ne s'agit plus d'un risque théorique mais d'une menace active, ce qui justifie aux yeux de Washington un contrôle strict du périmètre d'accès. Anthropic elle-même aurait alerté en interne sur ces dangers.
Les tensions entre la Maison-Blanche et Anthropic ne sont pas nouvelles. Plus tôt en 2026, le Pentagone avait rompu un contrat avec l'entreprise après qu'elle a refusé de fournir un accès sans restriction à ses outils, arguant de la nécessité d'encadrer les usages sensibles. Ce refus avait durci le climat entre les deux parties. Depuis, Washington voit dans Anthropic un acteur difficile à contrôler, tandis que l'entreprise défend une approche responsable face à des demandes qu'elle juge incompatibles avec ses principes de sécurité. Le bras de fer autour de Mythos illustre une tension plus large : à mesure que les modèles frontières deviennent des ressources stratégiques, les gouvernements cherchent à les traiter comme des actifs souverains, en concurrence directe avec la logique commerciale de leurs développeurs. La question de qui contrôle l'accès à ces systèmes, et à quelles conditions, est désormais au coeur des rivalités entre l'industrie privée de l'IA et les appareils d'État.
Ce bras de fer entre Anthropic et Washington sur le contrôle d'un modèle IA aux capacités offensives inédites pose un précédent qui pourrait influencer les débats européens sur la régulation des systèmes IA à double usage dans le cadre de l'AI Act.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



