
Trump veut un interrupteur pour débrancher les IA folles
Donald Trump a exprimé publiquement son soutien à la mise en place d'un mécanisme d'arrêt d'urgence pour les systèmes d'intelligence artificielle jugés dangereux. Interrogé sur Fox Business Network dans l'émission "Mornings with Maria", le président américain a répondu affirmativement à la question de savoir si le gouvernement devait instaurer des garde-fous autour de l'IA, dont un "bouton d'arrêt d'urgence" : "Il devrait y en avoir." Ces déclarations font directement écho aux alertes lancées cette semaine par des experts en cybersécurité au sujet de Claude Mythos, le nouveau modèle d'Anthropic. Ce modèle serait capable d'identifier des failles dans les systèmes bancaires plus rapidement que les correctifs ne peuvent être déployés, ouvrant potentiellement la voie à des cyberattaques complexes à grande échelle. La Banque centrale européenne a d'ores et déjà annoncé qu'elle allait interroger les établissements financiers sur leur niveau de préparation face à cette menace. Anthropic, de son côté, n'a pas répondu aux avertissements des experts et a précisé que Claude Mythos Preview ne serait pas mis à disposition du grand public.
L'enjeu est considérable pour le secteur financier mondial. Si un modèle d'IA généraliste peut automatiser la détection de vulnérabilités bancaires à une vitesse que les équipes de sécurité ne peuvent pas suivre, les risques systémiques deviennent réels et immédiats. L'intervention de la BCE illustre à quel point la menace est prise au sérieux au niveau institutionnel : les régulateurs européens veulent s'assurer que les banques ne sont pas exposées à une nouvelle catégorie de risque technologique qu'elles n'auraient pas anticipée. Trump lui-même a nuancé son propos en reconnaissant le double tranchant de la technologie, estimant qu'elle pourrait aussi "rendre le système bancaire encore meilleur, plus sûr et plus sécurisé" si elle est correctement encadrée. Cette position reflète une tension désormais centrale dans le débat public : l'IA est simultanément un outil de défense et un vecteur d'attaque potentiel.
Ce débat sur les mécanismes de contrôle de l'IA n'est pas nouveau, mais il prend une dimension politique inédite lorsqu'il est porté par un président américain en exercice. Depuis plusieurs années, chercheurs et organismes de sécurité alertent sur la nécessité d'un "kill switch" pour les systèmes autonomes susceptibles d'échapper au contrôle humain. L'émergence de modèles toujours plus puissants, capables d'agir dans des domaines critiques comme la finance ou les infrastructures, accélère cette demande de régulation. Anthropic, qui se positionne pourtant comme une entreprise axée sur la sécurité de l'IA, se retrouve au coeur d'une controverse qui pourrait influencer les prochaines décisions législatives américaines et européennes sur l'encadrement des modèles frontier.
La BCE a officiellement annoncé qu'elle interrogerait les établissements financiers européens sur leur niveau de préparation face aux risques posés par des modèles d'IA capables d'automatiser la détection de vulnérabilités bancaires.
Un bouton pour débrancher l'IA, Trump y est favorable, et franchement c'est la partie la moins folle de l'article. Ce qui me préoccupe vraiment, c'est Claude Mythos qui détecte des failles bancaires plus vite qu'on peut les corriger, parce que là on parle d'un risque systémique concret, pas d'un scénario de science-fiction. Anthropic qui ne répond pas aux experts, la BCE qui s'active, et un président américain qui en parle sur Fox Business : le sujet a changé de salle.



