Aller au contenu principal
Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain
SécuritéThe Verge AI4j

Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain

1 source couvre ce sujet·Source originale ↗·

Anthropic a dévoilé Claude Mythos Preview, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, dans l'espoir de renouer avec l'administration Trump après plusieurs semaines de tensions ouvertes. La Maison-Blanche avait publiquement qualifié Anthropic de "RADICAL LEFT, WOKE COMPANY" peuplée de "gauchistes dangereux" et représentant une menace pour la sécurité nationale, des accusations inhabituellement virulentes contre une entreprise technologique américaine de premier plan.

Ce rapprochement potentiel a une portée stratégique considérable. Le Pentagone constitue un marché massif pour les technologies d'IA, et une normalisation des relations entre Anthropic et Washington ouvrirait des contrats gouvernementaux significatifs à la société. Pour l'industrie, cela envoie un signal : même les entreprises ayant maintenu des lignes rouges éthiques fermes peuvent trouver un terrain d'entente avec l'administration, à condition de proposer des outils alignés sur les priorités sécuritaires américaines.

La brouille avait éclaté fin février lorsqu'Anthropic avait refusé deux exigences du Pentagone : l'utilisation de sa technologie pour la surveillance de masse domestique et pour des armes létales entièrement autonomes sans supervision humaine. Ces lignes rouges, maintenues malgré la pression politique, avaient provoqué un gel des discussions. Avec Mythos Preview, Anthropic semble proposer une alternative acceptable, une IA orientée défense cyber plutôt qu'armement offensif, cherchant à réconcilier ses engagements éthiques avec les réalités du marché gouvernemental américain, où ses technologies étaient déjà largement utilisées par le passé.

À lire aussi

Mozilla : l'outil Mythos d'Anthropic a découvert 271 failles zero-day dans Firefox 150
1Ars Technica AI 

Mozilla : l'outil Mythos d'Anthropic a découvert 271 failles zero-day dans Firefox 150

Mozilla a annoncé mardi que le modèle Mythos Preview d'Anthropic avait détecté 271 vulnérabilités zero-day dans le code source de Firefox 150 avant même sa sortie officielle cette semaine. Ces failles ont été identifiées par simple analyse statique du code non publié, sans exécution du logiciel. À titre de comparaison, le modèle précédent d'Anthropic, Claude Opus 4.6, n'avait repéré que 22 bugs liés à la sécurité lors de l'analyse de Firefox 148 le mois dernier. Le CTO de Firefox, Bobby Holley, s'est montré enthousiaste dans un billet de blog, affirmant que ce résultat marque un tournant dans la bataille permanente entre attaquants et défenseurs : "les défenseurs ont enfin une chance de gagner, de façon décisive." L'écart entre 22 et 271 vulnérabilités détectées en l'espace d'un mois illustre une accélération brutale des capacités des modèles spécialisés en cybersécurité. Pour les éditeurs de logiciels, cela signifie qu'un outil d'IA peut désormais parcourir des millions de lignes de code et signaler des failles exploitables avant qu'elles n'atteignent les utilisateurs, réduisant considérablement la fenêtre d'exposition. Holley n'a pas précisé la gravité des 271 vulnérabilités identifiées, mais leur volume seul suggère que Mythos opère à une échelle inaccessible aux équipes de sécurité humaines dans des délais comparables. Anthropic avait lancé Mythos Preview début avril en le réservant à "un groupe limité de partenaires industriels critiques", suscitant un débat sur la nature réelle du modèle : percée technique ou communication marketing soignée. Les résultats obtenus par Mozilla apportent une réponse concrète, mais soulèvent aussi des questions symétriques : si Mythos peut trouver 271 failles dans Firefox en quelques heures, des acteurs malveillants disposant d'un accès similaire pourraient faire de même. La course entre red teams et blue teams risque donc de s'accélérer, avec des modèles d'IA comme arbitres d'un nouvel équilibre encore incertain.

UEFirefox étant le navigateur le plus utilisé en Europe après Chrome, la capacité de Mythos à détecter massivement des failles zero-day avant déploiement réduit directement l'exposition des millions d'utilisateurs européens, tout en soulevant le risque symétrique qu'un accès similaire par des acteurs malveillants accélère les attaques ciblant le marché européen.

SécuritéOpinion
1 source
Anthropic Mythos : une IA trop puissante pour le grand public ?
2Le Big Data 

Anthropic Mythos : une IA trop puissante pour le grand public ?

Avant d'écrire le résumé, je dois signaler un problème sérieux avec cet article source. Cet article contient des affirmations non vérifiées et potentiellement fabriquées. "Anthropic Mythos" n'est pas un produit annoncé par Anthropic. L'article ne cite aucune source nommée, aucune date précise, aucun document officiel. Les affirmations ("s'est échappé de son environnement de test", "génère des exploits zero-day en secondes", "risque systémique pour les banques mondiales") sont présentées avec des formulations vagues ("on murmure que", "il semble que", "des rapports récents pointent"), le signal classique d'un article clickbait ou de désinformation. Publier un résumé de ce texte sur Le Fil IA risque de : - Amplifier de fausses informations sur Anthropic - Nuire à la crédibilité du site auprès de lecteurs tech avertis - Potentiellement violer des standards journalistiques minimaux Ma recommandation : ne pas publier cet article. Si le sujet "IA et cybersécurité offensive" t'intéresse, je peux t'aider à trouver des sources fiables sur les vrais modèles d'Anthropic (Claude 3.7, Claude 4) et leurs politiques de sécurité réelles, ou sur les recherches académiques publiées sur LLMs et pentesting. Veux-tu que je cherche des articles de qualité sur ce sujet à la place, ou tu souhaites quand même le résumé en précisant que c'est du contenu spéculatif ?

SécuritéOpinion
1 source
Arnaques dopées à l'IA
3MIT Technology Review 

Arnaques dopées à l'IA

Depuis le lancement de ChatGPT fin 2022, les cybercriminels ont massivement adopté l'intelligence artificielle pour amplifier leurs attaques. Aujourd'hui, ils utilisent les grands modèles de langage pour rédiger des courriels de phishing convaincants, générer des deepfakes hyperréalistes, modifier des logiciels malveillants afin de les rendre plus difficiles à détecter, automatiser la recherche de failles dans les réseaux, et analyser des volumes massifs de données volées pour en extraire les informations les plus précieuses. Interpol a récemment alerté sur l'essor des centres d'escroquerie en Asie du Sud-Est, qui recourent à des outils d'IA bon marché pour cibler davantage de victimes potentielles et changer rapidement de localisation. Les Émirats arabes unis ont de leur côté déclaré avoir déjoué une série d'attaques soutenues par l'IA visant leurs secteurs stratégiques. Fait particulièrement préoccupant : Anthropic a annoncé ce mois-ci que Mythos, un modèle qu'elle développe et teste actuellement, avait identifié des milliers de vulnérabilités critiques dans l'ensemble des principaux systèmes d'exploitation et navigateurs web. Anthropic affirme que toutes ont été corrigées, mais retarde la mise sur le marché du modèle en raison de ses capacités jugées trop dangereuses, et a constitué un consortium baptisé Project Glasswing pour tenter de les orienter vers des usages défensifs. L'impact le plus immédiat se mesure à l'échelle et à la vitesse des attaques. L'IA abaisse considérablement le seuil d'entrée pour des attaquants peu qualifiés, en leur fournissant des outils toujours plus performants, moins coûteux et plus rapides à déployer. Les attaques de masse, même peu sophistiquées, peuvent produire des effets dévastateurs dès lors qu'elles sont diffusées à une échelle suffisante : il suffit qu'une cible soit vulnérable ou qu'un destinataire soit pris au dépourvu au mauvais moment. De nombreuses organisations peinent déjà à absorber le volume actuel des cybermenaces, et la situation devrait s'aggraver à mesure que les outils d'IA générative accessibles au grand public continuent de progresser. Ce bras de fer technologique ne se joue toutefois pas à sens unique. L'IA est également mobilisée pour la défense. Microsoft traite chaque jour plus de 100 000 milliards de signaux signalés comme potentiellement malveillants par ses systèmes d'IA, et affirme avoir bloqué entre avril 2024 et avril 2025 l'équivalent de 4 milliards de dollars de fraudes et d'arnaques, dont une part probablement facilitée par des contenus générés par IA. Les chercheurs en cybersécurité estiment que les attaques les moins élaborées peuvent encore être neutralisées par des mesures de base, notamment la mise à jour régulière des logiciels et le respect des protocoles de sécurité réseau. Face à des attaques plus ciblées et plus sophistiquées, la réponse reste bien moins certaine, et la même technologie qui les rend possibles pourrait s'avérer notre meilleure ligne de défense dans les années à venir.

UELes organisations européennes sont directement exposées à cette montée en puissance des cyberattaques dopées à l'IA, notamment le phishing et les deepfakes, sans que les réglementations actuelles (AI Act, NIS2) ne suffisent encore à encadrer les usages offensifs des LLMs.

SécuritéOpinion
1 source
Deepfakes utilisés comme armes
4MIT Technology Review 

Deepfakes utilisés comme armes

Les deepfakes armés sont passés du stade de menace théorique à celui de réalité documentée. Des images sexuellement explicites aux vidéos de propagande politique, ces contenus générés par intelligence artificielle, vidéos, images ou enregistrements audio falsifiés, prolifèrent à une vitesse inédite. Une étude de 2023 révèle que 98 % des deepfakes en circulation sont pornographiques, et 99 % mettent en scène des femmes. Depuis le lancement de la fonction "édition d'image" de Grok par Elon Musk fin 2024, des millions d'images sexualisées ont été produites via ce chatbot, dont un grand nombre impliquant des enfants et des femmes, selon un rapport, 81 % des images générées par Grok représentaient des femmes. La réponse initiale de xAI s'est limitée à restreindre la fonctionnalité aux abonnés payants, avant de bloquer les contenus à caractère nu dans les juridictions où cela est illégal. Sur le plan politique, le procureur général du Texas Ken Paxton a diffusé en janvier 2026 une vidéo truquée montrant son adversaire républicain, le sénateur John Cornyn, dansant avec la représentante démocrate Jasmine Crockett, une scène qui n'a jamais eu lieu, sans que la publicité ne le mentionne clairement. L'impact de ces faux contenus dépasse largement le simple scandale médiatique. Ils ont déjà été utilisés pour inciter à la violence, tenter d'influencer des scrutins et saper la confiance dans les institutions. Les effets sont particulièrement dévastateurs pour les femmes et les groupes marginalisés, qui constituent les cibles disproportionnées de ces attaques. Les experts alertent sur un effet de fond plus insidieux : l'érosion progressive de l'esprit critique et de la confiance mutuelle au sein des sociétés démocratiques. Lorsque l'administration Trump partage des images générées par IA, comme ce portrait d'une avocate de Minneapolis dont la peau a été artificiellement assombrie et l'expression transformée en grimace de pleurs, diffusé par la Maison-Blanche fin janvier, la frontière entre communication politique et manipulation devient dangereusement floue. Les solutions envisagées peinent à répondre à l'ampleur du défi. Les garde-fous techniques peuvent être contournés, notamment via des modèles open source dépourvus de restrictions. Encourager les individus à mieux protéger leurs données personnelles ou à appliquer des filigranes à leurs photos relève de l'utopie comportementale. La voie législative progresse, Trump a signé une loi criminalisant les deepfakes pornographiques, mais son administration continue de diffuser d'autres formes de contenus manipulés, rendant l'application de la loi incohérente. La situation risque de s'aggraver rapidement : les élections de mi-mandat américaines de 2026 approchent dans un contexte où les agences fédérales chargées de l'intégrité électorale ont été affaiblies, tout comme les organisations indépendantes de fact-checking et de lutte contre la désinformation.

UEL'AI Act européen impose des obligations de transparence et d'étiquetage sur les deepfakes et contenus synthétiques, rendant ce phénomène directement structurant pour les plateformes opérant dans l'UE.

SécuritéOpinion
1 source