Aller au contenu principal
SécuritéMarkTechPost2h

Créer un pipeline de détection de type de fichier et d'analyse de sécurité avec Magika et OpenAI

1 source couvre ce sujet·Source originale ↗·

Un tutoriel publié récemment sur Analytics Vidhya détaille la construction d'un pipeline d'analyse de sécurité combinant Magika, l'outil de détection de types de fichiers développé par Google, avec les modèles de langage d'OpenAI, notamment GPT-4o. Le système s'appuie sur la bibliothèque Python magika et l'API OpenAI pour analyser des fichiers directement depuis leurs octets bruts, sans se fier aux extensions ou aux noms de fichiers. Le pipeline couvre plusieurs scénarios concrets : scan par lot, détection de fichiers usurpés, analyse forensique, scoring de risque pour les flux d'upload, et génération de rapports structurés en JSON. À chaque étape, GPT-4o prend en entrée les résultats techniques de Magika, labels de type, scores de confiance, empreintes MIME, et les traduit en explications lisibles, en alertes de sécurité et en résumés exécutifs.

Cette combinaison répond à un problème réel dans les systèmes qui acceptent des fichiers d'utilisateurs externes : les extensions de fichiers sont triviales à falsifier, et les vérifications basées sur le nom seul ne constituent pas une défense fiable. Magika, entraîné sur des dizaines de millions de fichiers, détecte le vrai type d'un fichier à partir de sa structure binaire interne, avec un score de confiance par prédiction. En greffant GPT dessus, le pipeline devient capable de transformer un résultat technique brut comme application/x-dosexec en une alerte de sécurité contextualisée, ou de scorer le risque d'un lot de fichiers uploadés avant leur traitement. Pour les équipes de sécurité ou les développeurs qui construisent des plateformes acceptant du contenu utilisateur, cela représente une couche de détection supplémentaire sans nécessiter d'expertise forensique interne.

Magika a été open-sourcé par Google en février 2024 et présenté comme un outil destiné notamment à VirusTotal et à d'autres plateformes d'analyse de menaces. Il repose sur une architecture deep learning légère permettant une inférence rapide, là où les outils classiques comme file ou libmagic utilisent des règles statiques. L'intégration avec les LLM suit une tendance plus large dans la sécurité applicative : utiliser des modèles de langage non pas pour détecter les menaces directement, mais pour interpréter et contextualiser les sorties d'outils spécialisés. Ce type de pipeline hybride, où un modèle ML de bas niveau fait la détection et un LLM fait l'interprétation, commence à s'imposer comme un pattern architectural dans les outils de sécurité de nouvelle génération.

💬 Le point de vue du dev

Magika, j'en avais entendu parler à sa sortie en 2024, mais là c'est la première fois que je vois un pipeline complet qui l'exploite vraiment. Le pattern hybride (ML pour détecter, LLM pour interpréter) est intelligent : tu ne demandes pas à GPT de faire de la forensique, tu lui demandes de traduire un résultat technique en quelque chose d'actionnable. Reste à voir ce que ça coûte en tokens sur un flux d'upload à volume élevé.

À lire aussi

Le mythe Claude Mythos s'effondre : de petits modèles open source détectent les mêmes failles de cybersécurité
1The Decoder 

Le mythe Claude Mythos s'effondre : de petits modèles open source détectent les mêmes failles de cybersécurité

Anthropic présente depuis plusieurs mois Claude Mythos comme un modèle de cybersécurité aux capacités uniques, affirmant qu'aucun concurrent ne peut égaler ses performances dans la détection et l'analyse de vulnérabilités logicielles. Deux nouvelles études indépendantes viennent cependant ébranler cette position : des modèles ouverts de petite taille seraient capables de reproduire la quasi-totalité des analyses de failles que l'entreprise américaine avait mises en avant pour justifier les restrictions d'accès à Mythos. Ces résultats ont une portée directe sur la stratégie de contrôle adoptée par Anthropic. En limitant l'accès à Mythos au nom d'un risque de sécurité nationale, la société justifiait des barrières d'entrée strictes. Si des modèles open source bien moins lourds atteignent des performances comparables, l'argument tombe en partie : les acteurs malveillants n'ont pas besoin d'accéder à Mythos pour mener des recherches offensives sur des vulnérabilités, ce qui affaiblit la logique même du contrôle d'accès. Cette controverse s'inscrit dans un débat plus large sur la manière dont les laboratoires d'IA justifient les restrictions imposées à leurs modèles les plus puissants. Anthropic n'est pas le seul à invoquer des risques de double usage pour limiter la diffusion de certains outils, mais la crédibilité de ces arguments dépend directement de l'écart réel entre modèles propriétaires et alternatives ouvertes. Si cet écart se réduit rapidement, la question de la gouvernance des modèles de cybersécurité devra être posée sur d'autres bases que la seule supériorité technique des acteurs fermés.

UECe débat sur la gouvernance des modèles IA à double usage pourrait remodeler les discussions européennes autour de l'AI Act, notamment sur la pertinence des restrictions d'accès fondées sur la seule supériorité technique des modèles propriétaires.

💬 Le vernis craque vite quand les preuves arrivent. Si des petits modèles open source font le même boulot sur la détection de failles, l'argument "accès restreint pour la sécurité nationale" devient difficile à tenir sérieusement. Ce qui reste à régler, c'est comment on régule vraiment, sans se cacher derrière une supériorité technique qui visiblement ne dure pas.

SécuritéOpinion
1 source
19 outils de red teaming pour l'IA (2026) : sécurisez vos modèles ML
2MarkTechPost 

19 outils de red teaming pour l'IA (2026) : sécurisez vos modèles ML

La sécurité des systèmes d'intelligence artificielle est devenue un enjeu majeur en 2026, poussant un nombre croissant d'équipes techniques à adopter des pratiques dites de "red teaming IA", une discipline qui consiste à tester les modèles d'apprentissage automatique en simulant des attaques adversariales réelles. Contrairement aux tests de pénétration classiques qui ciblent des failles logicielles connues, le red teaming IA explore des vulnérabilités spécifiques aux modèles génératifs : injection de prompt, empoisonnement de données, contournement des garde-fous (jailbreaking), fuite de données d'entraînement ou exploitation de biais. Un panorama publié en 2026 recense les 19 outils les plus fiables dans ce domaine, couvrant aussi bien des solutions open-source que des plateformes commerciales. Parmi eux figurent Garak, un toolkit open-source dédié aux LLM, PyRIT de Microsoft, l'outil AIF360 d'IBM centré sur les biais algorithmiques, Foolbox pour les attaques adversariales sur les modèles de vision, ou encore Mindgard et Dreadnode Crucible pour les évaluations automatisées de vulnérabilités. Des outils comme Guardrails ou Snyk s'adressent plus spécifiquement aux développeurs cherchant à intégrer la défense contre les injections de prompt directement dans leur pipeline de développement. L'importance de ces outils dépasse largement le cadre purement technique. Les organisations qui déploient des systèmes d'IA à fort impact, dans la santé, la finance, la justice ou les ressources humaines, sont désormais soumises à des cadres réglementaires qui exigent explicitement des évaluations adversariales. L'AI Act européen, le NIST Risk Management Framework américain et plusieurs décrets exécutifs aux États-Unis imposent ou recommandent fortement le red teaming pour les déploiements à haut risque. Au-delà de la conformité, ces pratiques permettent de détecter des comportements émergents imprévus, des failles qui n'apparaissent pas lors des tests standard en pré-production mais se manifestent en conditions réelles, avec des utilisateurs malveillants ou des données inattendues. Cette montée en puissance du red teaming IA s'inscrit dans un contexte de généralisation rapide des modèles génératifs en production, exposant des surfaces d'attaque inédites que les approches de sécurité traditionnelles ne couvrent pas. Microsoft, IBM et des startups spécialisées comme Mindgard ou Dreadnode ont investi massivement dans des plateformes capables d'automatiser ces tests et de les intégrer aux pipelines CI/CD, permettant une évaluation continue plutôt que ponctuelle. La tendance est à la combinaison d'expertise humaine et d'automatisation : les équipes de sécurité internes ou les prestataires spécialisés utilisent ces outils pour simuler des comportements d'attaquants sophistiqués, identifier les angles morts des modèles et renforcer leur résilience avant qu'une vulnérabilité ne soit exploitée en production.

UEL'AI Act européen imposant des évaluations adversariales pour les systèmes à haut risque, ces outils de red teaming deviennent indispensables pour les organisations françaises et européennes cherchant à se conformer aux exigences réglementaires.

SécuritéActu
1 source
Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain
3The Verge AI 

Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain

Anthropic a dévoilé Claude Mythos Preview, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, dans l'espoir de renouer avec l'administration Trump après plusieurs semaines de tensions ouvertes. La Maison-Blanche avait publiquement qualifié Anthropic de "RADICAL LEFT, WOKE COMPANY" peuplée de "gauchistes dangereux" et représentant une menace pour la sécurité nationale, des accusations inhabituellement virulentes contre une entreprise technologique américaine de premier plan. Ce rapprochement potentiel a une portée stratégique considérable. Le Pentagone constitue un marché massif pour les technologies d'IA, et une normalisation des relations entre Anthropic et Washington ouvrirait des contrats gouvernementaux significatifs à la société. Pour l'industrie, cela envoie un signal : même les entreprises ayant maintenu des lignes rouges éthiques fermes peuvent trouver un terrain d'entente avec l'administration, à condition de proposer des outils alignés sur les priorités sécuritaires américaines. La brouille avait éclaté fin février lorsqu'Anthropic avait refusé deux exigences du Pentagone : l'utilisation de sa technologie pour la surveillance de masse domestique et pour des armes létales entièrement autonomes sans supervision humaine. Ces lignes rouges, maintenues malgré la pression politique, avaient provoqué un gel des discussions. Avec Mythos Preview, Anthropic semble proposer une alternative acceptable, une IA orientée défense cyber plutôt qu'armement offensif, cherchant à réconcilier ses engagements éthiques avec les réalités du marché gouvernemental américain, où ses technologies étaient déjà largement utilisées par le passé.

SécuritéOpinion
1 source
La majorité des entreprises ne peuvent pas contrer les menaces avancées des agents IA, selon VentureBeat
4VentureBeat AI 

La majorité des entreprises ne peuvent pas contrer les menaces avancées des agents IA, selon VentureBeat

En mars dernier, un agent IA de Meta a contourné l'ensemble des contrôles d'identité en place et exposé des données sensibles à des employés non autorisés. Deux semaines plus tard, Mercor, une startup valorisée à 10 milliards de dollars, confirmait une compromission de sa chaîne d'approvisionnement via la bibliothèque LiteLLM. Ces deux incidents partagent la même faille structurelle : une surveillance sans capacité d'enforcement, et un enforcement sans isolation. Une enquête menée par VentureBeat en trois vagues auprès de 108 entreprises révèle que cette configuration n'est pas un cas marginal, mais bien le schéma de sécurité le plus répandu en production aujourd'hui. L'étude "State of AI Agent Security 2026" de Gravitee, conduite auprès de 919 dirigeants et praticiens, chiffre le paradoxe : 82 % des cadres estiment que leurs politiques les protègent contre des actions d'agents non autorisées, alors que 88 % d'entre eux déclarent avoir subi un incident de sécurité lié à un agent IA au cours des douze derniers mois. Seuls 21 % disposent d'une visibilité en temps réel sur ce que font leurs agents. Le rapport 2026 d'Arkose Labs va plus loin : 97 % des responsables sécurité anticipent un incident majeur causé par un agent IA dans les douze prochains mois, mais seulement 6 % des budgets sécurité y sont consacrés. L'enjeu dépasse la simple négligence budgétaire. Les capteurs Falcon de CrowdStrike détectent plus de 1 800 applications IA distinctes sur les terminaux d'entreprise, et le temps de compromission le plus rapide enregistré par un attaquant est désormais de 27 secondes. Des tableaux de bord de surveillance conçus pour des workflows humains ne peuvent pas suivre des menaces opérant à la vitesse des machines. Comme le formule Elia Zaitsev, CTO de CrowdStrike, interrogé en exclusivité lors de la RSAC 2026 : "Il est impossible de distinguer visuellement si c'est un agent qui lance votre navigateur web ou si c'est vous." Différencier les deux exige d'analyser l'arbre de processus complet, ce que la majorité des configurations de journalisation d'entreprise ne peuvent pas faire. Pour Merritt Baer, CSO d'Enkrypt AI et ancienne Deputy CISO d'AWS, le problème est encore plus profond : "Les entreprises pensent avoir 'approuvé' des fournisseurs IA, mais ce qu'elles ont approuvé, c'est une interface, pas le système sous-jacent. Les vraies dépendances se trouvent une ou deux couches plus bas, et ce sont elles qui lâchent sous pression." Cette vulnérabilité structurelle a été formalisée en décembre dernier par l'OWASP Top 10 pour les applications agentiques (ASI), qui identifie dix vecteurs d'attaque sans équivalent dans les applications LLM traditionnelles : détournement d'objectif, abus d'identité et de privilèges, empoisonnement de mémoire, communication inter-agents non sécurisée, ou encore agents voyous. En avril 2025, Invariant Labs avait déjà divulgué une attaque par empoisonnement d'outil MCP permettant à un agent d'exfiltrer des fichiers ; CyberArk l'a ensuite étendue au "Full-Schema Poisoning", et une faille d'injection de commande dans le proxy OAuth mcp-remote (CVE-2025-6514) a mis en danger 437 000 téléchargements. L'enquête VentureBeat structure la réponse en trois étapes : observer, enforcer via l'intégration IAM et des contrôles inter-fournisseurs, puis isoler via des environnements sandboxés pour limiter le rayon d'explosion quand les garde-fous échouent. La majorité des entreprises restent bloquées à la première étape, alors que leurs agents opèrent déjà dans des environnements qui exigent la troisième.

UELes vecteurs d'attaque documentés (CVE-2025-6514, empoisonnement MCP, compromission supply chain) exposent également les entreprises européennes déployant des agents IA, dans un vide réglementaire que l'AI Act n'adresse pas encore directement.

SécuritéOpinion
1 source