Aller au contenu principal
Darktrace, la plateforme de cyberdéfense nourrit par l’IA
SécuritéLe Big Data6sem

Darktrace, la plateforme de cyberdéfense nourrit par l’IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Darktrace s'impose comme l'une des références mondiales de la cybersécurité augmentée par l'intelligence artificielle. Fondée en 2013 à Cambridge, la société a été rachetée en 2024 par le fonds d'investissement américain Thoma Bravo pour 5,32 milliards de dollars, confirmant son statut de pépite technologique dans un secteur en pleine effervescence.

Dans un contexte où les cybermenaces visent indistinctement les grands groupes — Sony, Microsoft, Airbus — comme les PME et TPE, la proposition de Darktrace répond à un besoin critique : anticiper les attaques plutôt que les subir. Sa plateforme repose sur une approche comportementale alimentée par l'IA, capable de modéliser le fonctionnement "normal" d'un réseau pour détecter toute anomalie en temps réel. C'est ce positionnement différenciant qui lui a valu le titre de "entreprise la plus innovante en IA" décerné par Fast Company.

Les chiffres témoignent d'une trajectoire remarquable : en 2018, cinq ans seulement après sa création, Darktrace levait 50 millions de dollars pour une valorisation de 1,65 milliard de dollars, portant le total collecté à 229 millions de dollars depuis sa fondation. En 2021, son introduction à la Bourse de Londres la valorisait à 2,37 milliards de dollars. Aujourd'hui, l'entreprise compte plus de 2 000 employés, une quarantaine de bureaux dans le monde et plus de 9 000 clients dans plus de 100 pays. Derrière la technologie se trouvent des mathématiciens de l'université de Cambridge ainsi que d'anciens responsables du renseignement — dont un ex-directeur des systèmes d'information de la CIA et un ancien du MI5.

L'acquisition par Thoma Bravo — déjà propriétaire de Proofpoint, SailPoint et Sophos — s'inscrit dans une stratégie de consolidation du marché de la cybersécurité. La gamme produits de Darktrace (Prevent, Detect, Respond, Heal) forme un écosystème de protection complet qui positionne l'entreprise comme un guichet unique pour les directions sécurité, à l'heure où la complexité des menaces rend toute fragmentation des outils particulièrement risquée.

Impact France/UE

Darktrace, fondée à Cambridge et utilisée par des entreprises européennes comme Airbus, représente un acteur de référence pour la cyberdéfense IA des organisations françaises et européennes face à la montée des cyberattaques.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic lance un nouveau modèle d'IA pour la cybersécurité
1The Verge AI 

Anthropic lance un nouveau modèle d'IA pour la cybersécurité

Anthropic lance un nouveau modèle d'intelligence artificielle dédié à la cybersécurité, dans le cadre d'un partenariat baptisé Project Glasswing réunissant Nvidia, Google, Amazon Web Services, Apple, Microsoft et d'autres grandes entreprises technologiques. Ce projet propose aux partenaires de lancement un accès à Claude Mythos Preview, un modèle généraliste inédit qu'Anthropic ne prévoit pas de rendre public en raison de préoccupations liées à la sécurité. L'objectif affiché est de permettre aux grandes organisations, et potentiellement aux gouvernements, de détecter automatiquement des vulnérabilités dans leurs systèmes avec une intervention humaine quasi nulle. L'enjeu est considérable pour les équipes de sécurité informatique qui font face à un volume croissant de menaces et manquent souvent de ressources pour les auditer manuellement. En automatisant la détection de failles, Claude Mythos Preview pourrait réduire drastiquement le temps de réponse face aux cyberattaques et permettre aux entreprises d'identifier des vulnérabilités avant que des acteurs malveillants ne les exploitent. Newton Cheng, responsable cyber au sein de l'équipe red team d'Anthropic, indique que le modèle vise à donner aux équipes de sécurité un avantage structurel sur leurs adversaires. Cette initiative s'inscrit dans une tendance de fond où les grands laboratoires d'IA cherchent à positionner leurs modèles sur des secteurs critiques à haute valeur ajoutée. Anthropic, qui se distingue par son approche axée sur la sécurité des systèmes d'IA, choisit ici de restreindre l'accès à ce modèle plutôt que de le diffuser largement, une décision rare qui soulève des questions sur la gouvernance des outils d'IA offensifs et défensifs dans un contexte géopolitique tendu.

UELes organisations européennes et gouvernements de l'UE pourraient accéder à cet outil de détection automatique de vulnérabilités via le programme partenaires, renforçant leur posture de cybersécurité face aux menaces croissantes.

SécuritéActu
1 source
Face à l'essor des cyberattaques à 1 dollar, les défenses durables font leurs preuves
2IEEE Spectrum AI 

Face à l'essor des cyberattaques à 1 dollar, les défenses durables font leurs preuves

Transformer une faille logicielle nouvellement découverte en cyberattaque prenait autrefois plusieurs mois. Aujourd'hui, les modèles d'IA générative peuvent accomplir la même opération en quelques minutes, pour moins d'un dollar de temps de calcul cloud. Anthropic a récemment illustré cette réalité avec son projet Glasswing : le modèle Claude Mythos a permis de détecter de manière préventive plus de mille vulnérabilités zero-day, dont des failles présentes dans chaque grand système d'exploitation et navigateur web du marché. Anthropic a coordonné la divulgation responsable de ces failles et travaillé à leur correction avant qu'elles ne soient exploitées. Ce qui relevait jadis du travail d'une équipe de chercheurs en sécurité pendant des semaines peut désormais être accompli, en théorie, avec une simple requête textuelle adressée à un LLM. L'impact de cette évolution est profondément asymétrique. Du côté offensif, les attaquants n'ont plus besoin d'une expertise technique avancée pour exploiter des vulnérabilités : les outils d'IA font le gros du travail. Des recherches récentes montrent que des modèles capables peuvent identifier et exploiter des failles de manière autonome, comprimant drastiquement le délai entre la découverte d'un bug et la production d'un exploit fonctionnel. Du côté défensif, en revanche, des ingénieurs humains restent indispensables pour lire, évaluer et agir sur ce que les modèles remontent. La vulnérabilité Log4j en 2021 illustre l'ampleur des risques : une faille critique dans une simple bibliothèque de journalisation, maintenue par une poignée de bénévoles, a exposé des centaines de millions d'appareils à travers le monde. L'essentiel du code sur lequel repose l'infrastructure numérique mondiale est maintenu par de petites équipes sans ressources dédiées à la sécurité. La situation rappelle une vague précédente d'automatisation de la découverte de failles. Au début des années 2010, des outils de fuzzing comme American Fuzzy Lop (AFL) ont mis à nu des vulnérabilités critiques dans tous les grands navigateurs et systèmes d'exploitation. La réponse de l'industrie a été d'industrialiser la défense : Google a construit OSS-Fuzz, un système qui exécute des tests en continu sur des milliers de projets open source. L'hypothèse dominante est que la découverte de failles par IA suivra le même arc, avec une intégration progressive dans les pipelines de développement standard. Mais la comparaison a ses limites : le fuzzing exigeait une expertise technique pointue pour être déployé, là où un LLM suffit aujourd'hui d'une invite en langage naturel. La question centrale reste ouverte : l'IA profitera-t-elle davantage aux attaquants ou aux défenseurs ? Le coût de découverte et d'exploitation des bugs tend vers zéro, mais celui de leur correction, lui, ne diminue pas.

UELes organisations et infrastructures critiques européennes soumises à NIS2 sont directement concernées par cette asymétrie : les attaquants bénéficient désormais d'outils IA quasi-gratuits, tandis que la correction des vulnérabilités reste coûteuse et dépendante d'ingénieurs humains.

SécuritéOpinion
1 source
Une cyberattaque en chaîne au coeur de l’IA sème la panique
301net 

Une cyberattaque en chaîne au coeur de l’IA sème la panique

Une cyberattaque d'envergure a frappé l'écosystème de l'intelligence artificielle, ciblant une brique logicielle partagée par de nombreux développeurs. Les pirates ont exploité cette dépendance commune pour déclencher une réaction en chaîne, aboutissant à un vol massif de données. L'impact est particulièrement sérieux car la compromission d'un composant central affecte simultanément tous les projets qui en dépendent — un effet multiplicateur redoutable. Ce type d'attaque sur la chaîne d'approvisionnement logicielle (supply chain) permet aux attaquants d'atteindre des cibles nombreuses en ne frappant qu'un seul point d'entrée. Les attaques visant la chaîne logicielle sont en forte hausse depuis plusieurs années, ciblant de plus en plus les infrastructures d'IA, devenues critiques pour les entreprises technologiques.

UELes entreprises européennes utilisant des dépendances logicielles IA partagées sont potentiellement exposées à cette compromission de chaîne d'approvisionnement et doivent auditer leurs dépendances.

SécuritéOpinion
1 source
Import AI 452 : lois d'échelle pour la cyberguerre, automatisation par IA en hausse et énigme autour des prévisions de PIB
4Import AI 

Import AI 452 : lois d'échelle pour la cyberguerre, automatisation par IA en hausse et énigme autour des prévisions de PIB

Les systèmes d'intelligence artificielle progressent dans leur capacité à mener des cyberattaques à un rythme alarmant, selon une étude publiée par l'organisation de sécurité Lyptus Research. En analysant les performances des modèles frontières depuis 2019, les chercheurs ont mesuré un doublement des capacités offensives tous les 9,8 mois en moyenne, un rythme qui s'est encore accéléré à 5,7 mois pour les modèles sortis depuis 2024. Les derniers modèles évalués, GPT-5.3 Codex et Opus 4.6, atteignent un taux de réussite de 50 % sur des tâches qui demandent à des experts humains en sécurité offensive entre 3,1 et 3,2 heures de travail. L'étude s'appuie sur sept benchmarks reconnus, dont CyBench, CVEBench et InterCode CTF, complétés par un jeu de données inédit de 291 tâches calibrées par dix professionnels en cybersécurité offensive. Par ailleurs, une seconde étude menée conjointement par l'INSEAD et Harvard Business School sur 515 startups en forte croissance montre que les entreprises formées à l'intégration de l'IA dans leurs processus internes réalisent 12 % de tâches supplémentaires, sont 18 % plus susceptibles d'acquérir des clients payants et génèrent 1,9 fois plus de revenus que les entreprises non formées. Ces résultats posent des questions fondamentales sur la double nature des systèmes d'IA. Un modèle performant pour détecter des vulnérabilités dans du code à des fins défensives peut être retourné en outil d'attaque sans modification. C'est ce que les chercheurs de Lyptus désignent comme le problème de la machine universelle : chaque gain de capacité générale amplifie simultanément les risques dans des domaines sensibles, de la cybersécurité à la biologie en passant par la physique des hautes énergies. Concrètement, les meilleurs modèles actuels peuvent aujourd'hui automatiser l'équivalent d'une demi-journée de travail d'un expert en sécurité offensive. Sur le front économique, la même dynamique joue en faveur des entreprises qui s'approprient l'IA : les startups traitées dans l'expérience de l'INSEAD ont concentré leurs gains principalement sur le développement produit et la stratégie, avec une augmentation de 44 % des cas d'usage IA identifiés. Le rythme d'accélération documenté par Lyptus place les décideurs politiques dans une course contre la montre. Les modèles open-weight les plus récents, comme GLM-5, n'accusent qu'un retard de 5,7 mois sur la frontière des modèles propriétaires, ce qui signifie que des capacités offensives avancées se diffuseront rapidement hors de tout contrôle centralisé. La chronologie des modèles évalués, de GPT-2 en 2019 aux modèles de 2026 comme Opus 4.6 et Sonnet 4.6, illustre une trajectoire continue et sans rupture. Les enjeux dépassent la cybersécurité stricte : ils interrogent la gouvernance globale de l'IA, la réglementation des modèles open-source, et la capacité des États à anticiper des menaces dont la vitesse de développement dépasse celle des cadres législatifs existants.

UEL'accélération des capacités offensives des modèles IA pose un défi direct aux régulateurs européens : l'AI Act risque d'être structurellement dépassé par la diffusion rapide de modèles open-weight aux capacités de cyberattaque avancées, menaçant infrastructures critiques et cadres législatifs existants.

💬 Les lois d'échelle appliquées à la cyberguerre, c'est le truc qu'on préférerait ne pas voir confirmé par une étude sérieuse. Un doublement des capacités offensives tous les 5,7 mois sur les derniers modèles, ça veut dire que les cadres réglementaires comme l'AI Act sont obsolètes avant même d'entrer en vigueur. Et le pire, c'est que les modèles open-weight suivent la frontière avec moins de 6 mois de retard, donc aucun contrôle centralisé ne tiendra.

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour