Aller au contenu principal
L'insécurité numérique à l'ère de l'IA
SécuritéMIT Technology Review2h

L'insécurité numérique à l'ère de l'IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Lors de la conférence EmTech AI organisée par le MIT Technology Review, Tarique Mustafa, cofondateur et PDG de GCCybersecurity, Inc., a présenté un état des lieux alarmant de la cybersécurité à l'heure de l'intelligence artificielle. Son argument central : l'IA ne se contente pas de transformer les outils de défense, elle redéfinit en profondeur la surface d'attaque, rendant les approches héritées des décennies précédentes structurellement inadaptées. Mustafa, qui dirige également Chorology, Inc., une filiale spécialisée dans la conformité des données, a passé plus de vingt ans à développer des systèmes autonomes de protection contre les fuites de données, aboutissant à une plateforme de quatrième et cinquième génération capable d'opérer sans intervention humaine.

L'enjeu dépasse la simple mise à jour technologique. En intégrant l'IA dans les infrastructures d'entreprise, les organisations multiplient les points d'entrée potentiels pour des attaquants qui, eux aussi, exploitent des modèles automatisés. Une défense pensée après coup, superposée à des systèmes existants, ne suffit plus : la sécurité doit être architecturée dès la conception, avec l'IA comme composante centrale plutôt que comme couche additionnelle. Pour les entreprises qui déploient massivement des outils d'IA générative, des agents autonomes ou des pipelines de traitement de données à grande échelle, ce changement de paradigme est immédiat et concret. La classification des données, la prévention des fuites (DLP) et la gestion de la posture de sécurité des données (DSPM) deviennent des disciplines critiques dans un environnement où les volumes traités et la vitesse d'exécution dépassent les capacités humaines de supervision.

Mustafa incarne une génération d'experts qui ont traversé plusieurs cycles technologiques dans la sécurité. Passé par Symantec, MCI WorldCom et EDS, il a fondé NexTier Networks en Californie avant de créer GCCybersecurity. Titulaire de plusieurs brevets américains (USPTO) en représentation de la connaissance et en planification par IA, il a contribué à formaliser des approches que l'industrie commence seulement à adopter à grande échelle. Sa présence à EmTech AI reflète une prise de conscience croissante dans les milieux technologiques : la course entre attaquants et défenseurs est désormais une course entre systèmes automatisés, et les organisations qui n'intègrent pas cette réalité dans leur stratégie de sécurité risquent de prendre un retard difficile à combler.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Verge AI 

Le système de tatouage numérique IA de Google a-t-il été percé ?

Un développeur indépendant affirme avoir réingénié SynthID, le système de tatouage numérique développé par Google DeepMind pour identifier les images générées par intelligence artificielle. L'individu, qui se présente sous le pseudonyme Aloshdenny, a publié son travail en open source sur GitHub et décrit sa méthode sur Medium : il aurait utilisé seulement 200 images générées par Gemini, des techniques de traitement du signal, et beaucoup de temps libre. Selon lui, aucun réseau de neurones ni accès propriétaire n'ont été nécessaires. Google conteste ces affirmations et affirme que SynthID n'a pas été compromis. Si la démonstration s'avérait fondée, les conséquences seraient significatives : SynthID est présenté comme un outil clé pour lutter contre la désinformation et les deepfakes, en permettant de tracer l'origine des contenus synthétiques. Pouvoir retirer ou insérer ces marqueurs invisibles à la demande remettrait en cause toute la chaîne de confiance que Google cherche à construire autour de ses modèles génératifs, avec des implications directes pour les plateformes, les journalistes et les régulateurs. SynthID a été lancé en 2023 par Google DeepMind comme solution technique à la prolifération des images artificielles non détectables. Le système intègre un filigrane imperceptible directement dans les pixels générés, censé résister aux modifications courantes. La controverse s'inscrit dans un débat plus large sur la robustesse des systèmes de provenance des contenus IA, alors que l'Union européenne et d'autres régulateurs poussent à l'adoption de standards de traçabilité. L'affaire souligne combien ces mécanismes, s'ils ne sont pas cryptographiquement solides, peuvent offrir une fausse sécurité.

UESi la vulnérabilité est confirmée, cela fragilise les fondements techniques sur lesquels s'appuient les régulateurs européens, notamment dans le cadre de l'AI Act, pour imposer des standards de traçabilité obligatoire des contenus synthétiques.

SécuritéOpinion
1 source
Arnaques dopées à l'IA
2MIT Technology Review 

Arnaques dopées à l'IA

Depuis le lancement de ChatGPT fin 2022, les cybercriminels ont massivement adopté l'intelligence artificielle pour amplifier leurs attaques. Aujourd'hui, ils utilisent les grands modèles de langage pour rédiger des courriels de phishing convaincants, générer des deepfakes hyperréalistes, modifier des logiciels malveillants afin de les rendre plus difficiles à détecter, automatiser la recherche de failles dans les réseaux, et analyser des volumes massifs de données volées pour en extraire les informations les plus précieuses. Interpol a récemment alerté sur l'essor des centres d'escroquerie en Asie du Sud-Est, qui recourent à des outils d'IA bon marché pour cibler davantage de victimes potentielles et changer rapidement de localisation. Les Émirats arabes unis ont de leur côté déclaré avoir déjoué une série d'attaques soutenues par l'IA visant leurs secteurs stratégiques. Fait particulièrement préoccupant : Anthropic a annoncé ce mois-ci que Mythos, un modèle qu'elle développe et teste actuellement, avait identifié des milliers de vulnérabilités critiques dans l'ensemble des principaux systèmes d'exploitation et navigateurs web. Anthropic affirme que toutes ont été corrigées, mais retarde la mise sur le marché du modèle en raison de ses capacités jugées trop dangereuses, et a constitué un consortium baptisé Project Glasswing pour tenter de les orienter vers des usages défensifs. L'impact le plus immédiat se mesure à l'échelle et à la vitesse des attaques. L'IA abaisse considérablement le seuil d'entrée pour des attaquants peu qualifiés, en leur fournissant des outils toujours plus performants, moins coûteux et plus rapides à déployer. Les attaques de masse, même peu sophistiquées, peuvent produire des effets dévastateurs dès lors qu'elles sont diffusées à une échelle suffisante : il suffit qu'une cible soit vulnérable ou qu'un destinataire soit pris au dépourvu au mauvais moment. De nombreuses organisations peinent déjà à absorber le volume actuel des cybermenaces, et la situation devrait s'aggraver à mesure que les outils d'IA générative accessibles au grand public continuent de progresser. Ce bras de fer technologique ne se joue toutefois pas à sens unique. L'IA est également mobilisée pour la défense. Microsoft traite chaque jour plus de 100 000 milliards de signaux signalés comme potentiellement malveillants par ses systèmes d'IA, et affirme avoir bloqué entre avril 2024 et avril 2025 l'équivalent de 4 milliards de dollars de fraudes et d'arnaques, dont une part probablement facilitée par des contenus générés par IA. Les chercheurs en cybersécurité estiment que les attaques les moins élaborées peuvent encore être neutralisées par des mesures de base, notamment la mise à jour régulière des logiciels et le respect des protocoles de sécurité réseau. Face à des attaques plus ciblées et plus sophistiquées, la réponse reste bien moins certaine, et la même technologie qui les rend possibles pourrait s'avérer notre meilleure ligne de défense dans les années à venir.

UELes organisations européennes sont directement exposées à cette montée en puissance des cyberattaques dopées à l'IA, notamment le phishing et les deepfakes, sans que les réglementations actuelles (AI Act, NIS2) ne suffisent encore à encadrer les usages offensifs des LLMs.

SécuritéOpinion
1 source
Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA
3The Information AI 

Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA

Anthropic a involontairement rendu public un brouillon de billet de blog révélant l'existence d'un nouveau modèle d'IA baptisé "Mythos", spécialement conçu pour la génération et la révision de code informatique. Selon ce document, le modèle serait capable d'exploiter des vulnérabilités de sécurité "d'une manière qui dépasse largement les efforts des défenseurs". La société a déjà commencé à briefer des chercheurs en cybersécurité et leur accorde un accès anticipé afin de recueillir des retours avant un lancement officiel. L'enjeu est considérable : si un tel modèle tombait entre de mauvaises mains, il permettrait à des hackers peu qualifiés de mener des attaques sophistiquées à grande échelle, creusant davantage l'écart entre attaquants et défenseurs. Anthropic cherche précisément à identifier ces risques avant la mise sur le marché, en s'appuyant sur la communauté des chercheurs pour "red-teamer" le modèle et réduire son potentiel offensif. Cette démarche illustre la tension croissante entre les capacités des LLMs spécialisés dans le code et les impératifs de sécurité. Cette initiative s'inscrit dans une tendance plus large où les grands laboratoires d'IA — OpenAI, Google DeepMind, et désormais Anthropic — développent des modèles hautement performants pour le code, tout en faisant face à des questions épineuses sur leur double usage. Anthropic, qui se positionne comme un acteur responsable de l'IA via sa politique d'"IA constitutionnelle", se retrouve confronté au paradoxe fondamental du domaine : les mêmes capacités qui accélèrent la défense peuvent aussi armer les adversaires. La divulgation accidentelle du brouillon suggère que la pression autour de Mythos est déjà forte en interne.

UELes capacités offensives de modèles comme Mythos représentent une menace directe pour les infrastructures numériques européennes et soulèvent des questions de conformité avec l'AI Act concernant les systèmes IA à double usage.

💬 Un modèle qui dépasse les défenseurs sur leur propre terrain, c'est le scénario qu'on redoutait depuis que les LLMs de code sont vraiment capables. Ce qui compte, c'est qu'Anthropic le dit franchement et organise le red-teaming avant le lancement, pas après. La fuite du draft, c'est maladroit, mais ça confirme surtout que la pression en interne est déjà énorme.

SécuritéOpinion
1 source
5 bonnes pratiques pour sécuriser les systèmes d'IA
4AI News 

5 bonnes pratiques pour sécuriser les systèmes d'IA

Les organisations qui intègrent l'intelligence artificielle dans leurs opérations critiques font face à une surface d'attaque inédite que les cadres de sécurité traditionnels n'ont pas été conçus pour couvrir. Face à cette réalité, cinq pratiques fondamentales se dégagent pour protéger ces systèmes : contrôle d'accès strict, défense contre les menaces propres aux modèles, visibilité unifiée de l'écosystème, surveillance continue et gestion rigoureuse des vulnérabilités. Le contrôle d'accès basé sur les rôles (RBAC) limite l'exposition en n'accordant les permissions qu'aux personnes dont la fonction le justifie. Le chiffrement des modèles et des données d'entraînement, aussi bien au repos qu'en transit, constitue une protection indispensable, notamment lorsque ces données contiennent du code propriétaire ou des informations personnelles. Sur le front des menaces spécifiques aux LLM, l'injection de prompt occupe la première place du classement OWASP Top 10 pour les applications à base de grands modèles de langage : un attaquant insère des instructions malveillantes dans une entrée pour détourner le comportement du modèle. Des pare-feux spécialisés pour l'IA, capables de valider et d'assainir les entrées avant qu'elles n'atteignent le modèle, constituent une première ligne de défense directe. Des exercices de red teaming simulant des scénarios réels — empoisonnement de données, attaques par inversion de modèle — permettent de détecter les failles avant que des acteurs malveillants ne les exploitent. L'enjeu dépasse la simple protection technique : c'est la fiabilité de systèmes désormais embarqués dans des décisions critiques qui est en jeu. Un modèle compromis par injection de prompt peut divulguer des données confidentielles, produire des sorties trompeuses ou servir de point d'entrée latéral vers d'autres systèmes. La fragmentation des outils de sécurité aggrave le problème : lorsque les données de télémétrie réseau, cloud, identité et endpoints restent cloisonnées, les équipes ne peuvent pas corréler une connexion anormale, un mouvement latéral et une tentative d'exfiltration en un tableau de menace cohérent. Le cadre de cybersécurité pour l'IA du NIST est explicite sur ce point : sécuriser ces systèmes implique de couvrir l'ensemble des actifs concernés, pas seulement les plus visibles. La sécurité de l'IA ne peut pas être une configuration ponctuelle, car les modèles évoluent en permanence : mises à jour, nouveaux pipelines de données, changements de comportement des utilisateurs. Les outils de détection basés sur des règles statiques peinent à suivre ce rythme, car ils s'appuient sur des signatures d'attaques connues plutôt que sur une analyse comportementale en temps réel. La surveillance continue permet d'établir une baseline comportementale et de signaler immédiatement les déviations : sorties inattendues d'un modèle, variation soudaine dans les appels API, ou accès inhabituels d'un compte privilégié. Ce contexte s'inscrit dans une prise de conscience plus large de l'industrie : les incidents liés à l'IA — du biais algorithmique aux attaques adversariales sophistiquées — se multiplient à mesure que ces systèmes gagnent en puissance et en déploiement, rendant une stratégie de défense en profondeur non plus optionnelle, mais structurellement nécessaire.

UEL'AI Act européen imposant des exigences de sécurité pour les systèmes à haut risque, ces pratiques sont directement pertinentes pour les organisations européennes en phase de mise en conformité.

SécuritéOpinion
1 source