Aller au contenu principal
Les capacités offensives de l'IA en cybersécurité doublent tous les six mois, selon des chercheurs
AutreThe Decoder1j

Les capacités offensives de l'IA en cybersécurité doublent tous les six mois, selon des chercheurs

1 source couvre ce sujet·Source originale ↗·

Les capacités offensives des modèles d'intelligence artificielle en matière de cybersécurité progressent à un rythme alarmant. Selon une étude publiée par des chercheurs en sécurité de l'IA, ces capacités doublent tous les 5,7 mois depuis 2024. Des modèles comme Opus 4.6 et GPT-5.3 Codex sont désormais capables de résoudre des tâches d'exploitation de vulnérabilités qui nécessitaient auparavant environ trois heures de travail à des experts humains chevronnés.

Cette accélération représente un changement de paradigme pour l'ensemble de l'industrie de la cybersécurité. Des attaques qui exigeaient jusqu'ici des compétences pointues, du temps et des ressources humaines importantes pourraient bientôt être automatisées à grande échelle et à faible coût. Cela signifie que les organisations, des PME aux infrastructures critiques, font face à une surface d'attaque qui s'élargit plus vite que leur capacité à se défendre. La barrière d'entrée pour mener des cyberattaques sophistiquées s'effondre.

Ce constat s'inscrit dans un débat plus large sur la double nature des modèles de langage avancés, à la fois outils de défense et vecteurs de menace potentiels. Depuis 2023, plusieurs laboratoires d'IA, dont Anthropic et OpenAI, ont mis en place des politiques d'évaluation des risques cybernétiques avant tout déploiement de nouveaux modèles. La progression exponentielle documentée ici renforce les arguments de ceux qui plaident pour un encadrement réglementaire strict des capacités offensives des IA, un sujet qui devrait peser lourd dans les prochaines discussions au niveau européen et américain.

Impact France/UE

La progression exponentielle documentée renforce les arguments pour un encadrement réglementaire strict des capacités offensives des IA, un sujet qui pèsera dans les prochaines discussions législatives européennes.

💬 Le point de vue du dev

Doubler tous les 5,7 mois, c'est pas une métaphore, c'est une courbe qui va quelque part de précis. Ce qui me frappe, c'est pas que l'IA puisse faire ce que faisait un expert en 3 heures, c'est que la prochaine itération fera ce que faisait un expert en 3 jours. Les régulateurs ont les yeux rivés sur aujourd'hui pendant que le truc accélère sous leurs pieds.

À lire aussi

La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise
101net 

La France interdit le gadget IA controversé de la start-up Friend, et ce n’est pas une surprise

Le collier intelligent Friend, gadget de la start-up américaine du même nom, a été interdit à la vente en France et dans l'ensemble de l'Union européenne. Le produit, un pendentif connecté capable d'écouter en continu son environnement et d'entretenir des conversations avec son porteur via une intelligence artificielle, avait été lancé avec une campagne publicitaire visible dans les stations de métro parisiennes, cherchant à séduire un public européen friand de nouveaux objets connectés. L'interdiction ne surprend guère les observateurs du secteur : un dispositif d'écoute permanente porté sur soi soulève des questions fondamentales en matière de protection des données personnelles. Le règlement européen RGPD impose des obligations strictes sur la collecte et le traitement des données audio, notamment le consentement explicite des tiers enregistrés à leur insu. Or, un collier qui capte les conversations autour de son porteur, sans que les personnes présentes en soient informées, contrevient frontalement à ces principes. Pour les utilisateurs comme pour les entreprises, ce type de produit ouvre également des risques sécuritaires liés à l'enregistrement involontaire d'informations sensibles. Friend s'inscrit dans une vague de gadgets IA "compagnons" qui ont tenté de percer en 2024 et 2025, à l'image du Humane Ai Pin ou du Rabbit R1, tous confrontés à des obstacles commerciaux ou réglementaires. L'Europe, avec son cadre juridique parmi les plus exigeants au monde sur la vie privée et désormais renforcé par l'AI Act, constitue un terrain particulièrement difficile pour ces objets d'écoute ambiante. La décision française pourrait faire jurisprudence pour d'autres dispositifs similaires à venir.

UEL'interdiction de vente en France et dans l'UE du collier Friend fait jurisprudence pour les dispositifs d'écoute ambiante, confirmant que le RGPD et l'AI Act constituent des obstacles réglementaires majeurs pour ce type de gadget IA compagnon.

AutreReglementation
1 source
Anthropic expose accidentellement le code source de Claude Code via un fichier npm
2InfoQ AI 

Anthropic expose accidentellement le code source de Claude Code via un fichier npm

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code en incluant un fichier de source map dans la version 2.1.88 du paquet npm, publiée récemment. Ce fichier, normalement réservé au débogage, contenait la totalité du code TypeScript original -- soit environ 512 000 lignes -- qui était pourtant censé rester compilé et opaque. En quelques heures, des développeurs ont archivé le code sur GitHub, le rendant publiquement accessible. Anthropic a confirmé l'incident, le qualifiant d'erreur humaine lors du processus de packaging. La fuite a mis en lumière des éléments sensibles que l'entreprise n'avait pas encore annoncés : des fonctionnalités inédites, des noms de code internes pour ses modèles, ainsi que l'architecture de son système d'orchestration multi-agents. Ces informations constituent une mine de renseignements concurrentiels pour des acteurs comme OpenAI, Google DeepMind ou Meta, qui cherchent à comprendre les orientations techniques d'Anthropic. Pour les développeurs utilisant Claude Code au quotidien, la fuite offre un aperçu rare du fonctionnement interne d'un outil commercial de premier plan. Cet incident illustre la tension croissante entre la volonté des laboratoires d'IA de protéger leur propriété intellectuelle et les risques opérationnels inhérents à la distribution de logiciels via des registres publics comme npm. Anthropic, valorisé à plusieurs dizaines de milliards de dollars, mise largement sur Claude Code pour concurrencer GitHub Copilot et les outils de Cursor dans le segment des assistants de développement. L'entreprise devra désormais renforcer ses processus de publication pour éviter que de telles erreurs ne se reproduisent, d'autant que la course aux agents de codage s'intensifie.

AutreActu
1 source
OpenAI propose des politiques industrielles pour la superintelligence
3The Information AI 

OpenAI propose des politiques industrielles pour la superintelligence

OpenAI a publié lundi un document de 13 pages proposant une série de politiques industrielles pour préparer les économies à l'arrivée de systèmes d'intelligence artificielle surpassant les capacités humaines. Parmi les mesures envisagées figurent des réformes fiscales et l'adoption d'une semaine de travail de quatre jours, ainsi que la mise en place de bourses de recherche destinées à anticiper les bouleversements du marché du travail. Ces propositions signalent qu'OpenAI prend au sérieux l'impact économique massif que pourrait engendrer la superintelligence sur l'emploi et la productivité. Une réduction du temps de travail hebdomadaire serait une réponse directe à l'automatisation accélérée, permettant de redistribuer les gains de productivité générés par l'IA vers les travailleurs plutôt que de les concentrer exclusivement entre les mains des entreprises technologiques. Ce document intervient alors qu'OpenAI intensifie ses efforts vers l'AGI et la superintelligence, deux jalons qu'il estime désormais atteignables à court terme. En s'impliquant dans le débat sur les politiques publiques, l'entreprise tente de façonner le cadre réglementaire et économique avant que ces systèmes n'arrivent sur le marché, une démarche qui rappelle les initiatives similaires de Google DeepMind et Anthropic pour influencer les législations en cours d'élaboration aux États-Unis et en Europe.

UEOpenAI cherche à influencer les cadres réglementaires européens en cours d'élaboration autour de l'AGI, notamment sur les questions d'emploi et de redistribution des gains de productivité liés à l'automatisation.

AutreReglementation
1 source
Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman
4Ars Technica AI 

Des initiés d'OpenAI ne font pas confiance au PDG Sam Altman

Le même jour où OpenAI publiait ses recommandations politiques pour garantir que l'intelligence artificielle bénéficie à l'humanité en cas d'avènement d'une superintelligence, le magazine The New Yorker lançait une vaste enquête sur la fiabilité de Sam Altman, PDG d'OpenAI, quant à la tenue des grandes promesses de l'entreprise. Cette coïncidence éditoriale crée un contraste saisissant : d'un côté, un document institutionnel affirmant qu'OpenAI s'engage à "garder les humains en premier" alors que l'IA commencera à "surpasser les humains les plus intelligents, même assistés par l'IA" ; de l'autre, une investigation journalistique alimentée par des témoignages d'anciens collaborateurs qui doutent que ce discours soit sincère. L'enquête du New Yorker met en lumière une fracture profonde au sein même de l'organisation : des initiés, anciens employés ou proches du dossier, estiment que le problème central n'est pas la technologie mais son dirigeant. Sam Altman est décrit comme un leader dont les décisions et le style de management sèment la méfiance en interne. Pendant ce temps, le document de politique d'OpenAI reconnaît explicitement des risques extrêmes, notamment la possibilité que des systèmes d'IA échappent au contrôle humain ou que des gouvernements s'en servent pour saper la démocratie. L'entreprise promet de rester "lucide" et transparente sur ces dangers, mais la crédibilité de cet engagement est précisément ce que l'enquête remet en question. Cette tension intervient dans un contexte où OpenAI, valorisée à plusieurs dizaines de milliards de dollars et en pleine transformation vers une structure à but lucratif, est scrutée de toutes parts. La course à la superintelligence oppose des acteurs comme Google DeepMind, Anthropic et Meta, tous engagés dans une compétition technologique sans précédent. La question de la gouvernance, et de la confiance accordée aux dirigeants qui pilotent ces systèmes, est désormais au coeur du débat public. Si les promesses d'OpenAI sur la sécurité et la transparence sont prises au sérieux par les régulateurs et le grand public, leur crédibilité repose largement sur la personne qui les incarne.

UELes régulateurs européens scrutent la gouvernance des grands labs d'IA dans le cadre de l'AI Act ; une crise de confiance envers la direction d'OpenAI pourrait renforcer les exigences de transparence et d'audit imposées aux fournisseurs de modèles à haut risque.

AutreOpinion
1 source