Aller au contenu principal
De GPT-2 à Claude Mythos : le retour des modèles d'IA jugés trop dangereux à publier
AutreThe Decoder2h

De GPT-2 à Claude Mythos : le retour des modèles d'IA jugés trop dangereux à publier

1 source couvre ce sujet·Source originale ↗·

Il y a sept ans, OpenAI avait annoncé en grande pompe que son modèle GPT-2 était « trop dangereux pour être publié », une décision largement moquée par l'industrie, qui y avait vu une opération de communication plus qu'une précaution réelle. Aujourd'hui, Anthropic reproduit le même geste avec Claude Mythos Preview, mais avec une différence de taille : cette fois, des preuves concrètes accompagnent la décision. Le modèle a identifié des milliers de vulnérabilités dans des systèmes d'exploitation et des navigateurs web, en un volume si élevé qu'aucune équipe humaine ne serait en mesure de les examiner dans un délai raisonnable.

L'enjeu est fondamentalement différent de 2019. Un modèle capable de découvrir et potentiellement d'exploiter des failles à cette échelle représente une menace asymétrique pour la cybersécurité mondiale : un acteur malveillant disposant d'un tel outil pourrait attaquer des infrastructures critiques bien plus vite que les défenseurs ne pourraient réagir. La question n'est plus théorique, elle est opérationnelle.

Ce changement de posture illustre une évolution profonde dans le secteur. La course aux capacités des LLM a produit des modèles dont les aptitudes dépassent désormais les cadres d'évaluation existants. Anthropic, qui a investi massivement dans la recherche sur la sécurité des IA avec son équipe d'« AI Safety », se retrouve dans la position inconfortable de restreindre ses propres créations. La question qui se pose maintenant est de savoir si d'autres laboratoires, sous pression concurrentielle, adopteront la même retenue ou choisiront de publier quand même.

Impact France/UE

La capacité d'un LLM à identifier des milliers de vulnérabilités systèmes renforce l'urgence d'encadrer les évaluations de sécurité des modèles à usage général dans le cadre de l'AI Act européen.

À lire aussi

Un quart des citations dans les réponses des chatbots IA provient du journalisme, selon une étude Muckrack
1The Decoder 

Un quart des citations dans les réponses des chatbots IA provient du journalisme, selon une étude Muckrack

Une étude publiée par Muckrack, plateforme spécialisée dans les relations presse, a analysé 15 millions de citations produites par les trois principaux chatbots d'intelligence artificielle, ChatGPT, Claude et Gemini. Résultat : une référence sur quatre renvoie à une source journalistique. Les publications spécialisées et les journalistes sectoriels sont les plus cités, tandis que les grands médias généralistes apparaissent moins fréquemment dans les réponses des modèles. Ce constat a des implications concrètes pour l'industrie des médias. Les publications de niche et les titres spécialisés, tech, santé, finance, droit, semblent tirer un bénéfice disproportionné de la montée en puissance des assistants IA, qui les utilisent comme sources de référence fiables. Pour les annonceurs et les équipes de relations presse, cela signifie que la visibilité dans les chatbots passe désormais par la presse spécialisée autant que par les grands portails d'information. Cette étude s'inscrit dans un débat plus large sur la relation entre les modèles de langage et le journalisme. Plusieurs grands groupes de presse, dont The New York Times, ont engagé des poursuites judiciaires contre OpenAI pour utilisation non autorisée de leurs contenus à des fins d'entraînement. D'autres éditeurs ont préféré signer des accords de licence avec les laboratoires d'IA. La question de savoir si cette exposition dans les réponses des chatbots constitue une forme de valeur compensatoire, ou au contraire un détournement de trafic, reste au coeur des négociations en cours entre médias et acteurs de l'IA générative.

UELes éditeurs de presse français et européens, déjà engagés sur les droits voisins, peuvent s'appuyer sur ces données pour renforcer leurs positions dans les négociations de licences avec les labs d'IA.

AutrePaper
1 source
Des bots de dénudification, des deepfakes et des archives automatisées : comment l'IA alimente un écosystème d'abus monétisé sur Telegram
2The Decoder 

Des bots de dénudification, des deepfakes et des archives automatisées : comment l'IA alimente un écosystème d'abus monétisé sur Telegram

Une analyse de 2,8 millions de messages Telegram en Italie et en Espagne révèle comment les outils d'intelligence artificielle alimentent un écosystème monétisé reposant sur la production et la diffusion massive d'images intimes non consenties. Des bots de "nudification" automatisée, des deepfakes et des archives organisées permettent à des réseaux de générer des contenus pornographiques à partir de photos anodines de femmes réelles, souvent sans qu'elles en sachent rien. Ces services sont commercialisés directement sur Telegram, avec des systèmes d'abonnement et de paiement intégrés. L'impact est considérable : des milliers de victimes voient leur image détournée et diffusée à grande échelle, avec des conséquences psychologiques, professionnelles et sociales graves. La monétisation de ces contenus crée une incitation économique durable qui rend la lutte contre ce phénomène particulièrement complexe. La facilité d'accès aux outils et l'anonymat relatif de Telegram transforment ce qui relevait autrefois d'actes isolés en une industrie structurée de l'abus sexuel en ligne. Ce phénomène s'inscrit dans une tendance plus large d'utilisation malveillante des technologies génératives, dont la démocratisation depuis 2022-2023 a drastiquement abaissé le niveau technique requis pour produire des deepfakes réalistes. Les législateurs italiens et espagnols, comme d'autres pays européens, sont sous pression pour criminaliser explicitement ces pratiques. L'Union européenne, à travers l'AI Act et la directive sur la violence à l'égard des femmes adoptée en 2024, tente d'apporter un cadre légal, mais l'application reste un défi majeur face à des plateformes opérant souvent hors juridiction.

UEL'Italie et l'Espagne sont au cœur de l'enquête, et l'UE est sous pression pour appliquer l'AI Act et la directive 2024 sur la violence faite aux femmes face à ces abus systématisés.

AutreOpinion
1 source
Anthropic restreint l'accès à Mythos, son nouveau modèle d'IA en cybersécurité
3Ars Technica AI 

Anthropic restreint l'accès à Mythos, son nouveau modèle d'IA en cybersécurité

Anthropic a officiellement lancé Claude Mythos Preview, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, en le réservant à un cercle restreint d'organisations triées sur le volet. Parmi les premiers accès figurent des géants technologiques comme Amazon, Apple et Microsoft, ainsi que des acteurs de la sécurité informatique tels que Broadcom, Cisco et CrowdStrike. La start-up de San Francisco a annoncé ce mardi être également en discussions avec le gouvernement américain concernant un éventuel déploiement dans le secteur public. Ce lancement contrôlé signale qu'Anthropic joue désormais dans la cour des outils offensifs et défensifs de cybersécurité, un marché stratégique et sensible. En limitant l'accès à des organisations vérifiées, la société cherche à éviter que le modèle ne soit détourné à des fins malveillantes, une préoccupation centrale pour les IA capables d'analyser des vulnérabilités ou d'automatiser des attaques. Le partenariat avec des entreprises comme CrowdStrike suggère une orientation vers la détection de menaces et la réponse aux incidents. Ce lancement intervient dans un contexte embarrassant pour Anthropic : des descriptions détaillées du modèle Mythos et d'autres documents internes avaient été découverts le mois dernier dans un cache de données publiquement accessible, révélant l'existence du projet avant toute annonce officielle. Cette fuite avait forcé la main de l'entreprise. Plus largement, la course aux modèles spécialisés en cybersécurité s'intensifie, avec Microsoft, Google et des startups comme Protect AI qui développent également leurs propres solutions, faisant de ce segment l'un des plus disputés de l'IA appliquée.

AutreActu
1 source
Une IA soutenue par Apple et Google révèle des milliers de failles dans des logiciels très utilisés
4Siècle Digital 

Une IA soutenue par Apple et Google révèle des milliers de failles dans des logiciels très utilisés

Project Glasswing, une initiative de cybersécurité soutenue par douze géants technologiques dont Apple, Google, Microsoft, AWS, Cisco, NVIDIA et JPMorgan Chase, a été lancée pour détecter automatiquement des failles dans les logiciels les plus critiques au monde. Le projet s'appuie sur un système d'intelligence artificielle baptisé Mythos, capable d'analyser en profondeur des bases de code massives pour y repérer des vulnérabilités jusqu'alors inconnues. Plus de quarante organisations gérant des infrastructures logicielles mondiales participent également à l'initiative, coordonnée sous l'égide de la Linux Foundation. Aucun accès public, abonnement commercial ou lancement grand public n'est prévu : le projet fonctionne exclusivement en consortium fermé. L'enjeu est considérable. Les logiciels open source constituent la colonne vertébrale de l'infrastructure numérique mondiale, des serveurs bancaires aux systèmes industriels en passant par les plateformes cloud. Des failles non détectées dans ces composants peuvent exposer des millions d'organisations simultanément, comme l'avait illustré la vulnérabilité Log4Shell en 2021. En automatisant la détection à grande échelle, Mythos promet de réduire drastiquement la fenêtre d'exposition entre l'introduction d'une faille et sa correction, un délai qui se compte aujourd'hui souvent en mois, voire en années. Ce projet s'inscrit dans une tendance de fond : après des années à construire des IA génératives grand public, les grandes entreprises technologiques réorientent une partie de leurs investissements vers des usages à fort impact systémique. La sécurité logicielle, longtemps sous-financée malgré sa criticité, attire désormais des coalitions inédites. Project Glasswing illustre aussi une réponse collective aux pressions réglementaires croissantes en Europe et aux États-Unis, qui imposent aux éditeurs une responsabilité accrue sur la sécurité de leurs chaînes d'approvisionnement logicielles.

UELes pressions réglementaires européennes sur la sécurité des chaînes d'approvisionnement logicielles (Cyber Resilience Act) sont citées comme moteur explicite du projet, qui vise à réduire les risques systémiques pesant sur les infrastructures numériques utilisées en Europe.

AutreOpinion
1 source