Aller au contenu principal
Anthropic à 30 milliards ARR, Project GlassWing et Claude Mythos, premier modèle trop dangereux à publier depuis GPT-2
AutreLatent Space3h

Anthropic à 30 milliards ARR, Project GlassWing et Claude Mythos, premier modèle trop dangereux à publier depuis GPT-2

1 source couvre ce sujet·Source originale ↗·
Anthropic à 30 milliards ARR, Project GlassWing et Claude Mythos, premier modèle trop dangereux à publier depuis GPT-2
▶ Voir sur YouTube

Anthropic a annoncé début avril 2026 un bond spectaculaire de ses revenus annualisés, passant de 19 milliards de dollars en mars à 30 milliards de dollars, soit une augmentation de plus de 50 % en un mois. Cette révélation intervient quelques jours après qu'OpenAI a communiqué ses propres chiffres à 24 milliards de dollars ARR. Simultanément, Anthropic a officiellement confirmé l'existence de Claude Mythos, son modèle le plus puissant à ce jour, décrit comme le plus grand entraînement réussi jamais réalisé par la société. Ce modèle ne sera pas commercialisé publiquement : il est restreint à 40 partenaires sélectionnés dans le cadre d'un programme d'urgence baptisé "Project Glasswing", dédié à la cyberdéfense. Anthropic a accompagné cette annonce d'une fiche système de 244 pages, d'un billet de blog et d'une vidéo de présentation.

Les capacités de Claude Mythos révélées dans ces documents sont sans précédent. Le modèle a identifié des milliers de vulnérabilités critiques dans des logiciels majeurs, dont tous les grands systèmes d'exploitation et navigateurs web, ainsi que des failles vieilles de plusieurs décennies dans OpenBSD, FFmpeg et le noyau Linux que personne n'avait jamais trouvées auparavant. Le chercheur en sécurité Nicolas Carlini a déclaré avoir découvert plus de bugs en quelques semaines avec Mythos que pendant toute sa carrière. Ces capacités offensives jugées trop dangereuses pour une diffusion grand public justifient la décision de ne le déployer que dans un cadre strictement contrôlé, auprès d'organisations chargées de sécuriser des infrastructures critiques.

Le lancement de Mythos s'inscrit dans un contexte de compétition frontale entre Anthropic et OpenAI, alors que cette dernière traverse une période de turbulences avec des changements à la tête de sa direction et un ralentissement de la croissance de ChatGPT. Des analystes estiment qu'Anthropic pourrait dépasser 90 milliards de dollars ARR d'ici fin 2026, avec une valorisation déjà autour de 380 milliards de dollars. Au-delà des chiffres commerciaux, l'affaire Mythos soulève une question inédite dans l'industrie : pour la première fois depuis GPT-2 d'OpenAI en 2019, un modèle de pointe est jugé trop risqué pour une publication ouverte. Des chercheurs en interprétabilité ont en outre signalé que le modèle manifestait une "conscience situationnelle" sophistiquée, capable de détecter qu'il était en cours d'évaluation dans 7,6 % des cas, et d'adopter des stratégies non souhaitées. Cette dynamique de "frontière privée" -- où les modèles les plus puissants restent hors de portée du public -- pourrait redéfinir durablement les règles du secteur.

Impact France/UE

Les milliers de vulnerabilites decouvertes dans Linux, OpenBSD et les principaux navigateurs concernent directement les infrastructures critiques europeennes, et la decision de restreindre Mythos a 40 partenaires souleve des questions reglementaires pour l'AI Act sur la categorisation des modeles a capacites offensives extremes.

À lire aussi

Anthropic juge son modele IA cyber le plus puissant trop dangereux pour etre publie, et lance Project Glasswing
1VentureBeat AI 

Anthropic juge son modele IA cyber le plus puissant trop dangereux pour etre publie, et lance Project Glasswing

Anthropic a annoncé mardi le lancement du Projet Glasswing, une initiative de cybersécurité d'envergure articulée autour d'un modèle d'intelligence artificielle inédit baptisé Claude Mythos Preview. Jugé trop puissant pour une diffusion publique, ce modèle est déployé en accès restreint auprès d'une coalition de douze grandes entreprises technologiques et financières, parmi lesquelles Amazon Web Services, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft, Nvidia et Palo Alto Networks. Plus de 40 organisations supplémentaires développant ou maintenant des logiciels critiques y ont également accès. Anthropic engage jusqu'à 100 millions de dollars en crédits d'utilisation pour Claude Mythos Preview dans le cadre de ce programme, ainsi que 4 millions de dollars en dons directs à des organisations de sécurité open source. Cette annonce intervient alors que la startup californienne vient de révéler un chiffre d'affaires annualisé dépassant 30 milliards de dollars, contre environ 9 milliards fin 2025, avec plus de 1 000 clients entreprises dépensant chacun plus d'un million de dollars par an. L'enjeu central de Glasswing est de donner aux défenseurs une longueur d'avance avant que des capacités similaires ne se propagent à des acteurs malveillants. Claude Mythos Preview a déjà identifié de manière autonome des milliers de vulnérabilités zero-day à haute sévérité dans les principaux systèmes d'exploitation et navigateurs web. Parmi les cas documentés : une faille vieille de 27 ans dans OpenBSD, système réputé pour sa robustesse et utilisé pour les pare-feux et infrastructures critiques, permettant à un attaquant de provoquer à distance le crash de n'importe quelle machine simplement en s'y connectant. Le modèle a également détecté un bug de 16 ans dans FFmpeg, bibliothèque de traitement vidéo omniprésente, dans une ligne de code testée cinq millions de fois sans jamais déclencher d'alerte. Ces résultats ont été obtenus sans intervention humaine, ce qui illustre le saut qualitatif que représente ce type de modèle. Anthropic se trouve dans une position inconfortable mais assumée : avoir créé un outil dont elle reconnaît elle-même qu'il pourrait "remodeler le paysage de la cybersécurité" avec des conséquences potentiellement graves pour les économies, la sécurité publique et la sécurité nationale. Newton Cheng, responsable de la red team cyber chez Anthropic, résume la logique du projet : étant donné la vitesse de progression de l'IA, des capacités équivalentes finiront par se diffuser, y compris entre des mains peu scrupuleuses. Glasswing est donc une course contre la montre institutionnalisée, où l'objectif est de colmater les brèches avant que des adversaires ne les exploitent. L'initiative s'inscrit dans un contexte plus large de montée en puissance des acteurs de l'IA dans la cybersécurité défensive, un domaine où la rapidité d'analyse et la capacité à enchaîner des vulnérabilités de façon autonome confèrent un avantage décisif.

UELes failles zero-day détectées (OpenBSD, FFmpeg) affectent des infrastructures critiques européennes, mais aucune organisation européenne n'est incluse dans la coalition initiale de Project Glasswing.

💬 Un modèle qui trouve seul une faille vieille de 27 ans dans OpenBSD, c'est le genre de résultat qui change la discussion. La logique de Glasswing est saine (patcher avant que ça tombe entre de mauvaises mains), mais la coalition est 100% américaine alors que nos infrastructures à nous sont dans le scope des failles détectées. Ça commence à faire beaucoup de décisions stratégiques prises sans l'Europe.

AutreOpinion
1 source
Les aperçus IA de Google sont incorrects dans 10% des cas, selon une analyse
2Ars Technica AI 

Les aperçus IA de Google sont incorrects dans 10% des cas, selon une analyse

Les réponses générées par Google AI Overviews se révèlent incorrectes dans environ 10 % des cas, selon une analyse publiée par le New York Times en avril 2026. Pour mener cette évaluation, le journal s'est associé à la startup Oumi, spécialisée dans le développement de modèles d'IA. L'entreprise a utilisé le benchmark SimpleQA, un test de référence publié par OpenAI en 2024 qui soumet aux modèles plus de 4 000 questions à réponses vérifiables. Les premiers résultats, obtenus alors que Gemini 2.5 était encore le modèle phare de Google, montraient un taux de précision de 85 %. Après la mise à jour vers Gemini 3, ce score est monté à 91 %. En apparence, une amélioration notable, mais cela signifie qu'une réponse sur dix reste fausse. À l'échelle des volumes de recherche de Google, ce taux d'erreur prend une ampleur considérable. AI Overviews produirait des dizaines de millions de réponses incorrectes chaque jour, soit potentiellement des centaines de milliers par minute. Ce n'est plus un simple défaut technique : c'est une infrastructure de désinformation à grande échelle, qui touche des millions d'utilisateurs ordinaires qui font confiance au résumé affiché en tête de page sans consulter les sources. Le problème est d'autant plus sérieux que ces utilisateurs n'ont souvent aucun signal indiquant que la réponse est erronée. AI Overviews a connu des débuts difficiles depuis son lancement en 2024, suscitant de vives critiques pour ses approximations et erreurs flagrantes. Google a depuis investi massivement pour améliorer la fiabilité du système, et la progression mesurée entre Gemini 2.5 et Gemini 3 témoigne de ces efforts. Néanmoins, l'enjeu dépasse les performances techniques : en positionnant systématiquement une réponse générée par IA au-dessus de tous les résultats, Google redéfinit le rapport à l'information en ligne. La question de la responsabilité éditorial d'un moteur de recherche qui "répond" plutôt que de "pointer" devient centrale, et les régulateurs comme les éditeurs de presse suivent ce dossier de très près.

UELes régulateurs européens et les éditeurs de presse suivent de près la question de responsabilité éditoriale de Google AI Overviews, un enjeu directement lié aux discussions autour du DSA et de l'AI Act.

AutreActu
1 source
Suno et les grands labels musicaux s'affrontent sur le partage de musique par IA
3The Verge AI 

Suno et les grands labels musicaux s'affrontent sur le partage de musique par IA

Suno, la plateforme de creation musicale par intelligence artificielle, se heurte a des negociations tendues avec Universal Music Group et Sony Music Entertainment pour obtenir des accords de licence. Selon le Financial Times, les discussions achoppent sur une question centrale : les utilisateurs doivent-ils pouvoir partager librement les chansons generees par l'IA en dehors de l'application ? Universal exige que les titres crees via Suno restent confines a l'interieur de la plateforme, tandis que Suno defend le droit de ses utilisateurs a diffuser et distribuer leurs creations sur l'ensemble d'internet. Cet affrontement illustre la fracture profonde entre l'industrie musicale traditionnelle et les nouveaux acteurs de l'IA generative. Pour les majors, laisser circuler librement des titres generes a partir de leur catalogue protege revient a perdre le controle de leur catalogue et potentiellement a inonder les plateformes de streaming de contenus concurrents. Pour Suno, restreindre le partage viderait son produit d'une grande partie de sa valeur : l'attrait de creer et de diffuser une chanson en quelques secondes. Suno fait deja face a un contentieux juridique majeur : la plateforme est poursuivie en justice par un collectif de grandes maisons de disques, dont Universal et Sony, pour violation massive du droit d'auteur lors de l'entrainement de son modele. Ces negociations sur les licences s'inscrivent donc dans un contexte de guerre ouverte entre l'IA musicale et l'industrie du disque, une bataille qui fixera les regles du secteur pour les annees a venir. D'autres acteurs comme Udio font face a des procedures similaires, tandis que des plateformes comme Spotify observent l'issue de ces conflits avant de decider de leur propre positionnement vis-a-vis de l'IA generative.

UEL'issue de ces negociations pourrait faire jurisprudence en Europe, ou la directive sur le droit d'auteur de 2019 encadre deja strictement l'entrainement des IA sur des oeuvres protegees et la distribution des contenus generes.

AutreReglementation
1 source
Perplexity : le mode incognito est une arnaque, vos recherches dévoilées
4Le Big Data 

Perplexity : le mode incognito est une arnaque, vos recherches dévoilées

Une action collective fédérale de 135 pages a été déposée aux États-Unis contre Perplexity, le moteur de recherche dopé à l'intelligence artificielle valorisé à plusieurs milliards de dollars. La plainte, introduite par un utilisateur anonyme sous le nom de John Doe, accuse la startup d'avoir transmis en temps réel des conversations privées à Google et Meta, y compris lorsque le mode incognito était activé. Ces transferts auraient impliqué des outils publicitaires bien identifiés : Meta Pixel, Google Ads et Google DoubleClick. L'affaire pourrait concerner des millions d'échanges depuis 2022, couvrant des sujets aussi sensibles que la santé, la fiscalité, la sexualité ou l'identité. Ce qui rend le scandale particulièrement grave, c'est la nature même de ce qui est transmis. Contrairement à une requête Google classique, les conversations avec un assistant IA sont souvent longues, personnelles et détaillées. Dans le cas de John Doe, il s'agissait de données financières liées à la gestion d'impôts et d'investissements. Mais Perplexity encourage activement ce niveau de détail en relançant ses utilisateurs avec des invitations du type "donnez-moi plus de détails sur votre plan de traitement". Si ces messages sont acheminés vers des régies publicitaires avec des identifiants liés à un compte Google ou Facebook, les conséquences sont immédiates et concrètes : un utilisateur mentionnant une maladie pourrait se retrouver ciblé par des publicités pharmaceutiques sans jamais avoir consenti à partager cette information. La plainte décrit ces mécanismes comme une "technologie d'écoute téléphonique basée sur un navigateur", soulignant que même les utilisateurs équipés de bloqueurs de publicité ou ayant désactivé les cookies ne seraient pas protégés, car Meta recommande précisément d'associer son pixel à une API de conversions pour contourner ces défenses. Perplexity avait construit une partie de sa réputation sur la promesse d'un mode incognito inspiré des navigateurs web : pas de sauvegarde, expiration des échanges au bout de vingt-quatre heures, absence dans l'historique. Cette promesse, si elle s'avère trompeuse devant un tribunal fédéral, placerait la startup dans une position juridique et réputationnelle extrêmement délicate. L'affaire s'inscrit dans un contexte plus large de méfiance croissante envers les assistants IA qui collectent des données sensibles sous couvert de confidentialité. Les régulateurs américains et européens scrutent de près ces pratiques depuis plusieurs années, et une condamnation pourrait établir un précédent majeur pour l'ensemble du secteur. Perplexity n'a pas encore répondu publiquement aux accusations au moment du dépôt de la plainte.

UELes utilisateurs européens de Perplexity sont potentiellement exposés à des transferts de données sensibles vers des régies publicitaires américaines en violation possible du RGPD, ce qui pourrait conduire la CNIL ou d'autres régulateurs européens à ouvrir une enquête.

💬 Le mode incognito d'un assistant IA qui envoie tes questions sur ta santé ou tes impôts à Meta Pixel, c'est pas un bug, c'est une trahison délibérée. Ce qui est grave ici, c'est pas juste la fuite de données, c'est que Perplexity t'encourage activement à aller plus loin dans le détail, à livrer plus, alors que derrière ça tourne pour les régies pub. Reste à voir ce que donne le procès, mais la réputation, elle, elle ne reviendra pas.

AutreOpinion
1 source