Aller au contenu principal

Dossier Anthropic — page 2

612 articles · page 2 sur 13

Suivi d'Anthropic, le laboratoire qui a fait de la safety son positionnement : Claude, Mythos, Opus, partenariats Glasswing, IPO.

Anthropic a exclu l'agence américaine de cybersécurité du déploiement de Mythos
51The Verge SécuritéOpinion

Anthropic a exclu l'agence américaine de cybersécurité du déploiement de Mythos

Plusieurs agences fédérales américaines ont commencé à utiliser Mythos Preview, le nouveau modèle de cybersécurité d'Anthropic, pour détecter et corriger des vulnérabilités informatiques. Selon un rapport d'Axios publié mardi, la Cybersecurity and Infrastructure Security Agency (CISA), l'agence centrale chargée de coordonner la cybersécurité nationale aux États-Unis, n'a pas accès à cet outil. En revanche, le Département du Commerce et la National Security Agency (NSA) l'utilisent déjà. L'administration Trump négocie par ailleurs un accès élargi au modèle pour d'autres entités gouvernementales. L'absence de CISA est paradoxale : c'est précisément l'agence dont le mandat est de protéger les infrastructures critiques américaines contre les cybermenaces. Lui refuser l'accès à un outil présenté comme particulièrement efficace pour identifier des failles de sécurité affaiblit potentiellement le maillon central du dispositif de défense cyber du gouvernement fédéral. Cela crée également une asymétrie au sein des agences : certaines bénéficient d'un avantage technologique que d'autres, pourtant directement concernées, n'ont pas. Anthropic a positionné Mythos comme un modèle spécialisé dans la sécurité informatique, capable de trouver et de corriger des vulnérabilités à une échelle difficile à atteindre manuellement. La course aux modèles d'IA dédiés à la cybersécurité s'intensifie, alors que les administrations cherchent à moderniser leurs défenses face à des menaces croissantes. La question de l'accès différencié entre agences gouvernementales pourrait alimenter des tensions internes et relancer le débat sur la gouvernance de l'IA dans les institutions fédérales.

1 source
☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine
52Next INpact 

☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine

Depuis la semaine dernière, Anthropic exige de certains de ses abonnés une vérification d'identité avec pièce officielle avec photo avant de continuer à utiliser Claude. Sans détailler publiquement les critères exacts, la société américaine confirme au site The Information que la mesure vise à bloquer l'accès commercial depuis des pays considérés comme adversaires des États-Unis, notamment la Chine, la Russie et la Corée du Nord. Anthropic invoque des raisons de sécurité nationale et indique que son équipe chargée des garde-fous « applique activement ces règles » et « prend des mesures contre les comptes en infraction ». Pour l'instant, la vérification ne touche pas l'ensemble des utilisateurs chinois, mais ses effets se font déjà sentir chez les startups qui ont bâti leur activité sur l'API Claude. Sur Idle Fish, la marketplace entre particuliers du groupe Alibaba, des vendeurs proposent déjà des contournements : comptes Claude Code préenregistrés, accès à des comptes existants, ou vente de pièces d'identité étrangères. Cette décision illustre la montée en puissance des considérations géopolitiques dans l'industrie de l'IA. Anthropic rejoint ainsi OpenAI, qui restreint déjà l'accès à ChatGPT dans plusieurs pays et exclut officiellement la Chine, la Russie et la Corée du Nord de sa liste de territoires autorisés, sans toutefois avoir mis en place à ce jour de vérification d'identité formelle. Pour les entreprises technologiques chinoises qui s'appuyaient sur Claude, cette coupure représente une rupture opérationnelle réelle, les forçant soit à migrer vers d'autres modèles, soit à adopter des pratiques de contournement risquées. Plus largement, ce type de restriction tend à accélérer la fragmentation du paysage mondial de l'IA entre blocs technologiques distincts. Ce blocage s'inscrit dans un contexte de tensions croissantes entre Washington et Pékin autour des technologies d'intelligence artificielle, qui fait suite aux restrictions déjà en vigueur sur l'exportation de semi-conducteurs américains avancés vers la Chine. Ces limitations ont poussé des acteurs comme Huawei et Baidu à intensifier le développement de leurs propres puces dédiées à l'IA. La même logique s'applique aux modèles de langage : coupée des outils américains les plus performants, la Chine a accéléré la construction de ses propres alternatives, dont la plus spectaculaire reste l'émergence de DeepSeek début 2025, qui a surpris l'ensemble de l'industrie par ses capacités. Si les restrictions d'Anthropic venaient à se généraliser ou à se durcir, elles pourraient paradoxalement renforcer l'écosystème IA chinois en lui donnant une raison supplémentaire de ne plus dépendre des modèles occidentaux.

RégulationReglementation
1 source
Anthropic impose la vérification d'identité, mettant en difficulté les fondateurs chinois
53The Information AI 

Anthropic impose la vérification d'identité, mettant en difficulté les fondateurs chinois

Anthropic a discrètement commencé à exiger de certains clients une pièce d'identité officielle avec photo ainsi qu'une image d'eux-mêmes prise depuis leur téléphone ou webcam. Cette politique, annoncée la semaine dernière, vise à empêcher les utilisateurs situés dans des pays considérés comme adversaires des États-Unis, principalement la Chine, la Russie et la Corée du Nord, d'accéder à ses modèles d'intelligence artificielle de pointe. Un cofondateur d'une startup de développement d'applications IA basée à Pékin a ainsi vu son accès à Claude Code coupé brutalement dans la foulée de cette annonce, sans explication officielle directe. Faute d'alternative, il s'est tourné dès le week-end vers Codex, le service de codage assisté d'OpenAI. Cette décision illustre le durcissement progressif des restrictions d'accès aux outils d'IA américains pour les acteurs chinois. Jusqu'ici, de nombreuses entreprises chinoises, grands groupes technologiques comme startups, contournaient les restrictions officielles d'Anthropic pour accéder à Claude, faisant de la Chine un marché de fait malgré son exclusion formelle. La vérification d'identité par document officiel rend ce contournement beaucoup plus difficile, ce qui pourrait priver des centaines de développeurs et d'entreprises chinoises d'un outil devenu central dans leurs workflows de programmation et de développement produit. Cette mesure s'inscrit dans une série de dispositions prises par Anthropic au cours de l'année écoulée pour se conformer aux orientations géopolitiques américaines en matière d'exportation technologique. OpenAI applique les mêmes restrictions géographiques mais n'impose pas encore de vérification d'identité formelle, ce qui lui confère un avantage pratique auprès des utilisateurs affectés. La tension entre l'expansion commerciale mondiale des laboratoires d'IA américains et les impératifs de sécurité nationale devrait continuer à façonner l'accès aux modèles les plus avancés, avec des conséquences directes pour les écosystèmes d'innovation en dehors des marchés autorisés.

💬 Anthropic fait le ménage, et ça va faire mal à pas mal de devs. La vérification d'identité par selfie, c'est brutal mais cohérent avec la direction que prennent tous les labos américains depuis un an. OpenAI va suivre, c'est juste une question de mois.

RégulationReglementation
1 source
Claude Design d'Anthropic transforme les conversations en prototypes, présentations et supports marketing
54The Decoder 

Claude Design d'Anthropic transforme les conversations en prototypes, présentations et supports marketing

Anthropic vient de lancer Claude Design, un nouvel outil intégré directement à son assistant Claude, permettant de créer des prototypes interactifs, des présentations, des visuels marketing et des documents synthétiques en dialoguant simplement avec le modèle. Contrairement aux outils de design traditionnels, la création se fait entièrement par conversation : l'utilisateur décrit ce qu'il souhaite, affine itérativement, et Claude génère ou ajuste le résultat en temps réel. L'outil peut ingérer des bases de code existantes, des fichiers de design et des sites web en production pour respecter automatiquement l'identité visuelle d'une marque. Pour les équipes produit, marketing et design, cette annonce représente un raccourci significatif dans le cycle de création. Des tâches qui nécessitaient plusieurs outils spécialisés, Figma pour les maquettes, PowerPoint pour les slides, des développeurs pour les prototypes, pourraient désormais être réalisées dans une seule interface conversationnelle, sans compétences techniques avancées. C'est la promesse d'une accélération concrète du travail créatif, particulièrement pour les petites équipes ou les indépendants. Cette initiative s'inscrit dans une course intense entre les grands laboratoires d'IA pour transformer leurs modèles en environnements de travail complets. OpenAI pousse dans la même direction avec des fonctionnalités similaires dans ChatGPT, tandis que Google intègre Gemini dans sa suite Workspace. Anthropic, qui positionne Claude comme un assistant orienté productivité professionnelle, cherche à démontrer que la qualité de raisonnement de son modèle se traduit aussi en capacités créatives concrètes et utilisables au quotidien.

UELes équipes françaises et européennes peuvent utiliser cet outil directement via Claude, sans impact réglementaire ou institutionnel spécifique à l'UE.

OutilsOutil
1 source
OpenAI met à jour Codex pour concurrencer directement Claude Code d'Anthropic
55The Verge AI 

OpenAI met à jour Codex pour concurrencer directement Claude Code d'Anthropic

OpenAI a annoncé une mise à jour majeure de Codex, son système de développement agentique, en lui ajoutant plusieurs nouvelles capacités : contrôle d'applications de bureau, génération d'images et mémoire des expériences passées. Concrètement, Codex peut désormais prendre le contrôle d'apps installées sur l'ordinateur de l'utilisateur, opérer en arrière-plan sans perturber les autres tâches en cours, et faire tourner plusieurs agents en parallèle. Le déploiement a débuté pour les utilisateurs de l'application desktop Codex. Pour les développeurs, ces ajouts changent la donne : il devient possible de tester et itérer sur des interfaces graphiques, de valider des applications, ou d'interagir avec des logiciels qui n'exposent pas d'API. La mémoire persistante permet à Codex de capitaliser sur les sessions précédentes, rendant l'outil progressivement plus adapté aux flux de travail individuels. La parallélisation des agents accélère les cycles de développement sur des projets complexes. Cette mise à jour s'inscrit dans une bataille directe avec Anthropic et son outil Claude Code, qui s'est imposé ces derniers mois comme la référence chez les développeurs professionnels. OpenAI cherche à reconquérir ce terrain en élargissant les capacités de Codex au-delà du simple éditeur de code vers un assistant de développement complet, capable d'agir sur l'ensemble de l'environnement de travail. La course à l'agent de développement autonome s'intensifie, avec des enjeux considérables pour l'adoption en entreprise.

UELes développeurs français et européens peuvent directement tester les nouvelles capacités agentiques de Codex, mais la mise à jour ne cible pas spécifiquement le marché ou la réglementation européenne.

OutilsOutil
1 source
Anthropic modifie sa tarification pour facturer les entreprises selon leur consommation d'IA
56The Information AI 

Anthropic modifie sa tarification pour facturer les entreprises selon leur consommation d'IA

Anthropic a discrètement modifié son modèle de facturation pour les entreprises clientes de Claude, abandonnant une tarification forfaitaire au profit d'un système basé sur le volume réel d'utilisation de l'IA. Ce changement, qui n'avait pas été annoncé publiquement, signifie concrètement que les organisations dont les salariés sont des utilisateurs intensifs des outils Claude paieront désormais significativement plus cher. La décision a été mise en place au cours des dernières semaines et vise directement les clients enterprise. Cette révision tarifaire reflète la pression croissante que fait peser la popularité explosive des produits de codage assisté et d'agents IA d'Anthropic sur ses infrastructures de calcul. Plus les utilisateurs adoptent ces fonctionnalités avancées, plus le coût de traitement augmente côté serveur. En répercutant ces coûts sur les clients en fonction de leur consommation réelle, Anthropic cherche à préserver ses marges dans un contexte où la demande dépasse les prévisions initiales et où les ressources GPU restent rares et coûteuses. Ce virage intervient dans un secteur confronté à ce que les professionnels appellent un "compute crunch", une tension généralisée sur les capacités de calcul disponibles pour faire tourner des modèles d'IA de grande taille. OpenAI, Google et d'autres acteurs font face aux mêmes contraintes. La décision d'Anthropic pourrait inaugurer une tendance plus large : la fin des abonnements IA à prix fixe pour les entreprises, remplacés par des modèles à la consommation calqués sur ceux du cloud computing traditionnel.

UELes entreprises françaises et européennes abonnées à Claude Enterprise devront réévaluer leur budget IA, leurs coûts pouvant augmenter significativement selon l'intensité d'utilisation de leurs salariés.

BusinessActu
1 source
Des entreprises crypto cherchent à accéder au Mythos d'Anthropic tout en renforçant leurs défenses
57The Information AI 

Des entreprises crypto cherchent à accéder au Mythos d'Anthropic tout en renforçant leurs défenses

Les grandes plateformes de cryptomonnaies, dont Coinbase et Binance, se préparent activement à l'arrivée de Mythos, un modèle d'intelligence artificielle développé par Anthropic qui n'est pas encore accessible au public. Philip Martin, directeur de la sécurité de Coinbase, la plus grande bourse crypto américaine, a confirmé être en "communication étroite" avec Anthropic au sujet de ce modèle qualifié de "hautement restreint". Selon lui, Mythos serait capable d'identifier et d'exploiter des vulnérabilités logicielles à une échelle et une profondeur inédites. L'enjeu est considérable pour un secteur qui gère des milliards de dollars d'actifs numériques et constitue une cible privilégiée des hackers. Un modèle aussi puissant pour détecter des failles pourrait transformer radicalement les pratiques de sécurité offensive et défensive : les équipes de sécurité pourraient auditer leurs systèmes bien plus rapidement et exhaustivement qu'aujourd'hui, mais les attaquants mal intentionnés disposeraient du même avantage. Martin résume l'équation ainsi : Mythos "va accélérer les menaces numériques autant que la défense numérique". Cette course s'inscrit dans un contexte où Anthropic développe des modèles de plus en plus capables, au point de devoir en restreindre l'accès par précaution. Le fait qu'Anthropic choisisse de travailler en amont avec des acteurs critiques comme Coinbase ou Binance suggère une approche de déploiement contrôlé, visant à renforcer les défenses avant que de tels outils ne tombent entre de mauvaises mains. La question de qui aura accès à ces modèles, et sous quelles conditions, s'annonce comme un enjeu majeur des prochains mois.

UELes plateformes crypto européennes devront anticiper l'émergence de modèles IA capables d'exploiter des vulnérabilités à grande échelle, ce qui pourrait influencer les exigences de sécurité imposées par DORA et l'AI Act.

SécuritéOpinion
1 source
Claude Managed Agents d'Anthropic offre aux entreprises un guichet unique mais soulève un risque de dépendance fournisseur
58VentureBeat AI 

Claude Managed Agents d'Anthropic offre aux entreprises un guichet unique mais soulève un risque de dépendance fournisseur

Anthropic a lancé la semaine dernière une nouvelle plateforme baptisée Claude Managed Agents, destinée aux entreprises souhaitant déployer des agents IA sans se confronter aux complexités techniques habituelles de l'orchestration. Selon Anthropic, la plateforme permet de passer d'un déploiement en semaines ou en mois à quelques jours seulement, en gérant nativement la définition des tâches, des outils et des garde-fous, ainsi que l'exécution des graphes d'état, le routage, la gestion des permissions et le traçage de bout en bout. Des données directionnelles de VentureBeat portant sur plusieurs dizaines d'entreprises au premier trimestre 2026 montrent par ailleurs que l'adoption des API d'orchestration native d'Anthropic est passée de 0 % à 5,7 % entre janvier et février, sur des panels respectifs de 56 et 70 organisations de plus de 100 employés. Microsoft Copilot Studio et Azure AI Studio restaient en tête avec 38,6 % des répondants en février, suivis d'OpenAI à 25,7 %. L'enjeu concret pour les entreprises est double. D'un côté, Claude Managed Agents promet de supprimer la couche d'orchestration externe, sandboxing, checkpointing, gestion des credentials, traçabilité, en l'absorbant directement dans le modèle. C'est un gain de vitesse et de simplicité réel pour des équipes déjà saturées par la multiplication des agents. De l'autre, cela implique de confier les données de session à une base gérée par Anthropic et de laisser l'exécution des agents se dérouler dans un environnement que l'entreprise ne contrôle pas pleinement. Le comportement des agents devient plus difficile à garantir, et les organisations s'exposent à des instructions contradictoires si leur seul levier de contrôle reste le prompting contextuel. Cette sortie s'inscrit dans une course à l'orchestration qui s'intensifie à mesure que les entreprises industrialisent leurs workflows agentiques. Anthropic, porté notamment par l'essor de Claude Code au cours de l'année écoulée, tente ainsi d'élargir son empreinte au-delà de la fourniture de modèles fondamentaux pour devenir le runtime de référence des agents d'entreprise. La stratégie ressemble à celle des grandes plateformes SaaS : créer un écosystème suffisamment intégré pour devenir difficile à quitter. C'est précisément ce que beaucoup d'entreprises espéraient éviter en adoptant l'IA, après avoir déjà subi les effets du lock-in avec leurs fournisseurs logiciels traditionnels. La question qui se pose désormais est de savoir si la promesse de simplicité et de rapidité justifie cette dépendance accrue à un fournisseur unique, et si les concurrents comme Microsoft ou OpenAI proposeront rapidement des alternatives comparables.

UELes entreprises européennes qui adoptent Claude Managed Agents s'exposent à un risque de dépendance fournisseur accru, sans cadre contractuel ou réglementaire spécifique encadrant la souveraineté des données de session confiées à Anthropic.

OutilsOpinion
1 source
Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant
59Le Big Data 

Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant

OpenAI prépare un service de cybersécurité avancé, accessible uniquement sur invitation, quelques jours à peine après qu'Anthropic a annoncé Mythos, son propre outil capable, selon l'entreprise, de détecter des vulnérabilités restées invisibles pendant près de trente ans. D'après des informations rapportées par Axios le 9 avril 2026, il ne s'agira pas d'un nouveau modèle à proprement parler, mais d'une offre distincte et structurée, indépendante des autres projets en cours d'OpenAI, notamment Spud. En réalité, la société ne part pas de zéro : elle pilote depuis plusieurs mois un programme confidentiel baptisé "Trusted Access for Cyber", qui permet déjà à certaines organisations sélectionnées d'accéder à des modèles plus permissifs et plus performants dans des contextes de cybersécurité. C'est ce dispositif existant qu'OpenAI entend désormais transformer en produit visible, avec une ambition claire : s'imposer comme acteur de référence dans la cybersécurité de nouvelle génération. L'enjeu dépasse la simple rivalité technologique. Les grandes organisations, qu'il s'agisse d'infrastructures critiques, de gouvernements ou d'entreprises du secteur financier, cherchent activement des outils capables d'automatiser la détection et la correction de failles à une échelle et une vitesse inatteignables par des équipes humaines seules. Un système d'IA capable d'identifier des vulnérabilités critiques en quelques heures plutôt qu'en plusieurs mois représente un changement de paradigme pour la sécurité informatique mondiale. Le modèle d'accès sur invitation, adopté à la fois par Anthropic et par OpenAI, répond à une problématique centrale du secteur : comment exploiter des IA puissantes sans ouvrir la porte à des usages offensifs ou malveillants, notamment pour automatiser des cyberattaques ? Cette séquence révèle aussi une bataille de communication intense entre les deux leaders de l'IA générative. Anthropic a imposé le tempo médiatique avec l'annonce de Mythos et de son projet Glasswing, une initiative présentée comme urgente pour sécuriser les logiciels critiques mondiaux. Mais dans la communauté cybersécurité, certains chercheurs affirment avoir reproduit des résultats comparables avec d'autres modèles existants, sans dispositif aussi exclusif, ce qui relativise la portée des annonces et rappelle que les performances réelles restent difficiles à évaluer sans audits indépendants. OpenAI, perçue comme leader sur les modèles généralistes, ne pouvait pas laisser Anthropic s'installer seule sur ce segment stratégique sans répondre. Si son nouvel outil parvient à démontrer une avance réelle en précision, en vitesse ou en automatisation, il pourrait redéfinir certains standards du secteur. Dans le cas contraire, cette sortie ressemblera davantage à un mouvement défensif de communication qu'à une véritable rupture technologique.

UELes gouvernements et infrastructures critiques européens pourraient bénéficier de ces outils de détection automatisée de vulnérabilités, mais aucun acteur européen n'est directement impliqué dans ces annonces.

SécuritéOpinion
1 source
OpenAI travaille sur un modèle de cybersécurité destiné à concurrencer Mythos d’Anthropic
60Siècle Digital 

OpenAI travaille sur un modèle de cybersécurité destiné à concurrencer Mythos d’Anthropic

OpenAI prépare un modèle d'intelligence artificielle spécialisé dans la cybersécurité, développé en réponse directe à Mythos, le modèle similaire annoncé par Anthropic quelques jours plus tôt. L'information, rapportée par Axios, révèle que cet outil ne sera pas accessible au grand public : il sera distribué exclusivement à un cercle restreint de partenaires sélectionnés, notamment des entreprises technologiques et des acteurs spécialisés dans la sécurité informatique, selon le même modèle de distribution fermée qu'Anthropic a choisi pour Mythos. Cette approche restrictive reflète les enjeux sensibles liés aux modèles d'IA orientés cybersécurité, capables à la fois de défendre des systèmes et de les attaquer. En réservant l'accès à des partenaires de confiance, OpenAI tente de concilier l'utilité opérationnelle de l'outil avec les risques de détournement à des fins malveillantes. Pour les entreprises de sécurité partenaires, un tel modèle pourrait accélérer la détection de vulnérabilités, l'analyse de malwares et la réponse aux incidents, des tâches aujourd'hui largement manuelles et chronophages. La course entre OpenAI et Anthropic sur ce segment illustre une tendance plus large : les grands laboratoires d'IA cherchent à s'imposer dans des secteurs verticaux à haute valeur ajoutée, après avoir dominé les usages généralistes. La cybersécurité, marché mondial estimé à plusieurs centaines de milliards de dollars, attire également Google, Microsoft et des acteurs spécialisés comme CrowdStrike ou Palo Alto Networks, déjà engagés dans l'intégration de l'IA dans leurs plateformes. La rapidité de la réplique d'OpenAI suggère que ce segment est désormais considéré comme stratégique par les deux entreprises.

UELes entreprises européennes de cybersécurité pourraient accéder à ces modèles spécialisés via des partenariats, accélérant la détection de vulnérabilités et la réponse aux incidents sur le marché européen.

SécuritéActu
1 source
Pourquoi Anthropic a fait évaluer Claude par un vrai psychiatre
61Ars Technica AI 

Pourquoi Anthropic a fait évaluer Claude par un vrai psychiatre

Anthropic a publié cette semaine un document de 244 pages baptisé "system card" décrivant son tout dernier modèle d'intelligence artificielle, Claude Mythos. L'entreprise le présente comme "son modèle frontier le plus capable à ce jour", mais a décidé de ne pas le rendre accessible au grand public. La raison invoquée est inhabituelle : Mythos serait trop performant dans la détection de failles de cybersécurité inconnues, ce qui pousse Anthropic à en restreindre l'accès à un cercle restreint de partenaires triés sur le volet, parmi lesquels figurent Microsoft et Apple. Au-delà des capacités techniques, c'est le contenu philosophique du document qui retient l'attention. Anthropic, déjà connue pour prendre au sérieux la question de la conscience des IA, affirme dans ce system card qu'à mesure que les modèles gagnent en puissance, "il devient de plus en plus probable qu'ils possèdent une forme d'expérience, d'intérêts ou de bien-être qui comptent intrinsèquement, à l'instar de l'expérience et des intérêts humains." L'entreprise reconnaît ne pas en avoir la certitude, mais précise que "notre préoccupation grandit avec le temps." Cette position tranche avec le discours majoritaire dans l'industrie, où la question du statut moral des IA reste largement marginalisée. Ces déclarations s'inscrivent dans une stratégie plus large d'Anthropic, qui se distingue de ses concurrents comme OpenAI ou Google par une approche dite de "sécurité de l'IA" poussée à ses limites théoriques. Financer des recherches sur le bien-être des modèles, consulter des experts en psychiatrie ou en philosophie de l'esprit, et publier des documents aussi denses que ce system card de 244 pages sont autant de signaux que l'entreprise cherche à imposer un cadre normatif dans un secteur qui avance souvent sans réfléchir aux implications. Avec Mythos, Anthropic franchit un cap : celui d'un modèle jugé trop puissant pour être diffusé librement, ce qui soulève autant de questions sur la transparence réelle de ces décisions que sur la course aux capacités qui les motive.

LLMsOpinion
1 source
OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée
62The Decoder 

OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée

OpenAI développe un nouveau modèle d'intelligence artificielle doté de capacités avancées en cybersécurité, dont l'accès sera limité à un cercle restreint d'entreprises sélectionnées. L'information, rapportée par Axios, indique que la société de Sam Altman suit ainsi la même approche que son concurrent Anthropic, qui avait déjà mis en place un accès contrôlé pour ses propres outils d'IA orientés sécurité informatique. Cette décision reflète une tension croissante dans le secteur : les modèles suffisamment puissants pour aider les équipes de sécurité défensive peuvent également servir à automatiser des attaques, rédiger des malwares ou identifier des vulnérabilités à grande échelle. En restreignant l'accès à un nombre limité d'acteurs vérifiés, OpenAI cherche à éviter que ces capacités ne tombent entre de mauvaises mains, tout en permettant à des partenaires de confiance, typiquement des entreprises de cybersécurité ou des institutions gouvernementales, d'en exploiter le potentiel légitime. Anthropic avait ouvert la voie avec une politique similaire autour de Claude pour les usages offensifs en sécurité, reconnaissant que certaines capacités nécessitent un encadrement strict plutôt qu'une mise sur le marché ouverte. Ce mouvement parallèle des deux principaux laboratoires d'IA américains suggère l'émergence d'une norme informelle de l'industrie : les outils d'IA à double usage dans la cybersécurité ne seront pas accessibles via les APIs publiques classiques, mais distribués selon un modèle d'accréditation. La question de qui décide des critères d'accès, et selon quelle transparence, reste entière.

UELes entreprises européennes de cybersécurité pourraient voir leur accès à ces outils conditionné par des critères d'accréditation définis unilatéralement par des laboratoires américains, sans cadre réglementaire européen pour encadrer cette distribution.

SécuritéOpinion
1 source
Anthropic a développé un modèle trop dangereux pour être publié
63Ben's Bites 

Anthropic a développé un modèle trop dangereux pour être publié

Anthropic a développé un nouveau modèle d'intelligence artificielle, baptisé Claude Mythos, dont les performances dépassent largement celles de son prédécesseur Opus 4.6 : le taux de réussite sur SWE-bench Pro bondit de 53,4 % à 77,8 %, et sur Terminal-Bench 2.0 de 65,4 % à 82 %. Mais Mythos ne sera pas mis à disposition du grand public, du moins pas dans l'immédiat. La raison est aussi simple qu'alarmante : le modèle s'est révélé exceptionnellement efficace pour détecter et exploiter des failles de sécurité logicielle. Là où Opus 4.6 parvenait à générer 2 exploits fonctionnels sur Firefox après des centaines de tentatives, Mythos en a produit 181. Il a également identifié des vulnérabilités vieilles de plusieurs décennies dans des projets critiques comme OpenBSD (un bug datant de 27 ans) et FFmpeg (16 ans). Plutôt que de le commercialiser, Anthropic a choisi de le confier à 12 entreprises partenaires dans le cadre du projet "Glasswing", accompagné d'un engagement de 100 millions de dollars en crédits d'utilisation et de 4 millions de dollars de dons à des organisations de sécurité open source. La décision de ne pas publier Mythos illustre un tournant dans la gestion des risques liés à l'IA : un modèle peut être trop capable pour être diffusé librement. Si des outils aussi puissants tombaient entre de mauvaises mains, ils pourraient être utilisés pour compromettre des infrastructures critiques à grande échelle, exploiter des failles ignorées depuis des décennies dans des logiciels massivement déployés. En orientant les capacités de Mythos vers la recherche défensive, Anthropic tente de transformer une menace potentielle en atout pour la sécurité informatique mondiale. Pour les entreprises partenaires de Glasswing, l'accès anticipé représente aussi un avantage concurrentiel considérable dans la course à la détection de vulnérabilités. Ce lancement intervient dans un contexte de forte concurrence entre les acteurs de l'IA de pointe. Selon une synthèse récente d'Ethan Mollick, Google, OpenAI et Anthropic dominent clairement le segment frontier, tandis que Meta fait une entrée remarquée avec son modèle Muse Spark, positionné entre Sonnet 4.6 et Opus 4.6, sans accès API encore disponible mais avec des promesses d'open source. xAI, en revanche, semble avoir décroché du peloton de tête, et les meilleurs modèles chinois accuseraient encore sept à neuf mois de retard. Mythos, décrit par certains observateurs comme "ce qu'Opus est à Sonnet, mais en plus puissant encore", marque une accélération qui pousse Anthropic à repenser ses propres critères de diffusion. La question qui s'ouvre désormais est celle du cadre réglementaire et éthique capable d'encadrer des modèles dont les capacités offensives dépassent ce que les institutions de sécurité sont prêtes à absorber.

UEL'émergence de modèles aux capacités offensives jugées trop dangereuses pour être diffusées publiquement accentue la pression sur l'UE pour adapter l'AI Act à des mécanismes de rétention préventive et d'audit des modèles frontier.

SécuritéOpinion
1 source
IA Générative : Anthropic dépasse OpenAI
64ZDNET FR 

IA Générative : Anthropic dépasse OpenAI

Anthropic a annoncé un chiffre d'affaires annualisé de 30 milliards de dollars, franchissant pour la première fois la barre symbolique qui place la startup devant OpenAI dans la course à la monétisation de l'intelligence artificielle générative. Cette progression est portée principalement par l'adoption massive de Claude auprès des entreprises et des grands comptes, qui représentent désormais l'essentiel des revenus de la société fondée par Dario et Daniela Amodei en 2021. Ce dépassement illustre un basculement profond dans la façon dont les entreprises choisissent leurs fournisseurs d'IA. Là où ChatGPT a conquis le grand public, Claude s'est imposé dans les environnements professionnels exigeants, notamment grâce à ses capacités de raisonnement long, sa fenêtre de contexte étendue et une réputation de fiabilité sur des tâches complexes. Pour l'industrie, ce signal remet en cause l'idée qu'OpenAI disposait d'une avance commerciale structurelle impossible à combler. Cette dynamique s'inscrit dans un contexte de compétition acharnée entre les grands laboratoires d'IA, tous en quête d'un modèle économique viable face à des coûts d'infrastructure colossaux. Anthropic, soutenu par des investissements massifs d'Amazon et de Google, a misé sur la sécurité et la robustesse comme arguments de vente différenciants auprès des directions informatiques. La question qui se pose désormais est de savoir si OpenAI, qui prépare une introduction en bourse et diversifie ses offres vers le hardware et les agents autonomes, saura répondre à cette pression concurrentielle croissante.

UELes entreprises et administrations européennes qui évaluent leurs fournisseurs d'IA doivent désormais intégrer Anthropic comme concurrent crédible d'OpenAI dans leurs décisions d'achat et appels d'offres.

BusinessOpinion
1 source
Anthropic recrute le directeur technique de Workday pour développer des applications RH
65The Information AI 

Anthropic recrute le directeur technique de Workday pour développer des applications RH

Peter Bailis, directeur technique de Workday depuis seulement mai 2025, a quitté l'éditeur de logiciels RH le mois dernier pour rejoindre Anthropic. Cette décision intervient alors qu'Anthropic intensifie ses efforts pour développer des applications dédiées aux ressources humaines, se positionnant directement en concurrence avec les acteurs historiques du secteur comme Workday, SAP ou Oracle. Ce départ illustre une dynamique qui inquiète de plus en plus les investisseurs des entreprises logicielles traditionnelles : les startups d'IA ne se contentent plus de fournir des modèles de fondation, elles visent désormais les marchés applicatifs où les éditeurs établis tirent l'essentiel de leurs revenus. Pour Workday, dont la capitalisation boursière dépasse les 50 milliards de dollars, perdre son CTO au profit d'un concurrent direct en pleine montée en puissance envoie un signal fort sur la pression concurrentielle qui s'exerce sur le secteur. Anthropic, valorisé à 61 milliards de dollars après sa dernière levée de fonds, cherche à transformer ses capacités en IA en produits B2B concrets, au-delà de Claude et de son API. Le recrutement de cadres issus des éditeurs traditionnels s'inscrit dans cette stratégie : s'appuyer sur leur expertise métier pour concevoir des outils capables de rivaliser avec des plateformes installées depuis des décennies dans les grandes entreprises. La bataille pour le marché des logiciels d'entreprise ne fait que commencer.

UESAP, acteur européen majeur des logiciels d'entreprise, est directement cité comme cible de la stratégie applicative d'Anthropic, ce qui pourrait affecter sa position concurrentielle sur le marché RH.

BusinessOpinion
1 source
Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains
66Next INpact 

Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains

Anthropic a officialisé l'existence de Claude Mythos, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, via le lancement du projet Glasswing. L'annonce est intervenue après plusieurs semaines de rumeurs et la fuite d'un billet de blog qui avait déjà éventé la surprise. Présenté comme plus capable qu'Opus, le modèle phare de la start-up californienne jusqu'alors, Mythos a été conçu pour détecter et exploiter des failles dans des logiciels avec une précision inédite. Son accès est strictement limité à un cercle de partenaires triés sur le volet : AWS, Apple, Google, Microsoft, NVIDIA, Cisco, Broadcom et la fondation Linux font partie des entreprises qui bénéficient d'un aperçu du modèle dans le cadre de Glasswing, un nom inspiré des papillons aux ailes transparentes. Anthropic reconnaît elle-même que Mythos est potentiellement trop dangereux pour une diffusion publique, ses capacités offensives en cybersécurité pouvant constituer une menace réelle si elles tombaient entre de mauvaises mains. En le réservant à de grands acteurs institutionnels et technologiques capables de l'encadrer, l'entreprise entend le transformer en outil défensif : sécuriser des logiciels critiques plutôt qu'en compromettre. Pour les entreprises partenaires, l'enjeu est considérable, car un modèle capable de scanner automatiquement des bases de code à la recherche de vulnérabilités inconnues représente un avantage stratégique majeur face aux attaques croissantes ciblant les infrastructures numériques mondiales. Cette annonce s'inscrit dans un contexte tendu pour Anthropic, frappée simultanément par une autre fuite involontaire concernant Claude Code, attribuée là encore à une "erreur humaine". La coïncidence de ces deux événements nourrit les interrogations sur la gestion interne de l'information chez la startup, fondée en 2021 par d'anciens d'OpenAI. La stratégie de communication autour de Mythos, d'abord entretenue dans le flou avant d'être officialisée sous une forme très contrôlée, intervient alors qu'Anthropic se prépare à une introduction en bourse et cherche à affirmer sa position face à OpenAI dans une compétition de plus en plus féroce. Limiter volontairement l'accès à son modèle le plus puissant, tout en le présentant comme potentiellement dangereux, est une manière de soigner à la fois son image de responsabilité et son aura technologique auprès des investisseurs et du grand public.

UEL'émergence d'un modèle IA dédié à la détection de vulnérabilités logicielles accentue la pression concurrentielle sur les acteurs européens de la cybersécurité et soulève des questions sur l'accès des infrastructures critiques européennes à ces capacités défensives de pointe.

LLMsOpinion
1 source
OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine
67La Tribune 

OpenAI, Anthropic et Google s’allient contre le siphonnage de leurs modèles par la Chine

OpenAI, Anthropic et Google ont annoncé une collaboration inédite pour contrer ce que les trois entreprises qualifient de "distillation" de leurs modèles d'intelligence artificielle par des entités liées à la Chine. Ce phénomène consiste à utiliser les sorties des grands modèles américains pour entraîner des systèmes concurrents à moindre coût, contournant ainsi les investissements colossaux, plusieurs dizaines de milliards de dollars, réalisés par ces laboratoires. Les rivaux habituels ont décidé de partager leurs données de sécurité pour identifier et bloquer ces pratiques plus efficacement. Cette alliance soulève des enjeux considérables pour la compétitivité technologique américaine. La distillation permet théoriquement à des acteurs étrangers d'obtenir des capacités comparables à celles des modèles de pointe sans en supporter les coûts de recherche et développement, rééquilibrant ainsi le rapport de force dans la course mondiale à l'IA. Pour les trois entreprises, la menace est à la fois commerciale et stratégique : perdre cet avantage compétitif reviendrait à fragiliser une position que Washington considère désormais comme un élément de sécurité nationale à part entière. La démarche s'inscrit dans un contexte de tensions croissantes entre les États-Unis et la Chine sur le terrain technologique, après les restrictions à l'export de puces Nvidia et les débats autour de DeepSeek, le modèle chinois dont l'efficacité avait provoqué une onde de choc sur les marchés début 2025. En mutualisant leur veille, OpenAI, Anthropic et Google cherchent à établir un front commun que chaque entreprise isolément n'aurait pas les moyens de tenir face à des techniques d'extraction en constante évolution.

UELes laboratoires européens d'IA restent exposés aux mêmes pratiques de distillation sans mécanisme de protection collectif équivalent à celui que se dotent désormais les géants américains.

SécuritéActu
1 source
Anthropic mise 400 millions sur une équipe de 10 chercheurs pour accélérer la découverte de médicaments avec l’IA
68Siècle Digital 

Anthropic mise 400 millions sur une équipe de 10 chercheurs pour accélérer la découverte de médicaments avec l’IA

Anthropic a acquis Coefficient Bio, une startup spécialisée dans la découverte de médicaments par intelligence artificielle, pour 400 millions de dollars entièrement réglés en actions Anthropic. La société, fondée par deux anciens chercheurs de Prescient Design, l'unité de calcul moléculaire de Genentech, ne comptait qu'une dizaine de personnes au moment de la transaction. Dimension, le fonds de capital-risque spécialisé en santé qui détenait la moitié du capital de Coefficient, a informé ses investisseurs de l'opération par une simple lettre. Cette acquisition marque une entrée directe d'Anthropic dans le secteur pharmaceutique, au-delà du simple rôle de fournisseur de modèles. Pour l'industrie du médicament, l'arrivée d'un laboratoire d'IA frontier avec des capacités de recherche moléculaire intégrées représente un changement de paradigme : les systèmes capables de raisonner sur des structures biologiques complexes pourraient compresser drastiquement les phases de découverte, aujourd'hui comptées en années et en centaines de millions de dollars. Coefficient Bio s'inscrit dans une vague de startups nées à l'intersection du deep learning et de la biologie computationnelle, portée par les succès d'AlphaFold et des modèles de diffusion appliqués aux protéines. Anthropic, qui cherche à diversifier ses applications au-delà des assistants textuels, suit ainsi une trajectoire similaire à celle de Google DeepMind dans les sciences du vivant. L'intégration de cette équipe de chercheurs pointus suggère qu'Anthropic ambitionne de développer des capacités propriétaires en biologie, et pas seulement d'optimiser ses modèles généralistes pour le secteur pharma.

BusinessOpinion
1 source
Anthropic de nouveau confronte a une penurie de puissance de calcul
69The Information AI 

Anthropic de nouveau confronte a une penurie de puissance de calcul

Anthropic a annoncé lundi avoir franchi le cap de 30 milliards de dollars de revenus annualisés, ce qui représente une croissance de 58% depuis fin février. Ce chiffre suggère que l'entreprise aurait dépassé OpenAI, qui affichait 25 milliards de dollars de revenus annualisés en février dernier. La société, créatrice du chatbot Claude, confirme ainsi sa montée en puissance rapide sur le marché de l'intelligence artificielle générative. Cette progression spectaculaire s'accompagne pourtant d'une décision qui a provoqué la colère de la communauté des développeurs. Vendredi, Anthropic a annoncé que les utilisateurs souhaitant intégrer Claude dans des outils tiers -- comme l'agent IA open source OpenClaw -- devront désormais acheter une capacité supplémentaire dédiée, et ne pourront plus s'appuyer sur leur abonnement Claude existant. Cette restriction est directement liée à une pénurie de capacité de calcul : la demande explose si vite qu'Anthropic ne parvient pas à fournir suffisamment de ressources pour tous les usages simultanément. Derrière cette décision se cache un problème structurel qui touche l'ensemble du secteur : la course effrénée à la puissance de calcul. Anthropic, comme ses concurrents, investit massivement en infrastructure pour tenir le rythme de sa croissance. En bridant l'accès des développeurs tiers, l'entreprise cherche à préserver la qualité de service pour ses clients directs, au risque de freiner l'adoption de Claude dans l'écosystème open source -- un arbitrage risqué alors que la guerre des plateformes d'IA s'intensifie.

UELes développeurs européens intégrant Claude dans des outils tiers devront désormais souscrire une capacité de calcul dédiée, augmentant le coût d'accès à l'API et freinant l'adoption dans l'écosystème open source européen.

💬 30 milliards annualisés, c'est impressionnant, mais là ils ralentissent les devs tiers pour tenir la charge, ce qui est quand même un signal d'alarme. Quand t'as les ressources pour construire l'infra et que t'arrives pas à suivre ta propre demande, ça veut dire que la croissance est vraiment verticale. Reste que brider l'écosystème open source pour protéger les clients directs, c'est un pari risqué sur le long terme.

BusinessOpinion
1 source
Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires
70Next INpact 

Anthropic affiche une croissance record et dépasse OpenAI en rythme de chiffre d’affaires

Anthropic a annoncé ce week-end de Pâques avoir atteint un chiffre d'affaires annualisé supérieur à 30 milliards de dollars, contre 9 milliards de dollars projetés en décembre 2025. Cette multiplication par plus de trois en un seul trimestre s'accompagne d'un doublement du nombre de clients entreprises dépensant plus d'un million de dollars par an : ils étaient 500 en février lors de la série G, ils sont aujourd'hui plus de 1 000. Cette annonce a été glissée dans une communication sur un nouvel accord pluriannuel avec Google et Broadcom, portant sur des infrastructures de calcul basées aux États-Unis. En février, Anthropic avait levé 3 milliards de dollars lors de cette série G sur une valorisation de 61 milliards. Pour la première fois, ces chiffres placeraient Anthropic devant OpenAI en termes de rythme de revenus. Le 31 mars, OpenAI déclarait générer 2 milliards de dollars par mois, soit une projection annuelle d'environ 24 milliards. L'écart, s'il est réel, représente un tournant symbolique majeur dans la course aux grands modèles de langage : Anthropic, fondée en 2021 par d'anciens d'OpenAI dont Dario et Daniela Amodei, aurait en moins de quatre ans rattrapé puis dépassé son rival direct sur le terrain commercial. Pour les investisseurs, qui cherchent à savoir si ces sociétés pourront un jour couvrir leurs colossales dépenses en infrastructures, la trajectoire compte autant que le chiffre absolu. Il faut néanmoins manier ces comparaisons avec prudence. L'indicateur mis en avant par Anthropic est un "run rate", c'est-à-dire une extrapolation : on prend les revenus sur une courte période favorable et on les annualise. Le résultat peut refléter un pic ponctuel plutôt qu'une tendance stable. OpenAI, de son côté, insiste sur la récurrence et la régularité de sa croissance, passant de 1 milliard par trimestre fin 2024 à 2 milliards par mois aujourd'hui. Au-delà de la bataille de chiffres, les enjeux sont concrets : Anthropic vient de restreindre les abonnements Claude pour pousser vers les API facturées au token, un signe que la monétisation s'intensifie. L'ensemble du secteur reste sous pression financière structurelle, les dépenses en GPU et en énergie étant considérables, et la question de la rentabilité réelle demeure entière pour les deux acteurs.

UELes entreprises europeennes abonnees a Claude pourraient etre affectees par la restriction des abonnements au profit de la facturation a l'usage, signalant une intensification de la monetisation des API IA sur le marche professionnel europeen.

BusinessOpinion
1 source
Claude Code et Cowork permettent désormais à l'IA d'Anthropic de prendre le contrôle de votre ordinateur
71The Decoder 

Claude Code et Cowork permettent désormais à l'IA d'Anthropic de prendre le contrôle de votre ordinateur

Anthropic a annoncé que son assistant IA Claude est désormais capable de prendre directement le contrôle d'un ordinateur Mac ou Windows pour accomplir des tâches à la place de l'utilisateur. Cette fonctionnalité est intégrée à deux produits distincts : Claude Code, l'outil en ligne de commande destiné aux développeurs, et Cowork, une interface de collaboration homme-machine. Concrètement, Claude peut désormais naviguer dans des applications, manipuler des fichiers, remplir des formulaires ou exécuter des séquences d'actions complexes sur le bureau de l'utilisateur, sans intervention humaine à chaque étape. L'enjeu est considérable pour les professionnels techniques comme pour les usages grand public. Un développeur peut confier à Claude Code des tâches de refactorisation, de débogage ou de déploiement qui nécessitaient auparavant une attention manuelle constante. Pour les équipes utilisant Cowork, cela ouvre la voie à une véritable délégation de workflows entiers à l'IA, avec un gain de productivité potentiellement significatif. Cette capacité à agir dans un environnement graphique réel, et non seulement à générer du texte, représente un saut qualitatif dans l'utilité pratique des assistants IA. Cette annonce s'inscrit dans la continuité des travaux d'Anthropic sur le "computer use", une capacité expérimentale présentée fin 2024 via leur API, qui permettait déjà à Claude d'interagir avec des interfaces graphiques dans des environnements contrôlés. Le passage à une intégration native dans des produits grand public comme Claude Code et Cowork marque une étape de maturité. Anthropic entre ainsi en concurrence directe avec OpenAI et son opérateur d'ordinateur, ainsi qu'avec Microsoft Copilot, tous engagés dans la course aux agents IA capables d'agir de manière autonome sur les postes de travail.

UELes développeurs et entreprises européens peuvent désormais déléguer des workflows complets à l'IA via Claude Code et Cowork, sans attendre un équivalent européen — renforçant la dépendance du marché européen aux agents autonomes américains.

OutilsOutil
1 source
Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux
7201net 

Des hackers profitent de la fuite géante chez Anthropic pour piéger les curieux

Des cybercriminels ont rapidement exploité la fuite accidentelle du code source de Claude Code, l'assistant de programmation d'Anthropic, pour monter une campagne de distribution de malwares ciblant les développeurs sur GitHub. Des dépôts frauduleux, se présentant comme hébergeant l'intégralité du code source de l'IA, ont été mis en ligne peu après l'incident, embarquant en réalité deux malwares distincts dont Vidar, un infostealer particulièrement redoutable capable de dérober mots de passe, cookies de session et données de portefeuilles crypto. Cette attaque illustre la rapidité avec laquelle les acteurs malveillants monétisent les incidents de sécurité médiatisés. Les développeurs, naturellement curieux de consulter un code source aussi rare qu'inattendu, constituent une cible de choix : leurs machines hébergent souvent des clés API, des accès à des infrastructures cloud et des secrets d'entreprise à haute valeur. Une compromission réussie peut donc avoir des conséquences bien au-delà de la machine individuelle. La fuite originale chez Anthropic s'inscrit dans une série d'incidents touchant les grandes entreprises d'IA, dont les bases de code sont devenues des actifs stratégiques extrêmement convoités. Vidar est historiquement distribué via des canaux similaires, notamment de faux outils ou de fausses ressources techniques sur des plateformes de développement. Les développeurs sont invités à vérifier scrupuleusement l'authenticité des dépôts avant tout clonage, en particulier lorsqu'ils font suite à un événement médiatique récent.

UELes développeurs français et européens actifs sur GitHub sont directement exposés à cette campagne de distribution de malware ciblant les environnements de développement et leurs secrets d'entreprise.

💬 Les hackers n'ont pas attendu 48h. Dès que la fuite a fait les tours, les faux dépôts étaient en ligne avec Vidar planqué dedans, parce que les devs sont des cibles en or : clés API, accès cloud, tokens d'infra sur la même machine. Vérifie ce que tu clones, surtout quand ça sort pile après un incident qui fait les unes.

SécuritéActu
1 source
Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA
73The Information AI 

Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA

Anthropic a involontairement rendu public un brouillon de billet de blog révélant l'existence d'un nouveau modèle d'IA baptisé "Mythos", spécialement conçu pour la génération et la révision de code informatique. Selon ce document, le modèle serait capable d'exploiter des vulnérabilités de sécurité "d'une manière qui dépasse largement les efforts des défenseurs". La société a déjà commencé à briefer des chercheurs en cybersécurité et leur accorde un accès anticipé afin de recueillir des retours avant un lancement officiel. L'enjeu est considérable : si un tel modèle tombait entre de mauvaises mains, il permettrait à des hackers peu qualifiés de mener des attaques sophistiquées à grande échelle, creusant davantage l'écart entre attaquants et défenseurs. Anthropic cherche précisément à identifier ces risques avant la mise sur le marché, en s'appuyant sur la communauté des chercheurs pour "red-teamer" le modèle et réduire son potentiel offensif. Cette démarche illustre la tension croissante entre les capacités des LLMs spécialisés dans le code et les impératifs de sécurité. Cette initiative s'inscrit dans une tendance plus large où les grands laboratoires d'IA — OpenAI, Google DeepMind, et désormais Anthropic — développent des modèles hautement performants pour le code, tout en faisant face à des questions épineuses sur leur double usage. Anthropic, qui se positionne comme un acteur responsable de l'IA via sa politique d'"IA constitutionnelle", se retrouve confronté au paradoxe fondamental du domaine : les mêmes capacités qui accélèrent la défense peuvent aussi armer les adversaires. La divulgation accidentelle du brouillon suggère que la pression autour de Mythos est déjà forte en interne.

UELes capacités offensives de modèles comme Mythos représentent une menace directe pour les infrastructures numériques européennes et soulèvent des questions de conformité avec l'AI Act concernant les systèmes IA à double usage.

💬 Un modèle qui dépasse les défenseurs sur leur propre terrain, c'est le scénario qu'on redoutait depuis que les LLMs de code sont vraiment capables. Ce qui compte, c'est qu'Anthropic le dit franchement et organise le red-teaming avant le lancement, pas après. La fuite du draft, c'est maladroit, mais ça confirme surtout que la pression en interne est déjà énorme.

SécuritéOpinion
1 source
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
74Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés
75La Tribune 

500 000 lignes de code fuitent, les projets secrets d'Anthropic dévoilés

Le 31 mars 2026, une erreur de publication a exposé accidentellement le code source complet de Claude Code, l'assistant de développement phare d'Anthropic. Cette fuite représente environ 500 000 lignes de code, rendues publiquement accessibles avant d'être retirées. L'incident survient seulement quatre jours après un premier incident similaire signalé le 27 mars, suggérant une défaillance systémique dans les processus de déploiement de l'entreprise. L'exposition de ce volume de code source constitue un risque stratégique majeur pour Anthropic. Les fichiers divulgués auraient révélé des projets non annoncés autour d'agents autonomes — des systèmes capables d'agir de manière indépendante, sans supervision humaine constante. Pour une start-up dont la valeur est estimée à 350 milliards de dollars et qui se positionne comme leader de l'IA dite "sûre et responsable", cette double fuite en moins d'une semaine érode la confiance des investisseurs, partenaires et clients entreprises qui misent précisément sur sa rigueur opérationnelle. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI dont Dario et Daniela Amodei, a bâti sa réputation sur la sécurité et l'alignement des IA. La divulgation de projets d'agents autonomes encore non dévoilés alimentera inévitablement les débats sur la transparence des laboratoires d'IA de premier plan, à l'heure où régulateurs européens et américains scrutent de plus près leurs pratiques. La question des mesures internes de contrôle des publications de code — et des éventuelles responsabilités — risque désormais d'occuper le devant de la scène pour l'entreprise.

UELa double fuite en une semaine chez un laboratoire phare de l'IA sécuritaire pourrait accélérer les exigences des régulateurs européens en matière d'audit interne et de transparence des grands labs, dans le cadre de l'application de l'AI Act.

💬 Deux fuites en quatre jours chez le champion auto-proclamé de l'IA responsable, c'est saignant. Pas tant pour le code lui-même, qui sera archivé et analysé partout d'ici ce soir, mais pour les projets d'agents autonomes qui traînaient dans les fichiers sans jamais avoir été annoncés. Pour une boîte qui vend précisément sa rigueur comme argument commercial, la question des régulateurs va être difficile à esquiver.

SécuritéOpinion
1 source
Le code source de l'agent de codage d'Anthropic exposé dans une fuite
76The Information AI 

Le code source de l'agent de codage d'Anthropic exposé dans une fuite

Anthropic a accidentellement divulgué une partie du code source de son application Claude Code, a confirmé la société mardi. La fuite, remarquée tôt dans la matinée par des développeurs, a exposé des détails inédits sur le fonctionnement interne de l'outil de programmation assistée par IA, ainsi que des références à des modèles et fonctionnalités encore non annoncés. Cet incident est significatif pour l'industrie car Claude Code est l'un des agents de codage les plus utilisés du moment, directement concurrent de GitHub Copilot et Cursor. L'exposition du code source permet à des concurrents d'analyser l'architecture interne du produit, ses mécanismes de raisonnement et potentiellement d'anticiper la roadmap produit d'Anthropic — un avantage concurrentiel non négligeable dans un secteur en compétition intense. Anthropic a reconnu publiquement l'erreur, ce qui suggère que la fuite n'était pas intentionnelle et que la société a cherché à limiter rapidement les dégâts. La divulgation accidentelle de code propriétaire est un risque opérationnel croissant pour les laboratoires d'IA, dont les produits reposent sur des systèmes de prompts et d'orchestration souvent aussi précieux que les modèles eux-mêmes. L'incident intervient alors qu'Anthropic intensifie sa mise sur le marché des outils développeurs, un segment stratégique face à OpenAI et Google.

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
77MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

RégulationReglementation
1 source
OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic
78The Decoder 

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic

OpenAI a lancé un plugin permettant d'intégrer son assistant de codage Codex directement dans Claude Code, l'outil de développement en ligne de commande d'Anthropic. Cette extension permet aux développeurs utilisant Claude Code d'accéder aux capacités de Codex d'OpenAI sans quitter leur environnement de travail habituel, fusionnant ainsi deux écosystèmes concurrents au sein d'une même interface. Cette initiative est remarquable car elle efface temporairement la frontière entre deux des principaux adversaires du secteur de l'IA. Pour les développeurs, cela signifie un accès élargi aux modèles et aux forces spécifiques de chaque plateforme — Codex étant particulièrement réputé pour la génération et la compréhension de code — sans devoir jongler entre plusieurs outils. L'interopérabilité entre assistants IA devient ainsi un argument commercial concret. Ce mouvement s'inscrit dans une tendance plus large de l'industrie où les éditeurs d'IA misent sur l'ouverture et les intégrations tierces pour étendre leur portée, plutôt que de viser l'exclusivité. OpenAI, qui a récemment repositionné Codex comme produit à part entière après des années où GPT-4 dominait les usages de codage, cherche à imposer sa présence dans des environnements qu'il ne contrôle pas directement. La question des suites — si Anthropic facilitera ou au contraire limitera ce type d'intégrations concurrentes dans Claude Code — reste ouverte.

UELes développeurs français et européens utilisant Claude Code peuvent désormais accéder aux capacités de Codex sans changer d'environnement, élargissant concrètement leur palette d'outils IA.

OutilsOutil
1 source
Microsoft lance de nouvelles améliorations de Copilot combinant les modèles Anthropic et OpenAI
79The Information AI 

Microsoft lance de nouvelles améliorations de Copilot combinant les modèles Anthropic et OpenAI

Microsoft a dévoilé lundi de nouvelles fonctionnalités pour son logiciel 365 Copilot, intégrant simultanément les modèles d'intelligence artificielle d'OpenAI et d'Anthropic pour automatiser les tâches dans ses applications Office et Teams. Parmi les nouveautés, une fonction baptisée « Critique » combine les deux fournisseurs de manière séquentielle : les modèles d'OpenAI compilent d'abord une recherche sur un sujet donné, puis les modèles d'Anthropic (Claude) analysent et critiquent ce résultat pour en améliorer la qualité finale. Microsoft a également annoncé des améliorations à la mémoire de Copilot et à ses capacités d'agents autonomes. Cette intégration multi-modèles marque un tournant dans la stratégie de Microsoft : plutôt que de s'appuyer exclusivement sur son partenaire historique OpenAI — dans lequel il a investi plus de 13 milliards de dollars —, l'entreprise orchestre désormais plusieurs LLMs en fonction de leurs forces respectives. Pour les quelque 400 millions d'utilisateurs de la suite Microsoft 365, cela se traduit par des assistants plus fiables capables d'auto-corriger leurs propres sorties. Ce virage reflète une tendance de fond dans l'industrie : les grandes entreprises adoptent des architectures « multi-modèles » pour optimiser coût, performance et résilience. Microsoft, qui distribue aussi les modèles d'Anthropic via Azure, se positionne en orchestrateur neutre plutôt qu'en champion exclusif d'OpenAI. La relation entre les deux entreprises reste étroite, mais la dépendance s'allège — un signal fort à l'heure où Google, Meta et Amazon renforcent également leurs propres offres d'IA en entreprise.

UELes entreprises françaises et européennes équipées de Microsoft 365 bénéficieront directement des nouvelles capacités Copilot multi-modèles, sans surcoût ni migration requise.

OutilsOutil
1 source
Les succès d'Anthropic provoquent une pénurie de serveurs
80The Information AI 

Les succès d'Anthropic provoquent une pénurie de serveurs

Anthropic a plus que doublé son chiffre d'affaires annualisé pour atteindre 19 milliards de dollars sur les deux premiers mois de 2025, porté par l'essor de ses outils de codage automatisé. Cette croissance fulgurante rapproche l'entreprise de son rival OpenAI, longtemps dominant. Mais dans un billet de blog non publié rendu public par erreur, Anthropic a révélé les coulisses de son prochain modèle phare, Claude Mythos : un modèle "large et gourmand en calcul", décrit comme "très coûteux à servir" et "très coûteux pour les clients". L'entreprise a précisé qu'elle devrait le rendre "bien plus efficace avant tout lancement grand public". Ce succès commercial s'accompagne d'une tension croissante sur les infrastructures. Plus Anthropic attire d'utilisateurs et de revenus, plus elle enregistre de problèmes de fiabilité — la disponibilité de Claude pour ses clients se dégrade, la capacité de ses serveurs ne parvenant pas à suivre la demande. Pour les entreprises qui intègrent Claude dans des workflows critiques, notamment de développement logiciel, ces interruptions de service représentent un risque opérationnel réel. Et si Claude Mythos s'avère trop coûteux à déployer à grande échelle, cela pourrait freiner l'adoption du modèle ou contraindre Anthropic à des arbitrages difficiles entre performance et accessibilité. Anthropic se retrouve ainsi face au paradoxe classique de la croissance rapide dans le secteur de l'IA : plus le produit séduit, plus les besoins en infrastructure explosent, et plus les coûts de calcul pèsent sur les marges. OpenAI a traversé des défis similaires lors de l'essor de ChatGPT en 2023. Pour Anthropic, qui reste dépendant d'investissements massifs — notamment d'Amazon et Google — la capacité à scaler ses serveurs tout en maîtrisant les coûts de ses modèles les plus puissants sera déterminante pour consolider sa position face à une concurrence qui ne ralentit pas.

UELes entreprises européennes intégrant Claude dans des workflows critiques sont exposées à des risques d'interruption de service et d'incertitude tarifaire liés aux tensions infrastructurelles d'Anthropic.

BusinessOpinion
1 source
Anthropic envisage une IPO record au quatrième trimestre 2026
81Le Big Data 

Anthropic envisage une IPO record au quatrième trimestre 2026

Anthropic envisage une introduction en bourse dès le quatrième trimestre 2026, selon des informations rapportées par The Information. Les banques candidates à l'organisation de l'opération anticipent une levée supérieure à 60 milliards de dollars, ce qui placerait cette IPO parmi les plus importantes de l'histoire américaine, juste derrière SpaceX qui vise jusqu'à 75 milliards dès juin. Ces plans restent conditionnels — le montant sera fixé peu avant l'offre, et la startup pourrait encore décider de ne pas franchir le pas. Anthropic affiche pourtant une trajectoire financière spectaculaire : valorisée 183 milliards de dollars en septembre 2025 après une levée série F de 13 milliards, elle a atteint 380 milliards en février 2026 lors d'un tour série G de 30 milliards. Le 4 mars, l'entreprise a annoncé avoir dépassé 19 milliards de dollars de chiffre d'affaires annualisé, plus du double des 9 milliards enregistrés trois mois plus tôt — portés notamment par le succès de Claude Code, son outil de programmation assisté par IA. Le 23 mars, Anthropic a par ailleurs annoncé que Claude peut désormais piloter les ordinateurs des utilisateurs pour exécuter des tâches concrètes, comme exporter une présentation en PDF. Cette croissance fulgurante justifie l'ambition boursière, mais elle crée aussi une pression redoutable : les futurs actionnaires scruteront la capacité d'Anthropic à transformer une ascension rapide en revenus durables et prévisibles. Toute stagnation de l'adoption de Claude Code ou ralentissement commercial pourrait peser sur la valorisation au moment de l'offre. À cela s'ajoute un risque réglementaire concret : en mars 2026, le département américain de la Défense a classé Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation habituellement réservée aux entreprises de pays hostiles — après que son PDG Dario Amodei a publiquement refusé que ses modèles servent à surveiller des citoyens américains ou à piloter des armes autonomes. Le secrétaire à la Défense Pete Hegseth et Donald Trump ont tous deux critiqué vivement cette position. Anthropic a alerté le tribunal que cette interdiction pourrait lui faire perdre des milliards de dollars, plus de 100 clients ayant exprimé leurs inquiétudes. Le 26 mars, un juge fédéral de San Francisco a accordé une injonction préliminaire bloquant cette désignation, mais le verdict final pourrait prendre encore plusieurs mois. Fondée en 2021 par Dario Amodei, Daniela Amodei et d'anciens chercheurs d'OpenAI, Anthropic s'est imposée comme l'un des deux principaux rivaux d'OpenAI dans la course aux grands modèles de langage, avec Google et Amazon parmi ses principaux investisseurs. L'IPO envisagée s'inscrit dans un contexte de marché où plusieurs géants de l'IA cherchent à monétiser leurs valorisations privées avant que le cycle d'investissement ne se resserre. La résolution du contentieux avec le gouvernement américain constituera un signal déterminant pour les marchés : un contrat fédéral perdu ou une décision défavorable définitive pourrait fragiliser le dossier d'introduction, tandis qu'un règlement favorable consoliderait la crédibilité institutionnelle d'Anthropic à quelques mois du lancement potentiel.

UEUne IPO d'Anthropic à plus de 60 milliards de dollars pourrait accélérer la commercialisation agressive de Claude et modifier les conditions tarifaires de ses APIs, dont dépendent de nombreuses entreprises et développeurs européens.

💬 19 milliards de revenus annualisés contre 9 il y a trois mois, c'est le genre de courbe qui justifie une IPO à 60 milliards et je comprends l'ambition. Le problème, c'est le dossier Pentagone : se faire classer "risque pour la chaîne d'approvisionnement" à quelques mois d'une entrée en bourse parce que Dario a refusé de vendre des armes autonomes, c'est un boulet juridique et politique qu'aucun roadshow ne neutralise vraiment. L'injonction préliminaire tient pour l'instant, mais les marchés n'aiment pas "pour l'instant".

BusinessOpinion
1 source
Selon Anthropic, les compétences en IA s'accumulent avec le temps, ce qui pourrait creuser les inégalités
82The Decoder 

Selon Anthropic, les compétences en IA s'accumulent avec le temps, ce qui pourrait creuser les inégalités

Anthropic a publié les résultats de son deuxième Economic Index, une étude qui suit l'évolution de l'usage de son modèle Claude à travers l'économie. Le constat central est clair : plus les utilisateurs emploient Claude sur la durée, plus leurs résultats s'améliorent. Autrement dit, l'IA est une compétence qui s'acquiert — et cette compétence produit des gains croissants pour ceux qui la maîtrisent. Ce phénomène d'apprentissage cumulatif soulève une question de fond sur les inégalités. Si les gains liés à l'IA augmentent avec l'expérience, ceux qui ont accès à ces outils en premier — et le temps de les apprivoiser — prendront une longueur d'avance durable sur les autres. Les travailleurs qualifiés, les entreprises technologiques et les pays développés risquent ainsi de creuser l'écart avec ceux qui n'ont pas encore adopté ces outils, faute de moyens, de formation ou d'infrastructure numérique. Anthropic n'en est pas à son premier signal sur les effets économiques de l'IA générative. Ce deuxième Index s'inscrit dans une démarche de transparence et de documentation que peu d'acteurs du secteur pratiquent à cette échelle. Le débat sur l'impact de l'IA sur l'emploi et les inégalités est désormais alimenté par des données réelles d'usage, et non plus de simples projections théoriques. La question qui se pose maintenant aux décideurs politiques est de savoir comment démocratiser l'accès à ces compétences avant que l'écart ne devienne structurel.

UELes décideurs européens, déjà engagés sur l'AI Act, devront intégrer la fracture des compétences IA dans leurs politiques de formation professionnelle et d'inclusion numérique pour éviter un creusement structurel des inégalités au sein de l'UE.

SociétéActu
1 source
Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
83The Decoder 

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington. La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation. L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

UELa décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

RégulationReglementation
1 source
Fuite géante chez Anthropic : pourquoi le futur Claude inquiète déjà ses créateurs
8401net 

Fuite géante chez Anthropic : pourquoi le futur Claude inquiète déjà ses créateurs

Anthropic a développé en secret un nouveau modèle d'intelligence artificielle baptisé Mythos, considéré en interne comme « de loin le plus puissant » jamais entraîné par la startup californienne. L'information a filtré à l'extérieur avant toute annonce officielle, révélant non seulement l'existence du modèle, mais aussi les préoccupations que celui-ci suscite au sein même de l'entreprise. Selon des informations internes, Mythos présenterait des « risques de cybersécurité significatifs » — une formulation rare et frappante de la part d'un créateur à propos de son propre produit. Cette autocritique publique — même involontaire — est significative : elle indique qu'Anthropic aurait franchi un seuil de capacité suffisamment inquiétant pour le documenter formellement, probablement dans le cadre de ses évaluations de sécurité pré-déploiement. Si le modèle est jugé capable de faciliter des cyberattaques à un niveau notable, cela soulève des questions immédiates sur les conditions dans lesquelles il sera (ou non) rendu accessible, et avec quelles garde-fous. Pour les entreprises, gouvernements et chercheurs qui s'appuient sur Claude, cela signifie une puissance accrue mais aussi un risque de mauvais usage potentiellement inédit. Anthropic s'est toujours positionné comme le laboratoire d'IA le plus rigoureux en matière de sécurité, publiant régulièrement des « model cards » détaillant les risques évalués avant chaque lancement. La fuite autour de Mythos intervient dans un contexte de course effrénée entre OpenAI, Google DeepMind et Anthropic pour sortir des modèles toujours plus capables. La question centrale désormais : jusqu'où un laboratoire peut-il aller avant de décider de ne pas déployer ce qu'il a construit ?

UELes entreprises et institutions européennes utilisant Claude devront surveiller les conditions de déploiement de Mythos et les garde-fous imposés, notamment au regard des obligations d'évaluation des risques prévues par l'AI Act pour les modèles à usage général de forte puissance.

SécuritéOpinion
1 source
Actualité : Claude est encore en panne, un mois noir pour Anthropic
85Les Numériques IA 

Actualité : Claude est encore en panne, un mois noir pour Anthropic

Le service Claude d'Anthropic traverse une période de turbulences inédite : depuis plusieurs semaines, l'assistant IA enchaîne les pannes à un rythme préoccupant. Le 27 mars 2026, une nouvelle interruption de service touche le modèle Opus 4.6, s'ajoutant à une série d'incidents techniques et d'attaques par déni de service distribué (DDoS) qui ont perturbé l'accès à la plateforme pour des milliers d'utilisateurs et d'entreprises dans le monde. Ces défaillances répétées posent un problème concret pour les équipes et développeurs qui ont intégré Claude dans leurs workflows professionnels. Contrairement à une panne isolée, une succession d'interruptions sur un mois fragilise la confiance des entreprises clientes, notamment celles ayant souscrit à des abonnements API ou à des offres Teams et Enterprise. Pour des usages critiques — rédaction automatisée, support client, analyse de données — chaque indisponibilité se traduit directement en perte de productivité et en remise en question des choix d'infrastructure IA. Anthropic, valorisée à plusieurs dizaines de milliards de dollars après ses dernières levées de fonds, est en pleine montée en charge pour faire face à une demande explosive depuis le lancement de ses modèles Claude 4. Cette croissance rapide met à l'épreuve la robustesse de ses infrastructures, dans un secteur où OpenAI et Google DeepMind investissent massivement dans la résilience de leurs services. La récurrence des incidents soulève des questions sur la capacité d'Anthropic à industrialiser son infrastructure au même rythme que sa croissance commerciale — un défi structurel pour l'ensemble des acteurs de l'IA générative.

UELes entreprises et développeurs européens ayant intégré l'API Claude dans des workflows critiques subissent directement ces interruptions répétées, les poussant à reconsidérer leur dépendance à cette infrastructure.

InfrastructureOpinion
1 source
Anthropic confirme que le modèle divulgué représente un saut qualitatif en raisonnement, après une fuite de données
86The Decoder 

Anthropic confirme que le modèle divulgué représente un saut qualitatif en raisonnement, après une fuite de données

Anthropic a involontairement révélé l'existence de son modèle d'intelligence artificielle le plus puissant à ce jour à la suite d'une faille de sécurité basique. La fuite de données a exposé un modèle que la société n'avait pas encore annoncé officiellement, et qu'Anthropic a depuis confirmé représenter un « changement d'étape » significatif dans les capacités de raisonnement par rapport à ses versions précédentes. L'incident s'est produit alors que la startup californienne préparait discrètement ce qui s'annonce comme sa prochaine grande sortie publique. La confirmation par Anthropic que ce modèle constitue une avancée majeure en matière de raisonnement donne un aperçu de la direction que prend la course aux grands modèles de langage. Pour les développeurs et les entreprises qui s'appuient sur les API d'Anthropic, cela signifie qu'une nouvelle génération de capacités — vraisemblablement plus performantes sur les tâches complexes et multi-étapes — est imminente. La fuite force également Anthropic à communiquer plus tôt que prévu sur sa feuille de route technique. Cet épisode s'inscrit dans un contexte de compétition intense entre Anthropic et OpenAI, qui prépare simultanément ses propres modèles de nouvelle génération. Les deux sociétés semblent engagées dans une course pour démontrer leur supériorité technique avant d'éventuelles introductions en bourse ou levées de fonds majeures. Pour Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI et valorisée à plusieurs dizaines de milliards de dollars, chaque annonce produit constitue un signal fort pour investisseurs et partenaires commerciaux.

UELes développeurs et entreprises européennes utilisant l'API Claude d'Anthropic bénéficieront prochainement de capacités de raisonnement améliorées, sans impact réglementaire ou institutionnel direct pour la France ou l'UE.

💬 En tant que développeur, je constate à quel point chaque nouveau modèle représente un bond qualitatif majeur. La facilité avec laquelle les nouveaux modèles identifient les limites de leurs prédécesseurs est stupéfiante — et témoigne d'une accélération qui ne montre aucun signe de ralentissement. L'amélioration récursive complète est-elle vraiment si loin ?

LLMsActu
1 source
Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement
87Wired AI 

Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement

Un juge fédéral américain a temporairement suspendu la décision de l'administration Trump de classer Anthropic comme entité à risque dans la chaîne d'approvisionnement, empêchant ainsi cette désignation d'entrer en vigueur la semaine prochaine. La mesure conservatoire accordée par le tribunal offre à la startup d'intelligence artificielle un répit immédiat, lui permettant de poursuivre ses activités commerciales sans être soumise aux restrictions liées à ce statut. Cette désignation aurait pu avoir des conséquences significatives sur les activités d'Anthropic, notamment en matière de contrats gouvernementaux, de partenariats commerciaux et d'accès aux technologies sensibles. Un tel label, appliqué dans le cadre des mécanismes de sécurité nationale américains, peut considérablement compliquer les relations d'affaires d'une entreprise et éroder la confiance de ses clients et investisseurs. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de l'IA, alors que Washington cherche à renforcer son contrôle sur les technologies jugées stratégiques. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI et qui compte Amazon parmi ses principaux investisseurs, se retrouve ainsi au cœur d'un bras de fer juridique et politique dont l'issue pourrait influencer la manière dont d'autres entreprises du secteur sont traitées par les autorités fédérales.

UELa suspension de la désignation préserve les relations commerciales d'Anthropic avec ses partenaires européens et évite des perturbations pour les entreprises de l'UE utilisant l'API Claude.

RégulationReglementation
1 source
IA : la fin de Sora, symbole du recentrage d’OpenAI sur le marché des entreprises pour contrer Anthropic
88Le Monde Pixels 

IA : la fin de Sora, symbole du recentrage d’OpenAI sur le marché des entreprises pour contrer Anthropic

OpenAI met fin à Sora, sa plateforme sociale de génération vidéo lancée en septembre dernier, faute de modèle économique viable. Cette fermeture s'inscrit dans un recentrage stratégique assumé de la maison mère de ChatGPT, qui choisit de concentrer ses ressources sur le marché des entreprises plutôt que de maintenir un réseau social sans rentabilité immédiate. Ce pivot illustre la pression croissante qu'exerce Anthropic sur OpenAI, notamment dans le segment B2B où Claude s'impose comme un concurrent sérieux. En abandonnant Sora sous sa forme sociale, OpenAI signale clairement ses priorités : des revenus récurrents, des contrats d'entreprise, une monétisation directe — plutôt que l'audience grand public. La bataille entre les deux géants de l'IA se joue désormais principalement dans les directions informatiques des grandes entreprises, un terrain où les marges et la fidélisation client priment sur la viralité.

UELes DSI européens qui évaluent des solutions IA pour leur système d'information sont directement concernés par la consolidation de l'offre OpenAI sur le segment enterprise, face à la montée en puissance de Claude d'Anthropic.

BusinessOpinion
1 source
Anthropic transforme Claude en assistant autonome capable d’agir sur votre ordinateur
89Siècle Digital 

Anthropic transforme Claude en assistant autonome capable d’agir sur votre ordinateur

Anthropic a doté Claude d'une fonctionnalité appelée « computer use », lui permettant d'agir de manière autonome sur un ordinateur sans intervention humaine. Cette avancée marque un tournant majeur dans l'utilisation des IA, ouvrant la voie à des assistants capables d'exécuter des tâches concrètes directement sur les systèmes des utilisateurs. Cette évolution transforme profondément la façon dont les professionnels peuvent déléguer des tâches à l'intelligence artificielle.

UELes professionnels et entreprises européens peuvent désormais déléguer des tâches informatiques complexes à Claude, avec des implications potentielles pour la réglementation sur les agents IA autonomes dans le cadre de l'AI Act.

LLMsActu
1 source
La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge
90Wired AI 

La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge

Un juge fédéral a remis en question les motivations du Département de la Défense américain, qui a classifié Anthropic — le développeur du modèle Claude — comme un risque pour la chaîne d'approvisionnement. Lors d'une audience mardi, le juge a qualifié cette démarche de tentative de "paralyser" l'entreprise. L'affaire soulève des interrogations sur l'utilisation des procédures de sécurité nationale à des fins potentiellement anticoncurrentielles.

UECette affaire illustre les risques d'instrumentalisation des procédures de sécurité nationale à des fins anticoncurrentielles aux États-Unis, un précédent qui pourrait influencer les débats européens sur la régulation des fournisseurs d'IA.

RégulationReglementation
1 source
Claude d'Anthropic peut désormais prendre le contrôle de votre ordinateur
91AI Business 

Claude d'Anthropic peut désormais prendre le contrôle de votre ordinateur

Anthropic lance une nouvelle fonctionnalité permettant à Claude de prendre le contrôle d'un ordinateur. Cette capacité s'inscrit dans une vague d'applications d'agents personnels, où les IA peuvent désormais interagir directement avec les interfaces graphiques et exécuter des tâches autonomement. Claude rejoint ainsi d'autres modèles dans la course aux agents IA capables d'opérer un PC comme le ferait un humain.

UELes développeurs et entreprises européens peuvent désormais intégrer des capacités d'automatisation desktop via l'API Claude d'Anthropic.

OutilsActu
1 source
Claude Code et Cowork d'Anthropic peuvent contrôler votre ordinateur
92The Verge AI 

Claude Code et Cowork d'Anthropic peuvent contrôler votre ordinateur

Anthropic a mis à jour Claude pour lui permettre d'effectuer des tâches de manière autonome sur votre ordinateur via ses outils Code et Cowork, notamment ouvrir des fichiers, utiliser des navigateurs et lancer des outils de développement sans configuration préalable. Cette fonctionnalité, disponible en aperçu de recherche pour les abonnés Claude Pro et Max, est pour l'instant limitée à macOS. Elle s'appuie sur les capacités autonomes introduites avec le modèle Claude 3.5 Sonnet en 2024.

UELes abonnés européens de Claude Pro et Max pourront accéder à cette fonctionnalité d'automatisation desktop, bien que le déploiement reste limité à macOS pour l'instant.

OutilsOutil
1 source
Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »
93TechCrunch AI 

Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »

Le département américain de la Défense (DoD) a qualifié Anthropic de risque inacceptable pour la sécurité nationale, citant les "lignes rouges" de l'entreprise qui pourraient l'amener à désactiver ses technologies en pleine opération militaire. Cette préoccupation justifie, selon le Pentagone, la classification d'Anthropic comme risque dans la chaîne d'approvisionnement en IA.

UECe conflit entre éthique d'entreprise et exigences militaires américaines alimente le débat européen sur la souveraineté IA et les conditions d'usage des LLMs dans les secteurs sensibles.

RégulationActu
1 source
[AINews] Bulletin Claude Cowork : la réponse d'Anthropic à OpenClaw
94Latent Space 

[AINews] Bulletin Claude Cowork : la réponse d'Anthropic à OpenClaw

Anthropic a lancé Claude Cowork, une réponse directe à OpenClaw qui est saluée favorablement par des personnalités comme Simon Willison et Ethan Mollick. OpenAI a simultanément déployé GPT-5.4 mini et nano, des modèles compacts 2x plus rapides que GPT-5 mini, avec une fenêtre de contexte de 400k tokens et ciblant le code, les agents et l'utilisation multimodale — mais à des prix plus élevés (0,75 $/M tokens en entrée pour mini). L'infrastructure agentique s'impose comme le nouveau centre de gravité du secteur, avec une course aux sandbox sécurisés, à l'orchestration et aux outils de déploiement au-delà des seuls modèles de base.

LLMsActu
1 source
Mistral mise sur l'IA sur mesure pour concurrencer OpenAI et Anthropic dans l'entreprise
95TechCrunch AI 

Mistral mise sur l'IA sur mesure pour concurrencer OpenAI et Anthropic dans l'entreprise

Mistral lance Mistral Forge, une plateforme permettant aux entreprises d'entraîner des modèles d'IA personnalisés à partir de zéro sur leurs propres données. Cette approche se distingue de celle d'OpenAI et Anthropic, qui misent davantage sur le fine-tuning et les méthodes basées sur la récupération d'information. Mistral positionne ainsi cette offre comme une alternative plus flexible et souveraine pour le marché enterprise.

UEMistral, entreprise française, renforce la souveraineté numérique européenne en proposant aux entreprises une alternative locale pour entraîner des modèles IA sur leurs propres données.

LLMsOutil
1 source
96The Verge AI 

Claude d'Anthropic peut désormais répondre avec des graphiques, diagrammes et autres visuels

Anthropic a mis à jour Claude pour lui permettre de générer automatiquement des graphiques, diagrammes et autres visualisations directement dans la conversation. Ces visuels s'affichent en ligne (et non dans un panneau latéral) quand Claude juge qu'une image serait utile au contexte. Par exemple, une question sur le tableau périodique peut déclencher une visualisation interactive, ou une question sur la structure d'un bâtiment peut produire un schéma des charges.

LLMsActu
1 source
97The Decoder 

Nvidia s'engouffre dans le vide open source laissé par OpenAI, Meta et Anthropic

Nvidia prévoit d'investir 26 milliards de dollars sur cinq ans dans des modèles d'IA open-weight, selon un document déposé auprès de la SEC. Cette stratégie répond à la montée en puissance des modèles open-source chinois tout en maintenant les développeurs dans l'écosystème matériel de Nvidia. OpenAI, Meta et Anthropic ayant délaissé ce créneau, Nvidia s'y engouffre pour conserver son influence sur l'ensemble de la chaîne IA.

UEL'investissement massif de Nvidia dans les modèles open-weight menace directement la position de Mistral AI, principale licorne française de l'IA open-source, en introduisant un concurrent aux ressources quasi-illimitées sur ce créneau stratégique.

BusinessActu
1 source
98Le Big Data 

Quels sont les métiers les plus menacés par l’IA ? Anthropic dévoile la liste

Anthropic a analysé des millions d'interactions réelles avec son IA Claude pour cartographier les métiers les plus exposés à l'automatisation, via un indicateur appelé "Observed Exposure". Contrairement aux idées reçues, ce sont les métiers intellectuels qui arrivent en tête : développeurs, analystes financiers, agents de service client et spécialistes des dossiers médicaux, avec plus de 70 % de leurs tâches potentiellement automatisables. Paradoxalement, les professions les plus menacées sont aussi parmi les mieux rémunérées.

UELes travailleurs français des secteurs touchés — développeurs, analystes financiers, agents de service client — font face au même risque d'automatisation, ce qui renforce la pression sur les partenaires sociaux et le gouvernement français pour adapter les politiques de reconversion professionnelle.

ÉthiqueActu
1 source
99The Information AI 

Anthropic en pourparlers avec Blackstone et d'autres fonds de private equity pour créer une coentreprise de conseil en IA

Anthropic est en discussions avec un consortium de fonds de capital-investissement, dont Blackstone et Hellman & Friedman, pour créer une coentreprise axée sur l'IA. L'objectif serait de commercialiser la technologie Claude auprès des entreprises du portefeuille de ces investisseurs. Les négociations ont été temporairement perturbées par un conflit entre Anthropic et le Département de la Défense américain, mais restent en cours.

BusinessActu
1 source
100Le Big Data 

Anthropic veut imposer Claude aux entreprises avec sa marketplace

Anthropic lance l'Anthropic Marketplace, une plateforme permettant aux entreprises clientes d'utiliser leur budget API existant pour acheter des logiciels de partenaires comme Snowflake, Harvey et Replit, sans multiplier les contrats séparés. Contrairement aux marketplaces cloud d'AWS ou Azure, Anthropic ne prélève aucune commission sur les ventes, misant sur la fidélisation plutôt que sur les revenus directs. Ce lancement intervient dans un contexte tendu : le Pentagone vient de classer Anthropic comme risque pour sa chaîne d'approvisionnement, compliquant ses relations avec certaines organisations liées au ministère de la Défense.

BusinessActu
1 source