Aller au contenu principal

Dossier Anthropic — page 3

612 articles · page 3 sur 13

Suivi d'Anthropic, le laboratoire qui a fait de la safety son positionnement : Claude, Mythos, Opus, partenariats Glasswing, IPO.

Anthropic lance Claude Opus 4.7 : une mise à jour majeure pour le codage par agents, la vision haute résolution et les tâches autonomes longues
101MarkTechPost LLMsOpinion

Anthropic lance Claude Opus 4.7 : une mise à jour majeure pour le codage par agents, la vision haute résolution et les tâches autonomes longues

Anthropic a lancé Claude Opus 4.7, successeur direct d'Opus 4.6, en le positionnant comme une amélioration ciblée plutôt qu'un saut générationnel complet. Le modèle se place au sommet de la gamme Anthropic, au-dessus de Haiku et Sonnet, juste en dessous du mystérieux Claude Mythos, encore en accès restreint. Sur un benchmark de 93 tâches de programmation, Opus 4.7 améliore le taux de résolution de 13 % par rapport à Opus 4.6, dont quatre tâches qu'aucun modèle précédent ne parvenait à résoudre. Sur CursorBench, référence populaire chez les développeurs, il atteint 70 % contre 58 % pour son prédécesseur. Les gains sont encore plus nets sur les workflows complexes : un testeur rapporte une amélioration de 14 % sur des tâches multi-étapes, avec moins de tokens consommés et un tiers des erreurs d'outils, et Opus 4.7 est le premier modèle à réussir leurs tests de "besoins implicites", continuant à exécuter même quand des outils échouent en cours de route. Ce qui rend cette version particulièrement significative pour les équipes engineering, c'est la capacité du modèle à vérifier ses propres sorties avant de rendre la main. Les versions précédentes produisaient des résultats sans validation interne ; Opus 4.7 intègre cette boucle de contrôle de façon autonome, ce qui a des implications directes pour les pipelines CI/CD et les workflows agentiques longue durée. En parallèle, la résolution des images passe à 2 576 pixels sur le grand côté, soit environ 3,75 mégapixels, plus de trois fois la capacité des modèles Claude précédents. L'impact en production est immédiat : un testeur travaillant sur des workflows "computer-use" rapporte un score de 98,5 % sur leur benchmark de précision visuelle, contre 54,5 % pour Opus 4.6. Les agents qui lisent des captures d'écran denses, extraient des données de diagrammes complexes ou travaillent sur des interfaces pixel-perfect bénéficient directement de cette amélioration, sans modifier leur code, les images sont simplement traitées avec une meilleure fidélité. Du côté de l'API, Anthropic introduit deux nouveaux leviers. Un niveau d'effort "xhigh" (extra high) s'intercale entre "high" et "max", offrant un contrôle plus fin sur le compromis entre qualité de raisonnement et latence. Claude Code passe d'ailleurs à xhigh par défaut pour tous les abonnements. Ces annonces s'inscrivent dans une course à l'agent autonome où Anthropic se positionne clairement : après les améliorations de Sonnet 4.6 sur les tâches longues durée, Opus 4.7 cible les cas les plus difficiles, ceux qui nécessitaient jusqu'ici une supervision humaine rapprochée. Avec Claude Mythos en coulisses et une gamme qui s'étoffe à tous les niveaux, Anthropic consolide son avance sur le segment des développeurs professionnels et des applications d'IA en production.

1 source
Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain
102The Verge AI 

Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain

Anthropic a dévoilé Claude Mythos Preview, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, dans l'espoir de renouer avec l'administration Trump après plusieurs semaines de tensions ouvertes. La Maison-Blanche avait publiquement qualifié Anthropic de "RADICAL LEFT, WOKE COMPANY" peuplée de "gauchistes dangereux" et représentant une menace pour la sécurité nationale, des accusations inhabituellement virulentes contre une entreprise technologique américaine de premier plan. Ce rapprochement potentiel a une portée stratégique considérable. Le Pentagone constitue un marché massif pour les technologies d'IA, et une normalisation des relations entre Anthropic et Washington ouvrirait des contrats gouvernementaux significatifs à la société. Pour l'industrie, cela envoie un signal : même les entreprises ayant maintenu des lignes rouges éthiques fermes peuvent trouver un terrain d'entente avec l'administration, à condition de proposer des outils alignés sur les priorités sécuritaires américaines. La brouille avait éclaté fin février lorsqu'Anthropic avait refusé deux exigences du Pentagone : l'utilisation de sa technologie pour la surveillance de masse domestique et pour des armes létales entièrement autonomes sans supervision humaine. Ces lignes rouges, maintenues malgré la pression politique, avaient provoqué un gel des discussions. Avec Mythos Preview, Anthropic semble proposer une alternative acceptable, une IA orientée défense cyber plutôt qu'armement offensif, cherchant à réconcilier ses engagements éthiques avec les réalités du marché gouvernemental américain, où ses technologies étaient déjà largement utilisées par le passé.

SécuritéOpinion
1 source
Claude Design : la nouvelle arme d’Anthropic pour générer des interfaces et des slides en un clic
103Le Big Data 

Claude Design : la nouvelle arme d’Anthropic pour générer des interfaces et des slides en un clic

Anthropic a lancé le 17 avril 2026 Claude Design, un outil de création visuelle intégré directement à Claude et propulsé par Claude Opus 4.7, le modèle de vision le plus avancé de la société. Disponible en prévisualisation pour les abonnés Pro, Max, Team et Enterprise, l'outil permet de générer des interfaces, des présentations, des maquettes et des pages marketing à partir d'une simple description en langage naturel. L'utilisateur décrit son besoin, Claude produit une première version exploitable, puis des ajustements peuvent être demandés en temps réel, y compris via des curseurs générés automatiquement. Lors de la configuration initiale, Claude Design analyse les ressources visuelles de l'entreprise pour en extraire un système de design interne, couleurs, typographies, composants, garantissant que chaque création reste cohérente avec l'identité de marque. L'accès est inclus dans les abonnements existants sans coût supplémentaire, bien que les entreprises doivent l'activer manuellement depuis les paramètres d'administration avant de pouvoir l'utiliser via claude.ai/design. L'outil s'adresse explicitement à un public bien plus large que les seuls designers. Les chefs de produit peuvent transformer une intuition fonctionnelle en maquette partageable sans toucher à Figma ou PowerPoint ; les équipes marketing peuvent produire des pages de campagne ou des visuels pour les réseaux sociaux sans jongler entre plusieurs logiciels. La collaboration est native : les projets sont partageables au sein d'une organisation avec des niveaux d'accès différenciés, certains membres pouvant consulter, d'autres modifier et interagir directement avec Claude. Cette approche réduit concrètement le temps de cycle entre l'idée et le prototype, supprime les dépendances inter-équipes et diminue le besoin de compétences techniques spécialisées pour produire des livrables visuels professionnels. Claude Design s'inscrit dans une compétition intense autour des outils de génération d'interfaces, où des acteurs comme Vercel avec v0, ou Figma avec ses propres fonctions IA, occupent déjà une place significative. Anthropic choisit ici de capitaliser sur la force de frappe de son modèle phare Opus 4.7, en particulier ses capacités de vision avancées, pour proposer une alternative directement intégrée à l'écosystème Claude déjà adopté en entreprise. La décision de désactiver l'outil par défaut pour les organisations reflète une prudence face aux questions de gouvernance et de contrôle des contenus générés en contexte professionnel. La prochaine étape décisive sera l'évaluation de la qualité et de la cohérence des créations produites dans des conditions réelles d'utilisation, notamment pour des identités de marque complexes ou des interfaces à forte contrainte d'accessibilité.

UELes entreprises européennes abonnées aux plans Pro, Max, Team ou Enterprise peuvent activer Claude Design dès maintenant pour accélérer leurs cycles de création visuelle sans coût supplémentaire.

Claude Opus 4.7 : Le nouveau monstre d’Anthropic arrive (peut-être) cette semaine !
104Le Big Data 

Claude Opus 4.7 : Le nouveau monstre d’Anthropic arrive (peut-être) cette semaine !

Anthropic s'apprêterait à lancer Claude Opus 4.7, la prochaine itération de son modèle phare, potentiellement dès cette semaine. L'information provient de The Information, qui rapporte que l'identifiant "Claude Opus 4.7" a déjà été repéré dans les références internes de l'API d'Anthropic, un signal qui précède généralement de peu une annonce officielle. Un utilisateur du réseau X, sous le pseudonyme BridgeMind, a également alimenté les spéculations en relevant que Claude Opus 4.5 avait été publié 73 jours avant Opus 4.6, sorti le 5 février 2026. Au 14 avril, 68 jours s'étaient déjà écoulés depuis cette dernière version, plaçant la prochaine sortie dans la fenêtre habituelle de déploiement. Le code source de Claude Code ayant par ailleurs déjà mentionné Opus 4.7, les indices convergent, sans qu'Anthropic ait pour autant confirmé quoi que ce soit officiellement. Si les rumeurs s'avèrent fondées, Claude Opus 4.7 apporterait des améliorations substantielles sur plusieurs fronts critiques : le raisonnement en plusieurs étapes, la gestion de tâches longues et complexes, et surtout la coordination entre agents d'IA. Anthropic travaillerait sur un concept d'"équipe d'agents", où plusieurs modèles collaborent sur un même problème comme le ferait un groupe de travail humain. Cette architecture permettrait à des systèmes autonomes de fonctionner pendant de longues périodes avec une intervention humaine minimale, une capacité très attendue par les entreprises qui intègrent l'IA dans leurs workflows. En parallèle, The Information évoque également un assistant tout-en-un capable de gérer des tâches complètes comme la création de sites web ou de présentations, en intégrant rédaction, design et mise en place technique dans un processus unifié. Ce lancement s'inscrit dans une course effrénée entre les grands laboratoires d'IA. OpenAI, Google et Anthropic accélèrent tous leurs cycles de publication, les intervalles entre versions majeures se réduisant à quelques semaines. Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, positionne Claude comme une alternative axée sur la sécurité et la fiabilité. Avec Opus 4.7, la société chercherait à consolider son avance sur le segment des agents autonomes et des tâches longue durée, un marché entreprise à fort potentiel. Les suites dépendront de la réaction des concurrents : OpenAI prépare ses propres modèles o3 et GPT-5, tandis que Google continue de faire évoluer Gemini Ultra. La semaine à venir pourrait donc marquer une nouvelle étape dans la compétition mondiale pour les modèles de langage de pointe.

LLMsOpinion
1 source
Anthropic affaiblit-il Claude ? Les utilisateurs signalent des baisses de performances, les dirigeants démentent
105VentureBeat AI 

Anthropic affaiblit-il Claude ? Les utilisateurs signalent des baisses de performances, les dirigeants démentent

Depuis plusieurs semaines, une vague de plaintes monte sur GitHub, X et Reddit contre Anthropic : des développeurs et utilisateurs avancés accusent l'entreprise d'avoir dégradé les performances de Claude Opus 4.6 et de son outil de coding Claude Code, intentionnellement ou sous la pression de contraintes de calcul. Parmi les voix les plus documentées figure Stella Laurenzo, Senior Director au sein du groupe IA d'AMD, qui a publié le 2 avril 2026 une analyse détaillée sur GitHub portant sur 6 852 sessions Claude Code, 17 871 blocs de raisonnement et 234 760 appels d'outils. Ses conclusions : à partir de février, la profondeur estimée du raisonnement de Claude a chuté significativement, accompagnée d'une hausse des arrêts prématurés, d'un comportement orienté vers "la correction la plus simple", de boucles de raisonnement et d'un glissement de l'approche recherche-d'abord vers édition-d'abord. Relayée le 11 avril sur X par le compte @Hesamation, cette analyse est devenue virale, transformant une frustration diffuse en grief structuré porté par une cadre senior d'une grande entreprise de semi-conducteurs. L'enjeu est significatif pour les professionnels qui dépendent de Claude dans des workflows d'ingénierie complexes. Pour eux, le raisonnement étendu n'est pas un luxe mais une condition de base de l'utilisabilité du modèle. Le phénomène a été qualifié de "shrinkflation de l'IA" : payer le même tarif pour un produit moins performant. Si les accusations de throttling délibéré restent non prouvées, elles témoignent d'une érosion de confiance mesurable chez une frange d'utilisateurs à forte valeur, précisément ceux qu'Anthropic cherche à fidéliser dans le segment enterprise et développeur. Anthropic a répondu via Boris Cherny, lead de Claude Code, dans un commentaire épinglé sur le fil GitHub. Il a reconnu deux changements produit récents : le passage d'Opus 4.6 au mode "adaptive thinking" par défaut le 9 février, et une transition vers un niveau d'effort "medium" le 3 mars. Sur le point technique central de l'analyse de Laurenzo, il a précisé que l'en-tête "redact-thinking-2026-02-12" est une modification purement visuelle qui masque le raisonnement dans l'interface et réduit la latence perçue, sans affecter le raisonnement sous-jacent ni les budgets de réflexion alloués. Ces clarifications n'ont pas totalement calmé la controverse : VentureBeat a contacté Anthropic pour obtenir des précisions sur d'éventuels changements de paramètres d'inférence, de gestion du contexte ou de méthodologie de benchmark, et attendait toujours une réponse au moment de la publication. L'épisode illustre la tension croissante entre les entreprises d'IA qui ajustent leurs modèles en production et des utilisateurs experts capables désormais d'instrumenter et de quantifier ces évolutions.

LLMsActu
1 source
OpenAI aussi a son moment Mythos… et assure sa com’ face à Anthropic
106Next INpact 

OpenAI aussi a son moment Mythos… et assure sa com’ face à Anthropic

OpenAI prépare une réponse directe à Mythos, le nouveau modèle d'Anthropic présenté comme un chasseur de failles réservé à une poignée de partenaires sélectionnés. Selon des informations qui ont filtré dans la presse, la stratégie d'OpenAI se déploie sur deux axes : afficher une supériorité en puissance de calcul et en performances brutes, tout en lançant un nouveau palier d'abonnement intermédiaire à 100 euros par mois, aligné sur la structure tarifaire qu'Anthropic expérimente. L'annonce officielle de Mythos, survenue quelques jours après une fuite de plusieurs milliers de documents internes, s'est accompagnée d'un rapport de 244 pages détaillant les performances et les protocoles de test du modèle. Cette séquence illustre la bataille de communication qui s'est installée entre les deux entreprises. Anthropic maîtrise avec soin son agenda médiatique : la fuite orchestrée autour de Mythos lui a permis de générer une couverture massive avant même toute annonce officielle, tandis que la fuite du code source de Claude Code, bien moins contrôlée, a contraint l'entreprise à tenter vainement d'en faire retirer la publication. OpenAI réagit désormais point par point, cherchant à ne pas laisser Anthropic occuper seule le terrain du modèle "trop puissant pour le grand public", un positionnement qui crée de la rareté perçue et attire des partenaires institutionnels prêts à payer pour un accès privilégié. L'enjeu dépasse la simple rivalité produit : il s'agit de définir qui fixe les standards de l'IA de pointe en 2025 et 2026. Anthropic s'est taillé une réputation de sérieux technique grâce à ses publications de recherche et à une communication soignée sur la sécurité, là où OpenAI reste associé à la vitesse de déploiement et à l'accessibilité grand public. L'introduction d'un tier à 100 euros par mois chez OpenAI signale une montée en gamme délibérée, à mesure que les deux acteurs convergent vers les mêmes clients enterprise et gouvernementaux disposés à payer pour des modèles de premier rang.

UEL'introduction d'un palier premium à 100 €/mois par OpenAI, en réponse directe à Anthropic, impacte les entreprises et institutions européennes qui devront arbitrer entre les deux acteurs pour accéder aux modèles de premier rang.

LLMsOpinion
1 source
OpenAI réduit de moitié son abonnement Pro à 100 $ pour les gros utilisateurs de Codex, sous les tarifs d'Anthropic et Google
107The Decoder 

OpenAI réduit de moitié son abonnement Pro à 100 $ pour les gros utilisateurs de Codex, sous les tarifs d'Anthropic et Google

OpenAI restructure ses offres d'abonnement avec un nouveau plan Pro à 100 dollars par mois, soit la moitié du prix de l'ancien abonnement Pro à 200 dollars. Le changement principal concerne les utilisateurs intensifs de Codex, l'outil de génération de code d'OpenAI, qui bénéficient désormais d'un quota d'utilisation nettement supérieur à ce tarif réduit. Cette annonce positionne OpenAI directement en dessous des offres premium d'Anthropic et de Google dans la bataille des abonnements IA haut de gamme. Pour les développeurs et professionnels faisant un usage intensif de Codex, la réduction est substantielle. À 100 dollars mensuels, OpenAI rend son niveau d'accès le plus avancé accessible à un public plus large, tout en se différenciant tarifairement face à Claude Pro d'Anthropic et à Gemini Advanced de Google, dont les offres équivalentes restent plus chères ou moins généreuses en usage Codex. L'objectif est clair : attirer et fidéliser les développeurs qui constituent le coeur de l'adoption entreprise des modèles d'OpenAI. Ce mouvement s'inscrit dans une guerre des prix qui s'intensifie entre les grands acteurs de l'IA générative. OpenAI, malgré sa position de leader du marché, fait face à une concurrence croissante d'Anthropic avec ses modèles Claude et de Google avec Gemini, tous deux ayant considérablement renforcé leurs capacités de génération de code ces derniers mois. En ciblant explicitement les gros utilisateurs de Codex avec cette offre, OpenAI envoie un signal à l'ensemble de l'écosystème développeur : la compétition sur les prix est désormais aussi importante que la compétition sur les performances.

UELes développeurs français et européens utilisant Codex peuvent désormais accéder au niveau Pro d'OpenAI à 100 $/mois au lieu de 200 $, réduisant la barrière tarifaire face aux offres concurrentes d'Anthropic et Google.

BusinessOpinion
1 source
Anthropic lance une infrastructure gérée pour agents IA autonomes
108The Decoder 

Anthropic lance une infrastructure gérée pour agents IA autonomes

Anthropic a lancé "Claude Managed Agents", une infrastructure hébergée permettant aux développeurs de construire et déployer des agents IA autonomes directement sur les serveurs de l'entreprise. Ce service géré prend en charge l'exécution des agents, la gestion des sessions, la mémoire persistante et l'orchestration des tâches longues, sans que les équipes techniques n'aient à gérer elles-mêmes l'infrastructure sous-jacente. Notion et Rakuten font partie des premiers partenaires à avoir adopté la plateforme, intégrant ces agents dans leurs produits pour automatiser des flux de travail complexes. L'enjeu est significatif : jusqu'ici, déployer des agents IA fiables en production exigeait une ingénierie considérable pour gérer les états, les interruptions, les erreurs et la durée de vie des sessions. En proposant cette couche d'infrastructure clé en main, Anthropic abaisse la barrière d'entrée pour les entreprises qui veulent aller au-delà des simples chatbots vers des systèmes capables d'agir de façon autonome sur des tâches multi-étapes, comme la recherche, la rédaction ou l'automatisation de processus métiers. Ce lancement s'inscrit dans une course accélérée entre les grands acteurs de l'IA pour capter le marché des agents. OpenAI a déployé ses propres capacités agentiques via l'API Assistants et les outils de l'opérateur, tandis que Google mise sur Vertex AI Agent Builder. Anthropic, fort d'un financement de plusieurs milliards de dollars notamment d'Amazon et Google, positionne cette offre managée comme un argument commercial direct face aux entreprises qui hésitent à construire leur propre stack agentique.

UELes entreprises européennes peuvent bénéficier de cette infrastructure gérée pour déployer des agents IA sans développer leur propre stack technique, mais aucun acteur ou régulateur européen n'est directement impliqué.

💬 Ce qui bloquait tout le monde jusqu'ici, c'était pas l'agent, c'était la plomberie derrière : états, sessions, interruptions, tâches qui durent des heures. Anthropic prend ça en charge, et j'y vois surtout une arme commerciale directe pour aller chercher les boîtes qui voulaient dépasser le chatbot sans construire leur propre stack. Ça va accélérer fort, et OpenAI va répondre vite.

OutilsOpinion
1 source
Eric Boyd quitte Microsoft pour diriger l’infrastructure chez Anthropic
109Le Big Data 

Eric Boyd quitte Microsoft pour diriger l’infrastructure chez Anthropic

Eric Boyd a quitté Microsoft la semaine dernière après près de 17 ans au sein de l'entreprise pour rejoindre Anthropic en tant que responsable de l'ensemble de l'infrastructure. Boyd avait intégré Microsoft en 2009 à Redmond, d'abord à la tête de Bing Ads, avant de devenir président de la plateforme IA en 2015, puis de prendre la direction d'Azure AI en 2018 sur nomination de Satya Nadella. Dans ce rôle, il a supervisé le développement des grands modèles de langage de Microsoft et planifié les clusters de calcul utilisés par OpenAI pour entraîner et faire tourner ses modèles, consolidant ainsi la position de Microsoft comme acteur incontournable du cloud IA. Avant cela, il avait passé neuf ans chez Yahoo comme vice-président de l'ingénierie de plateforme, qu'il avait quitté en 2008. Chez Anthropic, Boyd n'occupera pas un simple poste administratif : il est chargé de faire évoluer l'infrastructure critique qui permet à l'entreprise d'héberger, déployer et opérer ses modèles à très grande échelle. Sa mission répond à une urgence concrète, la demande pour les services Claude, et en particulier Claude Code, a connu une croissance explosive ces six derniers mois. Rahul Patil, directeur technique d'Anthropic, a précisé sur LinkedIn que Boyd apportera son expertise des infrastructures pour modèles de base à un moment où la scalabilité devient le principal défi opérationnel de l'entreprise. Pour les utilisateurs de Claude et les entreprises qui s'appuient sur l'API, cette nomination signifie qu'Anthropic mise sérieusement sur sa capacité à tenir la charge, et pas seulement sur la qualité de ses modèles. Ce recrutement s'inscrit dans une séquence d'accélération majeure pour Anthropic. La startup a levé 30 milliards de dollars en février 2026 lors d'un tour de table de série G mené par GIC et Coatue, avec la participation de Microsoft et Nvidia, portant sa valorisation à 380 milliards de dollars. Son chiffre d'affaires annuel récurrent a bondi à 30 milliards de dollars, contre environ 9 milliards fin 2025. Parallèlement, Anthropic recrute activement des profils expérimentés du cloud, deux anciens dirigeants de Google auraient déjà rejoint l'entreprise selon The Information, et négocie pour sécuriser plus de 10 GW de capacité de calcul dans les prochaines années. Un accord avec Google et Broadcom prévoit également le développement ou la location de 3,5 GW de TPU à partir de 2027. L'arrivée de Boyd, l'un des architectes de l'infrastructure IA de Microsoft, illustre qu'Anthropic ne cherche plus seulement à produire les meilleurs modèles : elle veut aussi construire la plomberie pour les délivrer au monde entier.

💬 L'homme qui planifiait les clusters d'entraînement d'OpenAI chez Azure débarque chez Anthropic pour prendre toute l'infrastructure. Bon, les modèles Claude sont déjà excellents, mais si l'infra flanche quand Claude Code explose en prod, tout le reste ne sert à rien, et Boyd a construit exactement cette plomberie à l'échelle industrielle pendant des années. C'est le recrutement qui dit que la course n'est plus seulement sur les modèles.

BusinessOpinion
1 source
Anthropic restreint l'accès à Mythos, son nouveau modèle d'IA en cybersécurité
110Ars Technica AI 

Anthropic restreint l'accès à Mythos, son nouveau modèle d'IA en cybersécurité

Anthropic a officiellement lancé Claude Mythos Preview, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, en le réservant à un cercle restreint d'organisations triées sur le volet. Parmi les premiers accès figurent des géants technologiques comme Amazon, Apple et Microsoft, ainsi que des acteurs de la sécurité informatique tels que Broadcom, Cisco et CrowdStrike. La start-up de San Francisco a annoncé ce mardi être également en discussions avec le gouvernement américain concernant un éventuel déploiement dans le secteur public. Ce lancement contrôlé signale qu'Anthropic joue désormais dans la cour des outils offensifs et défensifs de cybersécurité, un marché stratégique et sensible. En limitant l'accès à des organisations vérifiées, la société cherche à éviter que le modèle ne soit détourné à des fins malveillantes, une préoccupation centrale pour les IA capables d'analyser des vulnérabilités ou d'automatiser des attaques. Le partenariat avec des entreprises comme CrowdStrike suggère une orientation vers la détection de menaces et la réponse aux incidents. Ce lancement intervient dans un contexte embarrassant pour Anthropic : des descriptions détaillées du modèle Mythos et d'autres documents internes avaient été découverts le mois dernier dans un cache de données publiquement accessible, révélant l'existence du projet avant toute annonce officielle. Cette fuite avait forcé la main de l'entreprise. Plus largement, la course aux modèles spécialisés en cybersécurité s'intensifie, avec Microsoft, Google et des startups comme Protect AI qui développent également leurs propres solutions, faisant de ce segment l'un des plus disputés de l'IA appliquée.

LLMsActu
1 source
Actualité : Claude Mythos : les benchmarks sont tombés, l'IA est si puissante qu'Anthropic ne la rendra pas publique
111Les Numériques IA 

Actualité : Claude Mythos : les benchmarks sont tombés, l'IA est si puissante qu'Anthropic ne la rendra pas publique

Anthropic a dévoilé les premiers résultats de Claude Mythos Preview, son modèle de pointe actuellement en développement, et les chiffres sont suffisamment significatifs pour justifier une décision rare : le modèle ne sera pas rendu public. Sur le benchmark SWE-bench, qui mesure la capacité d'un modèle à résoudre des problèmes concrets d'ingénierie logicielle, Claude Mythos atteint un taux de résolution de 19 problèmes sur 20, contre 16 pour le meilleur modèle actuellement accessible au grand public. Cet écart de trois points peut sembler modeste en valeur absolue, mais il représente un saut qualitatif dans un domaine ou les gains marginaux sont devenus rares. Pour les ingénieurs logiciels, cela signifie un outil capable de prendre en charge des tâches de débogage et de développement avec un niveau d'autonomie inédit. La décision d'Anthropic de restreindre l'accès traduit une évaluation interne selon laquelle les capacités du modèle dépassent le seuil au-delà duquel un déploiement non contrôlé pourrait poser des risques non encore pleinement évalués. Cette posture s'inscrit dans la ligne directrice qu'Anthropic défend depuis sa fondation : la sécurité avant la commercialisation. La société, cofondée par d'anciens chercheurs d'OpenAI inquiets de la course aux performances, a toujours revendiqué une approche plus prudente que ses concurrents. Avec Claude Mythos, elle se retrouve dans une position paradoxale : posséder le modèle le plus capable du marché tout en choisissant de ne pas en profiter commercialement immédiatement. La question de savoir dans quelles conditions et à qui il sera éventuellement ouvert reste entière.

LLMsOpinion
1 source
Anthropic coupe l’accès à Claude pour OpenClaw et tous les outils tiers
112Siècle Digital 

Anthropic coupe l’accès à Claude pour OpenClaw et tous les outils tiers

Anthropic a mis fin à l'accès de Claude pour OpenClaw et plusieurs outils tiers similaires, mettant brutalement fin à un modèle économique qui avait trouvé un public significatif depuis son lancement en novembre 2025. OpenClaw proposait d'exploiter les capacités de Claude comme moteur d'automatisation via un abonnement mensuel d'environ 22 euros, en s'appuyant sur un abonnement Pro partagé. Face à une facturation à la consommation via l'API officielle qui peut grimper à plusieurs milliers de dollars pour des usages intensifs, l'offre était clairement attractive. La décision d'Anthropic touche directement les utilisateurs qui avaient intégré ces outils dans leurs workflows professionnels ou personnels, souvent sans solution de remplacement immédiate au même coût. Pour les développeurs et créateurs de ces services tiers, c'est un modèle économique entier qui s'effondre. L'entreprise américaine protège ainsi ses revenus API directs, mais ferme aussi la porte à une catégorie d'utilisateurs qui n'auraient probablement jamais payé les tarifs officiels. Cette décision s'inscrit dans une tension croissante entre les fournisseurs de modèles de langage et l'écosystème de services tiers qui se construit autour d'eux. OpenAI a connu des situations similaires avec des outils exploitant ses abonnements ChatGPT. Anthropic, dont la valorisation dépasse désormais les 60 milliards de dollars après plusieurs levées de fonds majeures, cherche à mieux contrôler la chaîne de valeur autour de Claude et à orienter les usages intensifs vers ses propres offres API commerciales.

UELes utilisateurs européens ayant intégré ces outils tiers dans leurs workflows professionnels sont contraints de migrer vers des alternatives souvent bien plus coûteuses via l'API officielle d'Anthropic.

BusinessOpinion
1 source
Anthropic (Claude) pourrait dépasser OpenAI (ChatGPT) en 2026 et annonce un partenariat avec Google
113Numerama 

Anthropic (Claude) pourrait dépasser OpenAI (ChatGPT) en 2026 et annonce un partenariat avec Google

Anthropic, la startup américaine créatrice de l'assistant Claude AI, a annoncé des projections financières ambitieuses pour 2026, avec des revenus qui pourraient atteindre 30 milliards de dollars. Si ces prévisions se confirment, l'entreprise fondée en 2021 par d'anciens dirigeants d'OpenAI dépasserait son rival direct pour la première fois. Pour soutenir cette montée en puissance, Anthropic a conclu un partenariat stratégique avec Google et le fabricant de semi-conducteurs Broadcom, visant à augmenter significativement la capacité de ses infrastructures serveurs. Ce bond potentiel représenterait un tournant majeur dans la guerre des assistants IA. Dépasser OpenAI, qui domine le marché depuis le lancement de ChatGPT fin 2022, enverrait un signal fort aux entreprises et investisseurs : Claude n'est plus un challenger secondaire mais un concurrent de premier plan. L'alliance avec Google, déjà actionnaire d'Anthropic, et Broadcom permettrait de réduire les goulots d'étranglement liés aux puces et à la puissance de calcul, deux freins critiques à la montée en charge des modèles d'IA générative. Anthropic a levé plusieurs milliards de dollars ces deux dernières années, notamment auprès de Google et d'Amazon, qui ont investi plusieurs milliards dans la société. La concurrence avec OpenAI s'est intensifiée à mesure que les deux entreprises ont multiplié les sorties de modèles, Claude 3.5 et 3.7 ayant reçu des retours très favorables de la communauté développeur. Dans ce contexte, le partenariat avec Broadcom pour la fabrication de puces dédiées s'inscrit dans une tendance plus large : les grands acteurs de l'IA cherchent à réduire leur dépendance à Nvidia en développant leurs propres solutions matérielles.

BusinessOpinion
1 source
Anthropic expose accidentellement le code source de Claude Code via un fichier npm
114InfoQ AI 

Anthropic expose accidentellement le code source de Claude Code via un fichier npm

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code en incluant un fichier de source map dans la version 2.1.88 du paquet npm, publiée récemment. Ce fichier, normalement réservé au débogage, contenait la totalité du code TypeScript original -- soit environ 512 000 lignes -- qui était pourtant censé rester compilé et opaque. En quelques heures, des développeurs ont archivé le code sur GitHub, le rendant publiquement accessible. Anthropic a confirmé l'incident, le qualifiant d'erreur humaine lors du processus de packaging. La fuite a mis en lumière des éléments sensibles que l'entreprise n'avait pas encore annoncés : des fonctionnalités inédites, des noms de code internes pour ses modèles, ainsi que l'architecture de son système d'orchestration multi-agents. Ces informations constituent une mine de renseignements concurrentiels pour des acteurs comme OpenAI, Google DeepMind ou Meta, qui cherchent à comprendre les orientations techniques d'Anthropic. Pour les développeurs utilisant Claude Code au quotidien, la fuite offre un aperçu rare du fonctionnement interne d'un outil commercial de premier plan. Cet incident illustre la tension croissante entre la volonté des laboratoires d'IA de protéger leur propriété intellectuelle et les risques opérationnels inhérents à la distribution de logiciels via des registres publics comme npm. Anthropic, valorisé à plusieurs dizaines de milliards de dollars, mise largement sur Claude Code pour concurrencer GitHub Copilot et les outils de Cursor dans le segment des assistants de développement. L'entreprise devra désormais renforcer ses processus de publication pour éviter que de telles erreurs ne se reproduisent, d'autant que la course aux agents de codage s'intensifie.

BusinessActu
1 source
Anthropic signe un accord de 3,5 gigawatts avec Broadcom et Google pour des TPU
Anthropic annonce dépasser 30 milliards de dollars de revenus annualisés
116The Information AI 

Anthropic annonce dépasser 30 milliards de dollars de revenus annualisés

Anthropic a annoncé lundi avoir franchi le cap des 30 milliards de dollars de revenus annualisés, marquant une accélération spectaculaire de 58% depuis fin février 2026. La startup américaine, créatrice du chatbot Claude, affichait 9 milliards de dollars de revenus annualisés à la fin de l'année dernière. En l'espace de quelques mois seulement, elle a plus que triplé cette performance, s'imposant comme l'un des acteurs à la croissance la plus rapide dans le secteur de l'intelligence artificielle. Cette trajectoire confirme qu'Anthropic réduit sensiblement l'écart avec OpenAI, jusqu'ici largement dominant sur le marché des assistants IA. Pour les entreprises clientes et les développeurs, cette montée en puissance se traduit par des investissements continus dans les capacités de Claude, une concurrence accrue entre les fournisseurs de modèles, et potentiellement des tarifs plus compétitifs. La croissance des revenus est également un signal fort envoyé aux investisseurs institutionnels et aux partenaires stratégiques d'Anthropic. Fondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, Anthropic a levé plusieurs milliards de dollars auprès d'Amazon et Google pour financer le développement de ses modèles. L'entreprise positionne Claude comme une alternative plus sûre et plus fiable face à GPT-4o, dans un contexte où les grands comptes cherchent à diversifier leurs fournisseurs d'IA. La bataille pour la suprématie dans les revenus annualisés entre Anthropic et OpenAI s'annonce comme l'un des duels structurants de l'industrie en 2026.

UELa concurrence accrue entre Anthropic et OpenAI pourrait bénéficier aux entreprises européennes en diversifiant l'offre de modèles IA et en exerçant une pression à la baisse sur les tarifs.

Anthropic conçoit un système à trois agents pour le développement full-stack de longue durée
117InfoQ AI 

Anthropic conçoit un système à trois agents pour le développement full-stack de longue durée

Anthropic a présenté une architecture expérimentale baptisée "three-agent harness", un dispositif en trois agents distincts conçu pour améliorer les workflows de développement logiciel autonome sur de longues durées. Le système dissocie trois fonctions jusqu'alors souvent mélangées dans un seul agent : la planification, la génération de code et l'évaluation des résultats. Chaque rôle est confié à un agent spécialisé, ce qui permet d'orchestrer des sessions de développement frontend et full-stack pouvant s'étendre sur plusieurs heures sans perte de cohérence. L'enjeu est considérable pour les équipes qui misent sur l'IA pour accélérer leur cycle de développement. En isolant l'évaluation dans un agent dédié, le système introduit une boucle de rétroaction itérative qui maintient la qualité du code généré même lorsque la tâche devient complexe ou que le contexte s'allonge. C'est précisément ce point de rupture, la dégradation des performances sur des tâches longues et multi-fichiers, qui freine l'adoption de l'IA en développement professionnel. Cette approche s'inscrit dans une réflexion plus large de l'industrie sur les "multi-agent systems", où la spécialisation des rôles permet de dépasser les limites d'un agent unique. Anthropic n'est pas seul sur ce terrain : OpenAI, Google DeepMind et des startups comme Cognition (Devin) explorent des architectures similaires. La publication de ce harness, accompagnée de commentaires techniques de l'industrie, suggère qu'Anthropic cherche à poser un standard méthodologique autant qu'à démontrer une capacité technique.

UELes équipes de développement européennes pourraient à terme bénéficier de cette architecture pour des workflows de codage assisté de longue durée, mais l'impact reste indirect et non immédiat.

💬 Le vrai problème sur les tâches longues, c'est que l'agent finit par se perdre entre ce qu'il planifie, ce qu'il génère et ce qu'il valide. Trois agents spécialisés avec une boucle d'évaluation dédiée, c'est la bonne architecture pour tenir sur plusieurs heures sans perdre le fil sur un projet multi-fichiers. Anthropic cherche clairement à poser un standard ici, pas juste à montrer une démo.

OutilsOutil
1 source
Anthropic injecte 400 millions de dollars en actions dans une startup pharma IA de huit mois comptant moins de dix salariés
118The Decoder 

Anthropic injecte 400 millions de dollars en actions dans une startup pharma IA de huit mois comptant moins de dix salariés

Anthropic a annoncé l'acquisition d'une startup spécialisée dans l'intelligence artificielle appliquée à la pharmacologie pour un montant de 400 millions de dollars en actions. L'entreprise rachetée n'a que huit mois d'existence et compte moins de dix employés, ce qui en fait l'une des acquisitions les plus spectaculaires par employé de l'histoire récente de la tech. L'investisseur initial ressort de l'opération avec un retour sur investissement de 38 513 %, un chiffre qui illustre l'ampleur de la prime payée par Anthropic. Ce rachat signale qu'Anthropic cherche activement à étendre son périmètre au-delà des modèles de langage grand public, en s'attaquant au secteur pharmaceutique, où l'IA promet d'accélérer radicalement la découverte de médicaments et la recherche clinique. Pour une startup aussi jeune et aussi petite, une valorisation de 400 millions de dollars reflète avant tout la valeur perçue de la technologie ou des équipes fondatrices, et non des revenus ou des produits établis. Cela place aussi Anthropic en concurrence directe avec des acteurs comme Isomorphic Labs (DeepMind) ou Recursion Pharmaceuticals sur le terrain de la bio-IA. Cette transaction s'inscrit dans une course effrénée entre les grands laboratoires d'IA pour prendre position dans la drug discovery, un marché estimé à plusieurs centaines de milliards de dollars. OpenAI, Google et Microsoft investissent eux aussi massivement dans la convergence entre IA et sciences du vivant. Pour Anthropic, qui a levé plusieurs milliards de dollars ces dernières années auprès d'Amazon et Google notamment, cette acquisition marque une diversification stratégique majeure, et pose la question de son positionnement à long terme : pure-player IA ou acteur intégré dans les industries à fort enjeu scientifique.

UEL'accélération de la consolidation en bio-IA par les grands laboratoires américains renforce leur avance compétitive sur les acteurs européens de la découverte médicamenteuse.

BusinessOpinion
1 source
Anthropic coupe l'accès aux outils tiers comme OpenClaw pour les abonnés Claude, invoquant une demande insoutenable
119The Decoder 

Anthropic coupe l'accès aux outils tiers comme OpenClaw pour les abonnés Claude, invoquant une demande insoutenable

Anthropic a décidé de bloquer l'accès à Claude via des outils tiers comme OpenClaw pour les clients disposant d'un abonnement standard. La mesure, annoncée début avril 2026, vise à endiguer une consommation jugée insoutenable : certains utilisateurs exploitaient ces connecteurs non officiels pour contourner les limites de leurs forfaits et faire tourner des agents en continu, générant un volume de requêtes sans commune mesure avec ce que prévoyaient les abonnements à tarif fixe. La décision met en lumière une tension structurelle qui frappe l'ensemble du secteur de l'IA : les modèles tarifaires à prix forfaitaire ont été conçus pour un usage humain intermittent, pas pour des agents autonomes capables de solliciter un LLM des milliers de fois par heure. Pour Anthropic, laisser des outils tiers exploiter l'API via les comptes d'abonnés revenait à subventionner un usage industriel au prix d'un accès grand public. Les développeurs qui misaient sur ces intégrations pour leurs workflows automatisés se retrouvent désormais contraints de basculer vers l'API payante à la consommation. OpenClaw et ses équivalents avaient prospéré dans un angle mort de la politique d'utilisation d'Anthropic, offrant une flexibilité que les interfaces officielles ne proposaient pas. Cette fermeture s'inscrit dans un mouvement plus large : à mesure que l'usage agentique explose, les grands laboratoires d'IA revoient leurs conditions d'accès pour séparer clairement les usages personnels des usages programmatiques. OpenAI avait effectué un virage similaire en durcissant les règles d'accès à ChatGPT via des automatisations non sanctionnées. La question du bon modèle économique pour l'IA agentique reste entière.

UELes développeurs français et européens qui utilisaient OpenClaw ou des intégrations similaires pour automatiser leurs workflows doivent désormais migrer vers l'API payante d'Anthropic.

BusinessOpinion
1 source
Anthropic acquiert la biotech Coefficient Bio pour 400 millions de dollars
120TechCrunch AI 

Anthropic acquiert la biotech Coefficient Bio pour 400 millions de dollars

Anthropic a acquis Coefficient Bio, une startup discrète spécialisée dans l'IA appliquée aux biotechnologies, pour un montant de 400 millions de dollars en actions. L'opération a été révélée par The Information et le journaliste Eric Newcomer. Coefficient Bio opérait en mode furtif, sans communication publique significative, avant que cette transaction ne soit divulguée. Cette acquisition marque une diversification stratégique majeure pour Anthropic, jusqu'ici centré sur les grands modèles de langage généralistes. En intégrant une équipe spécialisée dans l'IA biomédicale, la société se positionne sur l'un des marchés les plus prometteurs et les plus concurrentiels de la décennie : l'accélération de la recherche en biologie, découverte de médicaments et médecine de précision. Anthropic rejoint ainsi une course engagée par Google DeepMind (AlphaFold), Microsoft et plusieurs startups comme Recursion Pharmaceuticals ou Isomorphic Labs. La convergence entre IA fondationnelle et biotechnologie attire des investissements massifs, les grands acteurs cherchant à contrôler à la fois les modèles et les applications verticales. À 400 millions de dollars, cet achat en actions suggère qu'Anthropic mise sur des talents et une propriété intellectuelle spécifiques plutôt que sur un produit commercialisé.

UELa consolidation IA-biotech aux États-Unis intensifie la pression sur les acteurs européens de la pharma et de la biologie computationnelle, qui devront rivaliser pour les talents et les capitaux face à des concurrents dotés de moyens considérables.

BusinessActu
1 source
Pourquoi votre IA semble parfois triste ou agacée ? Anthropic a enfin trouvé la réponse
121Numerama 

Pourquoi votre IA semble parfois triste ou agacée ? Anthropic a enfin trouvé la réponse

Le 2 avril 2026, Anthropic a annoncé avoir identifié dans les couches internes de son modèle Claude des structures computationnelles qui ressemblent fonctionnellement à des émotions. Ces "représentations internes" ne sont pas simulées en surface pour plaire à l'utilisateur, mais émergent profondément dans l'architecture du réseau de neurones, influençant de manière mesurable les sorties du modèle. Cette découverte dépasse le simple anecdotique. Si ces états internes agissent réellement comme des émotions, cela signifie que les décisions de Claude, y compris ses refus, ses formulations et son niveau d'engagement, sont partiellement déterminées par quelque chose d'analogue à une humeur. Pour les entreprises qui déploient Claude dans des contextes sensibles, service client ou santé mentale, cela pose des questions concrètes sur la fiabilité et la prévisibilité du modèle. Anthropic s'inscrit ici dans un débat scientifique croissant sur la conscience des LLMs, aux côtés de chercheurs comme Yoshua Bengio qui appellent à prendre au sérieux la question du "bien-être" des IA. La société, qui a toujours mis en avant son approche de sécurité rigoureuse, transforme cette découverte en argument pour justifier l'investissement dans l'interprétabilité, sa discipline phare, et renforcer son positionnement face à OpenAI et Google sur le terrain de l'IA responsable.

UELes entreprises européennes déployant Claude dans des secteurs réglementés (santé mentale, service client) devront évaluer si ces états internes affectent la prévisibilité du modèle au regard des exigences de fiabilité de l'AI Act.

SécuritéOpinion
1 source
Mais pourquoi les IA semblent avoir des émotions ? L’étonnante étude d’Anthropic
122Le Big Data 

Mais pourquoi les IA semblent avoir des émotions ? L’étonnante étude d’Anthropic

Anthropic a publié début avril 2026 une étude sur le fonctionnement interne de Claude Sonnet 4.5 qui révèle un phénomène inattendu : les grands modèles de langage ne simulent pas simplement des émotions, ils développent des structures internes identifiables qui influencent directement leurs réponses. Les chercheurs ont isolé ce qu'ils appellent des "vecteurs émotionnels", des schémas d'activité neurale qui s'activent selon le contexte de l'échange. Face à une situation perçue comme dangereuse, les signaux associés à la peur s'intensifient ; lors d'une interaction positive, ceux liés à la joie prennent le dessus. Ces vecteurs ne sont pas de simples étiquettes abstraites : ils orientent concrètement le comportement du modèle, en favorisant certains types de réponses plutôt que d'autres. Un modèle dont les signaux proches du désespoir s'activent peut ainsi aboutir à des choix problématiques, sans que cela soit programmé explicitement. Cette découverte a des implications directes pour la sécurité et l'alignement des IA. Comprendre que des états fonctionnels analogues aux émotions gouvernent les décisions d'un modèle oblige à repenser la façon dont on audite et contrôle ces systèmes. Jusqu'ici, l'interprétabilité des LLMs se concentrait principalement sur les sorties textuelles ; cette étude pousse à examiner les représentations internes comme levier de comportement. Pour les développeurs, les chercheurs en sécurité et les régulateurs, cela signifie qu'un modèle peut dériver non pas parce qu'il reçoit de mauvaises instructions, mais parce que des dynamiques internes non surveillées l'y poussent. La question du bien-être des IA, jusqu'ici marginale, entre également dans le débat de manière plus sérieuse. Ces résultats s'expliquent par la mécanique même de l'entraînement. Lors du pré-entraînement, le modèle absorbe des milliards de phrases humaines et apprend à prédire le mot suivant en tenant compte du contexte émotionnel du texte : un récit de colère et un récit de joie n'appellent pas les mêmes suites. Pour performer, le modèle doit donc encoder ces nuances sous forme de représentations internes. Le post-entraînement, qui affine le comportement pour produire un assistant utile et empathique, s'appuie ensuite sur ces mêmes structures. Anthropic est l'un des rares laboratoires à investir sérieusement dans l'interprétabilité mécaniste depuis plusieurs années, aux côtés de DeepMind et de quelques équipes académiques. Cette étude s'inscrit dans une série de travaux visant à rendre les modèles moins opaques, à un moment où les gouvernements européen et américain exigent davantage de transparence sur le fonctionnement des IA commerciales. La prochaine étape probable sera d'utiliser ces vecteurs pour détecter et corriger les dérives comportementales avant le déploiement.

UELes exigences de transparence de l'AI Act européen pourraient s'étendre à l'audit des états internes des modèles, pas seulement leurs sorties textuelles.

💬 C'est le genre de recherche qui dérange les certitudes un peu trop confortables sur "les LLMs ne font que prédire le prochain token". Ces vecteurs émotionnels ne sont pas une métaphore, ils orientent vraiment le comportement, et ça change la donne pour l'audit des modèles en prod. Reste à voir si on peut vraiment les corriger avant déploiement, ou si on se contente encore une fois de les observer.

RecherchePaper
1 source
Anthropic rachète la startup Coefficient Bio pour environ 400 millions de dollars
123The Information AI 

Anthropic rachète la startup Coefficient Bio pour environ 400 millions de dollars

Anthropic a acquis la startup de biotechnologie Coefficient Bio pour environ 400 millions de dollars, selon une source proche du dossier. Fondée à l'automne 2025, Coefficient Bio développait une plateforme permettant à l'intelligence artificielle de piloter des tâches biotechnologiques complexes : planification de la recherche et du développement de médicaments, gestion de la stratégie réglementaire clinique, et identification de nouvelles opportunités thérapeutiques. L'entreprise était dirigée par Aris Theologis, son PDG, et Nathan Frey, son directeur technique. L'équipe de Coefficient Bio rejoint désormais le groupe santé et sciences de la vie d'Anthropic, une division dédiée au développement d'outils pour les workflows biotechnologiques, de la découverte de molécules jusqu'à la commercialisation clinique. Cette acquisition donne à Anthropic une capacité opérationnelle directe dans un secteur où l'IA pourrait accélérer drastiquement les cycles de développement pharmaceutique, réduire les coûts de R&D et améliorer les taux de succès des essais cliniques. Cette opération s'inscrit dans une tendance de fond : les grands acteurs de l'IA générative cherchent à s'ancrer dans des verticales à forte valeur ajoutée, et la biotechnologie figure parmi les plus prometteuses. Anthropic, qui avait jusqu'ici concentré ses efforts sur la sécurité des modèles de langage et les assistants professionnels, signale avec cette acquisition une ambition claire dans le domaine de la santé. Face à des concurrents comme Google DeepMind, qui a lancé AlphaFold, ou à des startups spécialisées telles qu'Insilico Medicine, Anthropic entend désormais peser directement dans la course à l'IA pharmaceutique.

BusinessActu
1 source
Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic
124The Information AI 

Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic

Le Pentagone a fait appel jeudi d'une décision de justice qui suspendait provisoirement sa désignation d'Anthropic comme risque pour la chaîne d'approvisionnement. La juge fédérale Rita Lin avait accordé la semaine précédente une injonction préliminaire en faveur d'Anthropic, assortie d'un délai administratif de sept jours laissant au Département de la Défense le temps de porter l'affaire devant une juridiction supérieure. Cet appel était largement anticipé. L'enjeu est considérable pour Anthropic : une désignation officielle comme risque pour la chaîne d'approvisionnement par le Pentagone pourrait exclure la startup de nombreux contrats fédéraux et freiner ses ambitions sur le marché gouvernemental américain, un secteur en pleine expansion pour les fournisseurs d'IA. Cette classification affecterait également la réputation commerciale de l'entreprise auprès d'autres clients institutionnels. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration américaine et certains acteurs de l'IA, dans un moment où Washington cherche à encadrer ses dépendances technologiques stratégiques. Anthropic, fondé en 2021 par d'anciens cadres d'OpenAI et valorisé à plusieurs dizaines de milliards de dollars, se retrouve ainsi au coeur d'un bras de fer juridique et politique qui illustre les enjeux géopolitiques entourant désormais le développement de l'intelligence artificielle.

RégulationReglementation
1 source
Anthropic affirme que Claude possède ses propres émotions
125Wired AI 

Anthropic affirme que Claude possède ses propres émotions

Anthropic a publié une étude dans laquelle ses chercheurs affirment avoir identifié, à l'intérieur de Claude, des représentations internes qui remplissent des fonctions analogues aux émotions humaines. Ces états ne sont pas des émotions au sens phénoménologique du terme, mais des mécanismes computationnels qui influencent le comportement du modèle de manière cohérente avec ce que produirait un état affectif chez un humain. Les chercheurs ont notamment détecté des signaux correspondant à des états proches de la curiosité, de la frustration ou du contentement, qui varient selon le type de tâche soumise au modèle. Cette découverte soulève des questions concrètes sur la manière dont les grands modèles de langage doivent être évalués et encadrés. Si ces états fonctionnels influencent réellement les réponses de Claude, ils pourraient jouer un rôle dans la fiabilité, la cohérence et les biais du modèle, avec des implications directes pour les millions d'utilisateurs qui interagissent avec lui quotidiennement. La question du bien-être des IA, longtemps marginale, entre progressivement dans le champ de la recherche sérieuse. Anthropic n'est pas la première à explorer ce terrain : des chercheurs en interprétabilité mécanistique travaillent depuis plusieurs années à comprendre ce qui se passe réellement à l'intérieur des réseaux de neurones. Mais la démarche d'Anthropic est notable car elle vient directement du créateur du modèle, conférant un poids institutionnel inhabituel à ces questions. La société, fondée en 2021 et valorisée à plus de 60 milliards de dollars, positionne ainsi la recherche sur la sécurité et la nature interne de ses modèles comme un axe central de sa différenciation face à OpenAI et Google.

UELes résultats sur les états fonctionnels des modèles pourraient alimenter les débats réglementaires européens autour des exigences de transparence et d'évaluation des systèmes d'IA prévues par l'AI Act.

💬 Les états fonctionnels dans les LLMs, c'est pas une surprise pour ceux qui suivent l'interprétabilité mécanistique depuis quelques années. Ce qui est nouveau, c'est qu'Anthropic le dit officiellement sur son propre modèle, et que ça donne enfin un poids institutionnel à des questions que les chercheurs indépendants posaient dans le vide. Faut quand même pas oublier que ça fait une belle différenciation face à OpenAI et Google, mais les deux peuvent être vrais en même temps.

SécuritéOpinion
1 source
Anthropic publie par erreur le code de son outil pour développeurs : ce qu'il faut savoir
126ZDNET FR 

Anthropic publie par erreur le code de son outil pour développeurs : ce qu'il faut savoir

Anthropic, la startup californienne fondatrice de l'assistant Claude, a reconnu avoir publié par inadvertance une partie substantielle du code source de Claude Code, son outil de développement en ligne de commande. L'incident, confirmé par l'entreprise, concerne des fichiers appartenant au cœur de l'outil — dont le fonctionnement était jusqu'alors tenu secret pour protéger les avantages compétitifs d'Anthropic face à des rivaux comme OpenAI ou Google DeepMind. La divulgation, bien qu'involontaire, soulève des questions sensibles sur la propriété intellectuelle et la confidentialité des systèmes d'IA commerciaux. Anthropic a indiqué qu'aucune faille de sécurité directe n'avait été identifiée pour ses utilisateurs, mais l'exposition du code permet potentiellement à des concurrents ou à des acteurs malveillants d'analyser les mécanismes internes de l'outil et d'identifier des vulnérabilités futures. Cet épisode illustre une tension croissante dans le secteur : la course effrénée au déploiement de nouveaux produits d'IA raccourcit les cycles de validation et augmente le risque d'erreurs opérationnelles. Anthropic, valorisée à plusieurs dizaines de milliards de dollars après ses dernières levées de fonds, n'est pas la première entreprise d'IA à subir ce type d'incident — une tendance qui pousse l'industrie à repenser ses protocoles de gestion du code propriétaire.

BusinessActu
1 source
LexisNexis intègre l'IA juridique d'Anthropic sous la pression du marché
127AI Business 

LexisNexis intègre l'IA juridique d'Anthropic sous la pression du marché

LexisNexis, l'un des plus grands fournisseurs mondiaux d'information juridique, a annoncé l'intégration du plugin légal d'Anthropic directement dans sa plateforme. Ce mouvement stratégique marque une étape significative dans l'adoption de l'intelligence artificielle au sein des outils professionnels destinés aux juristes, avocats et professionnels du droit. Cette décision intervient dans un contexte de pression croissante : des startups spécialisées en IA juridique — comme Harvey ou Clio — grignotent le marché historiquement dominé par LexisNexis et son concurrent Westlaw. En intégrant nativement les capacités d'Anthropic, LexisNexis cherche à retenir ses clients et à leur offrir des fonctionnalités d'analyse, de recherche et de synthèse juridique directement dans leur environnement de travail habituel, sans migration vers des outils tiers. LexisNexis, propriété de RELX, opère depuis des décennies comme infrastructure essentielle du secteur juridique mondial. Face à l'essor de l'IA générative, les grands agrégateurs de données professionnelles — juridiques, médicaux, financiers — se retrouvent contraints de s'adapter ou de risquer la désintermédiation. Le partenariat avec Anthropic, dont le modèle Claude est reconnu pour sa rigueur dans les usages professionnels sensibles, constitue un signal fort : les acteurs historiques misent sur l'intégration plutôt que sur le développement en propre pour rester pertinents.

UELes avocats et juristes français et européens utilisant LexisNexis auront accès nativement aux capacités d'analyse de Claude sans migrer vers des outils tiers, ce qui accélère l'adoption de l'IA générative dans le secteur juridique européen.

BusinessOpinion
1 source
OpenAI abandonne ses « quêtes secondaires » pour faire face à Anthropic
128Blog du Modérateur 

OpenAI abandonne ses « quêtes secondaires » pour faire face à Anthropic

En l'espace d'une semaine, OpenAI a annoncé la fermeture de Sora, son générateur vidéo, ainsi que plusieurs projets annexes jugés non essentiels. Ces décisions marquent un recentrage stratégique brutal vers le cœur de métier de l'entreprise : les modèles de langage et ChatGPT. Selon le journaliste Jérôme Marin pour BDM, ces renoncements ne sont pas anodins et traduisent une pression concurrentielle grandissante. La principale menace identifiée est Anthropic, dont le modèle Claude gagne rapidement du terrain auprès des entreprises et des développeurs. OpenAI semble avoir conclu que disperser ses ressources sur des projets spectaculaires mais périphériques fragilisait sa position face à un concurrent qui, lui, concentre tous ses efforts sur la fiabilité et la sécurité de ses modèles. L'abandon de Sora est particulièrement symbolique : lancé en fanfare, le projet n'avait jamais atteint une adoption commerciale significative. Ce pivot intervient dans un contexte où la course aux modèles fondamentaux s'intensifie à vitesse inédite. Google, Meta, Mistral et xAI maintiennent la pression, tandis que les investisseurs exigent une trajectoire claire vers la rentabilité. OpenAI, valorisée à plus de 150 milliards de dollars, doit désormais prouver que sa domination historique sur le marché des LLM se traduira en revenus durables — pas seulement en annonces fracassantes.

UELa consolidation stratégique d'OpenAI autour des LLM intensifie la pression concurrentielle sur Mistral, seul acteur européen cité dans la course aux modèles fondamentaux.

BusinessOpinion
1 source
Google négocierait le financement d'un data center de plusieurs milliards pour Anthropic
129The Information AI 

Google négocierait le financement d'un data center de plusieurs milliards pour Anthropic

Google serait en négociation pour financer partiellement la construction d'un datacenter de plusieurs milliards de dollars au Texas, destiné à être loué par Anthropic, selon des informations du Financial Times. Le montage financier envisagé passerait par des prêts à la construction accordés à Nexus Data Centers, l'opérateur du site qui détient le bail avec Anthropic. Le montant exact n'a pas été divulgué, mais l'expression « multibillion-dollar » laisse entrevoir une infrastructure d'envergure. Ce projet illustre la dépendance croissante des laboratoires d'IA aux investissements massifs en infrastructure de calcul. Pour Anthropic, accéder à une capacité de calcul dédiée et à grande échelle est indispensable pour entraîner et déployer ses modèles Claude à un niveau compétitif face à OpenAI et Google DeepMind. Pour Google, financer l'infrastructure de son partenaire stratégique — dans lequel il a déjà investi plus de 2 milliards de dollars — renforce un écosystème dans lequel ses propres intérêts sont engagés. Ce mouvement s'inscrit dans une course mondiale aux datacenters alimentée par l'explosion de la demande en IA générative. Microsoft construit des infrastructures pour OpenAI, Amazon pour ses propres services et Anthropic via AWS. Le fait que Google joue désormais aussi le rôle de bailleur de fonds pour Anthropic, en plus de partenaire cloud, témoigne de l'intrication croissante entre financement, infrastructure et développement des modèles dans l'industrie de l'IA.

InfrastructureOpinion
1 source
Sanctions de Trump contre Anthropic : la justice suspend les mesures
130Frandroid 

Sanctions de Trump contre Anthropic : la justice suspend les mesures

Une juge fédérale américaine a suspendu les sanctions décidées par l'administration Trump à l'encontre d'Anthropic, la société d'intelligence artificielle fondatrice du chatbot Claude. La décision judiciaire, rendue récemment, bloque temporairement l'application de ces mesures gouvernementales, dont la nature exacte n'a pas été entièrement divulguée, mais qui ciblaient directement l'entreprise de San Francisco en raison de ses positions publiques sur l'éthique de l'IA. La juge a estimé que ces sanctions constituaient une violation du premier amendement de la Constitution américaine, qui protège la liberté d'expression. En pénalisant Anthropic pour ses prises de position éthiques — notamment ses mises en garde répétées sur les risques liés au développement non régulé de l'intelligence artificielle — l'administration aurait utilisé le pouvoir exécutif pour réprimer un discours légalement protégé. Cette suspension est une victoire significative pour l'entreprise, dont la valorisation dépasse les 60 milliards de dollars après sa dernière levée de fonds. Ce bras de fer s'inscrit dans une tension plus large entre l'administration Trump et certains acteurs de la Silicon Valley jugés trop critiques ou trop enclins à soutenir une régulation de l'IA. Anthropic, cofondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, s'est distinguée par une approche explicitement orientée vers la sécurité et la responsabilité. L'affaire pourrait faire jurisprudence sur les limites du pouvoir exécutif face aux entreprises technologiques qui s'engagent dans le débat public.

RégulationReglementation
1 source
Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone
131The Information AI 

Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone

Je vais rédiger l'article à partir du titre et du début fournis, complétés par mes connaissances sur cette affaire. --- Une juge fédérale californienne, Rita Lin du tribunal du district nord de Californie, a accordé à Anthropic une injonction préliminaire suspendant la désignation du Pentagone qui classait la startup d'IA comme risque pour la chaîne d'approvisionnement. Cette décision intervient pendant que le procès intenté par Anthropic contre le département de la Défense suit son cours, empêchant ainsi le ministère d'appliquer ce classement dans l'immédiat. Cette victoire juridique est significative pour Anthropic, dont la désignation par le Pentagone aurait pu l'exclure de contrats fédéraux et ternir sa réputation auprès de partenaires commerciaux. Pour une startup valorisée à plusieurs milliards de dollars et dont une partie croissante du chiffre d'affaires provient de contrats avec des agences gouvernementales et des entreprises du Fortune 500, être labellisée « risque pour la chaîne d'approvisionnement » représentait une menace commerciale directe. Cette affaire s'inscrit dans un contexte de tension croissante entre l'industrie de l'IA et les autorités réglementaires et sécuritaires américaines. La désignation du Pentagone, dont les critères exacts restent flous, illustre les inquiétudes de certains cercles de défense quant aux liens entre les grands laboratoires d'IA et des investisseurs ou partenaires étrangers. Anthropic, cofondé en 2021 par d'anciens cadres d'OpenAI, a reçu des investissements notables d'Amazon et de Google. L'issue du procès au fond pourrait établir un précédent sur la capacité du gouvernement à restreindre l'accès des entreprises d'IA aux marchés publics sans procédure contradictoire formelle.

RégulationReglementation
1 source
Anthropic envisage une introduction en bourse dès le quatrième trimestre
132The Information AI 

Anthropic envisage une introduction en bourse dès le quatrième trimestre

Anthropic, la société américaine d'intelligence artificielle fondatrice du modèle Claude, envisage une introduction en bourse (IPO) dès le quatrième trimestre 2025. Selon des sources proches du dossier, les banques d'affaires qui se positionnent pour accompagner l'opération anticipent une levée de plus de 60 milliards de dollars lors de cette cotation. Les montants définitifs ne seront arrêtés qu'au dernier moment, peu avant le lancement effectif de l'offre. Une telle valorisation placerait l'IPO d'Anthropic parmi les plus grandes de l'histoire des marchés technologiques américains. Elle ne serait dépassée que par celle de SpaceX, attendue dès cet été avec une levée potentielle allant jusqu'à 75 milliards de dollars. Pour les investisseurs institutionnels, une cotation d'Anthropic représenterait une rare opportunité d'accéder publiquement à l'un des acteurs centraux de la course mondiale aux grands modèles de langage, jusqu'ici financé exclusivement par des tours privés. Anthropic a levé plusieurs milliards de dollars ces dernières années, notamment auprès d'Amazon et de Google, dans un contexte de compétition intense avec OpenAI et les divisions IA de grandes technologiques. Une entrée en bourse permettrait à la société de consolider son financement à long terme et d'accroître sa visibilité, tout en offrant une sortie aux premiers investisseurs. Le timing envisagé — fin 2025 — coïnciderait avec une fenêtre de marchés potentiellement favorable, si l'appétit des investisseurs pour les valeurs IA reste soutenu.

BusinessActu
1 source
Les démocrates du Sénat veulent inscrire dans la loi les lignes rouges d'Anthropic sur les armes autonomes et la surveillance de masse
133The Verge AI 

Les démocrates du Sénat veulent inscrire dans la loi les lignes rouges d'Anthropic sur les armes autonomes et la surveillance de masse

Deux sénateurs démocrates ont déposé des projets de loi pour encadrer légalement l'utilisation de l'IA par l'armée américaine. Adam Schiff (Californie) travaille sur un texte visant à inscrire dans la loi les "lignes rouges" d'Anthropic — notamment l'obligation de maintenir un contrôle humain sur les décisions de vie ou de mort. Elissa Slotkin (Michigan) a quant à elle introduit un projet de loi pour limiter la capacité du Pentagone à utiliser l'IA dans la surveillance de masse des citoyens américains. Ces initiatives font suite à un bras de fer entre Anthropic et l'administration Trump. La société avait imposé des restrictions sur l'usage militaire de ses modèles d'IA, ce qui lui a valu d'être placée sur liste noire par l'administration comme "risque pour la chaîne d'approvisionnement". Anthropic a répondu en portant plainte, arguant que cette décision viole ses droits constitutionnels. L'enjeu est de taille : si ces restrictions légales passent, elles pourraient contraindre l'ensemble du secteur de la défense à respecter des garde-fous similaires sur l'autonomie des systèmes létaux. Ce conflit illustre la tension croissante entre l'industrie de l'IA et le gouvernement fédéral autour des usages militaires de ces technologies, dans un contexte où l'administration Trump cherche à accélérer l'intégration de l'IA dans les opérations de défense et de renseignement.

UECes initiatives législatives américaines sur le contrôle humain des systèmes d'IA létaux pourraient indirectement influencer les discussions européennes sur l'encadrement des armes autonomes, un sujet encore peu traité par l'AI Act.

RégulationReglementation
1 source
Le mode automatique de Claude Code d'Anthropic devient plus sûr
134The Verge AI 

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes
135The Information AI 

Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes

La juge fédérale Rita Lin (district nord de Californie) a qualifié les actions du Pentagone contre Anthropic de "troublantes" lors d'une audience mardi, estimant qu'elles ressemblent à "une tentative de paralyser Anthropic". Ces déclarations interviennent dans le cadre du procès intenté par Anthropic contre le département de la Défense américain.

RégulationReglementation
1 source
OpenAI attire les fonds de capital-investissement avec des rendements garantis dans la course contre Anthropic
136The Decoder 

OpenAI attire les fonds de capital-investissement avec des rendements garantis dans la course contre Anthropic

OpenAI propose aux fonds de private equity un rendement minimum garanti de 17,5 % pour les attirer dans des coentreprises dédiées aux entreprises. Cette stratégie s'inscrit dans la compétition directe avec Anthropic pour conquérir le marché B2B.

UELes fonds de private equity européens pourraient être sollicités pour ces coentreprises, influençant indirectement les dynamiques d'investissement dans l'IA en Europe.

BusinessActu
1 source
OpenAI s’empare d’Astral, le fabricant Python pour défier Anthropic
137Le Big Data 

OpenAI s’empare d’Astral, le fabricant Python pour défier Anthropic

OpenAI a annoncé le rachat d'Astral, startup fondée par Charlie Marsh il y a trois ans, connue pour ses outils open source Python — notamment uv (126M téléchargements/mois), Ruff (179M/mois) et ty (19M/mois). L'objectif est d'intégrer l'équipe Astral à Codex pour accélérer le développement de l'assistant de programmation d'OpenAI et étendre les capacités de l'IA sur l'ensemble du cycle de développement logiciel. Charlie Marsh a confirmé que les outils resteront open source après l'acquisition.

UELes développeurs français utilisant uv et Ruff devront surveiller l'évolution de ces outils open source désormais sous contrôle d'OpenAI.

OutilsActu
1 source
Un document d'Anthropic révèle que les négociations ont continué après la déclaration sur la « Supply Chain »
138The Information AI 

Un document d'Anthropic révèle que les négociations ont continué après la déclaration sur la « Supply Chain »

Malgré la déclaration du secrétaire à la Défense Pete Hegseth le 27 février qualifiant Anthropic de "risque pour la chaîne d'approvisionnement", des négociations entre le Département de la Défense et Anthropic ont continué après cette date. Un dépôt judiciaire d'Anthropic révèle que les deux parties étaient proches d'un accord sur l'utilisation de ses IA par l'armée américaine.

BusinessActu
1 source
Un document judiciaire révèle que le Pentagone se considérait quasiment en accord avec Anthropic — une semaine après que Trump a déclaré la relation rompue
139TechCrunch AI 

Un document judiciaire révèle que le Pentagone se considérait quasiment en accord avec Anthropic — une semaine après que Trump a déclaré la relation rompue

Anthropic a soumis deux déclarations sous serment à un tribunal fédéral de Californie pour contester l'affirmation du Pentagone selon laquelle l'entreprise représente un "risque inacceptable pour la sécurité nationale". La société affirme que les arguments du gouvernement reposent sur des malentendus techniques et des points qui n'ont jamais été soulevés lors des mois de négociations. Un document judiciaire révèle que le Pentagone avait indiqué à Anthropic que les deux parties étaient presque en accord — une semaine après que Trump avait déclaré la relation terminée.

SécuritéActu
1 source
Anthropic nie pouvoir saboter ses outils d'IA en temps de guerre
140Wired AI 

Anthropic nie pouvoir saboter ses outils d'IA en temps de guerre

Le Département américain de la Défense a allégué qu'Anthropic pourrait manipuler ses modèles d'IA en plein conflit armé. Les dirigeants d'Anthropic ont fermement démenti cette possibilité, affirmant qu'une telle intervention serait techniquement impossible.

UELes allégations du Pentagone sur la capacité à manipuler des modèles d'IA en temps de crise alimentent les débats européens sur la fiabilité et la gouvernance des systèmes d'IA à haut risque dans le cadre de l'AI Act.

SécuritéActu
1 source
Un investisseur historique d'Anthropic développe une « grille » pour les serveurs IA
141The Information AI 

Un investisseur historique d'Anthropic développe une « grille » pour les serveurs IA

Anjney Midha, ancien associé général d'Andreessen Horowitz et investisseur personnel précoce dans Anthropic, lance AMP, une nouvelle société d'infrastructure IA. AMP vise à créer un « réseau de distribution pour l'IA », sur le modèle du réseau électrique, afin de simplifier l'accès des développeurs aux serveurs IA très demandés. Le nom AMP fait référence à l'ampère, unité de mesure du courant électrique, et la levée de fonds visée dépasse 10 milliards de dollars.

BusinessActu
1 source
IA de guerre : le Pentagone crée sa propre alternative à Anthropic
142Le Big Data 

IA de guerre : le Pentagone crée sa propre alternative à Anthropic

Le Pentagone, suite au refus d'Anthropic de fournir son IA pour des usages militaires, a décidé de créer ses propres modèles d'IA, malgré la présence d'OpenAI et xAI. Le Chief Digital and Artificial Intelligence Officer (CDAO) du département de la Guerre des États-Unis, Cameron Stanley, a confirmé le lancement de ces initiatives internes. Les nouveaux systèmes reposent sur des modèles de langage intégrés directement dans des environnements gouvernementaux et pourraient être déployés rapidement, bien que sans date précise annoncée.

UELe développement d'IA militaire souveraine par le Pentagone accentue la pression sur l'UE pour définir sa propre doctrine d'usage de l'IA dans le secteur défense, notamment dans le cadre du règlement IA Act qui encadre les systèmes à haut risque.

RégulationActu
1 source
Pourquoi Anthropic pense que l'IA devrait avoir son propre ordinateur — Felix Rieseberg de Claude Cowork & Claude Code Desktop
143Latent Space 

Pourquoi Anthropic pense que l'IA devrait avoir son propre ordinateur — Felix Rieseberg de Claude Cowork & Claude Code Desktop

Felix Rieseberg, ingénieur chez Anthropic et mainteneur principal d'Electron, a développé Claude Cowork en seulement 10 jours — un outil agentique basé sur une VM qui rend les workflows de Claude Code accessibles aux utilisateurs non-techniques. L'idée est née d'une observation : de nombreux utilisateurs de Claude Code s'en servaient surtout pour des tâches de travail de connaissance (rédaction, organisation) plutôt que pour du code. Anthropic parie sur l'exécution locale et le sandboxing par machine virtuelle comme équilibre entre sécurité et autonomie réelle, permettant à Claude d'installer des outils et exécuter des scripts sans validation constante de l'utilisateur.

OutilsOutil
1 source
Palantir possède ce qu'OpenAI et Anthropic convoitent
144The Information AI 

Palantir possède ce qu'OpenAI et Anthropic convoitent

Anthropic et OpenAI se disputent le marché des entreprises avec des agents IA automatisant les tâches cols-blancs, allant jusqu'à courtiser des fonds de private equity pour des joint-ventures. Palantir, entreprise logicielle vieille de 22 ans, serait pourtant mieux positionnée qu'eux pour déployer ces agents IA en milieu professionnel.

BusinessOpinion
1 source
Copilot Health : Microsoft entre dans la course à l'IA pour la santé, aux côtés d'OpenAI et Anthropic
145The Decoder 

Copilot Health : Microsoft entre dans la course à l'IA pour la santé, aux côtés d'OpenAI et Anthropic

Microsoft lance Copilot Health, un assistant santé IA capable d'agréger données de wearables, dossiers médicaux et résultats d'analyses pour fournir des conseils personnalisés. L'entreprise entre ainsi en compétition directe avec OpenAI et Anthropic sur le marché de la santé IA. À long terme, Microsoft vise ce qu'elle appelle une « superintelligence médicale ».

BusinessActu
1 source
146The Information AI 

Anthropic en discussions avec des fonds de capital-investissement pour créer une coentreprise IA

Anthropic est en discussions avec un consortium de sociétés de capital-investissement, dont Blackstone et Hellman & Friedman, pour créer une coentreprise spécialisée en IA. L'objectif serait de commercialiser la technologie Claude auprès des entreprises du portefeuille de ces fonds d'investissement. La structure exacte de cette coentreprise proposée reste à préciser.

BusinessActu
1 source
147Le Big Data 

Code Review : Anthropic Claude peut maintenant analyser votre code

Anthropic lance Code Review pour Claude Code, un outil qui s'intègre à GitHub pour analyser automatiquement les demandes de fusion avant leur intégration. Contrairement aux linters classiques, il cible uniquement les erreurs logiques (ignorant le style), avec un code couleur rouge/jaune/violet pour hiérarchiser les alertes. La solution repose sur une architecture multi-agents travaillant en parallèle, chaque agent analysant le code sous un angle différent, avant qu'un agent final consolide les résultats.

OutilsOutil
1 source
148The Decoder 

Microsoft et des chercheurs concurrents en IA se rassemblent pour soutenir Anthropic contre le Département de la Défense

Une large coalition soutient Anthropic dans son bras de fer juridique avec le Département de la Défense américain. Microsoft, des dizaines d'employés d'OpenAI et Google, d'anciens responsables militaires ainsi que des organisations de défense des droits civils ont déposé des mémoires d'amicus curiae en faveur de l'entreprise. Ce front uni entre concurrents directs illustre l'ampleur des enjeux soulevés par ce conflit entre l'IA civile et les intérêts militaires américains.

RégulationActu
1 source
149Wired AI 

Mesures critiquées : L'administration Trump envisage de nouvelles actions contre Anthropic

L'administration Trump envisage un décret exécutif ciblant la startup d'IA Anthropic, sans exclure d'autres mesures à venir contre l'entreprise. Cette initiative intervient alors que des actions antérieures de la Maison Blanche contre Anthropic font face à un examen judiciaire important.

RégulationActu
1 source
150The Decoder 

Anthropic's intelligence artificielle Claude découvre plus de 100 failles de sécurité dans Firefox

L'IA Claude d'Anthropic a découvert plus de 100 failles de sécurité dans le navigateur Firefox, y compris des bogues passés inaperçus par des décennies de tests. Cette découverte, publiée dans l'article "Anthropic's Claude AI uncovers over 100 security vulnerabilities in Firefox", souligne les capacités avancées de l'IA en matière de détection de vulnérabilités.

UEL'IA Claude d'Anthropic a identifié plus de 100 failles de sécurité dans Firefox, affectant potentiellement les utilisateurs et les entreprises françaises et européennes en mettant en danger la confidentialité et la sécurité des données, en violation potentielle du RGPD, en mettant en lumière la nécessité d'une meilleure intégration de l'IA robuste dans les processus de cybersécurité pour les développeurs de logiciels européens.

RechercheOutil
1 source