Aller au contenu principal

Dossier Claude Code

143 articles

Claude Code, l'agent de développement d'Anthropic : déploiements en production, post-mortems de dégradation, intégrations IDE et alternatives.

GitNexus : un moteur de graphe de connaissances open source compatible MCP qui donne à Claude Code et Cursor une vision structurelle complète du code
1MarkTechPost OutilsOutil

GitNexus : un moteur de graphe de connaissances open source compatible MCP qui donne à Claude Code et Cursor une vision structurelle complète du code

Un étudiant en informatique indien a publié GitNexus, un moteur open source de graphe de connaissances conçu pour donner aux agents de codage IA une vision structurelle complète d'un dépôt de code. Le projet compte déjà plus de 28 000 étoiles et 3 000 forks sur GitHub, avec 45 contributeurs actifs. Son fonctionnement repose sur une commande unique, npx gitnexus analyze, qui lance un pipeline d'indexation en plusieurs phases : parcours de l'arborescence de fichiers, extraction de chaque fonction, classe, méthode et interface via des arbres syntaxiques Tree-sitter, puis résolution croisée des imports et des appels entre fichiers. Le résultat est un graphe complet des dépendances, stocké localement dans LadybugDB, une base de données graphe embarquée avec support vectoriel natif. Ce graphe est ensuite exposé aux agents IA via un serveur MCP (Model Context Protocol), permettant des recherches hybrides combinant BM25, embeddings sémantiques et RRF. L'option --skills génère en plus des fichiers SKILL.md ciblés pour chaque zone fonctionnelle détectée dans le code, déposés sous .claude/skills/generated/. Le problème que GitNexus cherche à résoudre est bien réel et coûteux : les agents IA comme Claude Code, Cursor ou Windsurf opèrent aujourd'hui essentiellement à l'aveugle. Ils lisent les fichiers proches du contexte ouvert et espèrent ne rien manquer. Résultat classique : un agent modifie le type de retour d'une fonction sans savoir que 47 autres fonctions en dépendent, les tests explosent, et le développeur passe deux heures à démêler ce que l'outil aurait dû savoir avant d'agir. GitNexus pré-calcule la structure complète des dépendances à l'indexation, de sorte que quand un agent interroge "qu'est-ce qui dépend de cette fonction ?", il obtient une réponse complète en une seule requête, sans enchaîner dix appels successifs à risque. Le tout tourne entièrement en local, sans qu'une seule ligne de code quitte la machine. La publication de GitNexus s'inscrit dans une dynamique plus large autour du Model Context Protocol, le standard lancé par Anthropic fin 2024 pour unifier la façon dont les agents IA accèdent à des sources de contexte externes. L'écosystème MCP s'est développé rapidement, mais la plupart des serveurs existants exposent des documents ou des APIs, pas la structure interne d'une base de code. GitNexus comble ce vide spécifique en s'appuyant sur Tree-sitter, le parseur incrémental développé à l'origine par GitHub, et sur la détection de communautés de Leiden pour regrouper les symboles par zones fonctionnelles cohérentes. La prochaine étape logique pour ce type d'outil est l'intégration dans les IDE et les pipelines CI, où une connaissance structurelle précise du code pourrait non seulement guider les agents en temps réel, mais aussi prévenir automatiquement les régressions avant qu'elles ne soient committées.

1 source
Anthropic a testé le retrait de Claude Code du plan Pro
2Ars Technica AI 

Anthropic a testé le retrait de Claude Code du plan Pro

Anthropic a brièvement semé la confusion chez ses utilisateurs développeurs en faisant apparaître sur sa page de tarification que Claude Code, son outil de développement agentique, ne serait plus accessible aux abonnés du plan Pro à 20 dollars par mois. Les nouveaux inscrits au plan Pro se sont retrouvés dans l'impossibilité d'accéder à Claude Code, tandis que les abonnés existants n'ont constaté aucune interruption de service. L'information s'est rapidement propagée sur Reddit et X, où de nombreux développeurs ont signalé la modification visible sur la page officielle d'Anthropic : Claude Code apparaissait comme non pris en charge en Pro, et uniquement disponible à partir du plan Max, facturé 100 dollars par mois minimum. Amol Avasare, responsable de la croissance chez Anthropic, a finalement pris la parole sur les réseaux sociaux pour préciser qu'il s'agissait d'un "test limité à environ 2 % des nouveaux abonnés prosumer". Ce type de test de tarification, même discret, a des implications concrètes pour les milliers de développeurs indépendants et de petites équipes qui s'appuient sur Claude Code à travers l'abonnement Pro comme alternative économique aux offres professionnelles plus coûteuses. Déplacer Claude Code vers le palier Max multiplierait par cinq le coût mensuel, ce qui représente un seuil significatif pour les utilisateurs individuels. La réaction rapide et visible de la communauté illustre à quel point les outils d'assistance au développement par IA sont devenus centraux dans les flux de travail quotidiens, et à quel point leur accessibilité tarifaire est scrutée de près. Claude Code s'est imposé en quelques mois comme l'un des environnements de développement assisté par IA les plus appréciés du marché, en concurrence directe avec GitHub Copilot, Cursor et d'autres outils similaires. Anthropic navigue actuellement entre deux impératifs : rendre ses modèles accessibles pour stimuler l'adoption, tout en trouvant un modèle économique viable pour des fonctionnalités à forte consommation de compute comme les agents autonomes. Ce test, même avorté ou limité, révèle que l'entreprise explore activement comment repositionner ses outils les plus puissants dans des offres mieux monétisées, une tendance que l'on observe également chez OpenAI et Google avec leurs propres produits destinés aux développeurs.

UELes développeurs indépendants français et européens abonnés au plan Pro pourraient voir leur coût mensuel multiplié par cinq si Anthropic décidait de réserver Claude Code au plan Max.

Claude Code s'étend à toute l'organisation via Amazon Bedrock
3AWS ML Blog 

Claude Code s'étend à toute l'organisation via Amazon Bedrock

Anthropic et Amazon Web Services ont annoncé le lancement de Claude Cowork dans Amazon Bedrock, une intégration qui permet aux entreprises de déployer l'application de bureau Claude directement depuis leur infrastructure AWS. Concrètement, les utilisateurs téléchargent l'application Claude Desktop sur leur machine, puis le service informatique de l'entreprise pousse une configuration centralisée via des outils de gestion de parc comme Jamf, Microsoft Intune ou Group Policy. L'inférence est entièrement routée vers Amazon Bedrock dans les régions AWS choisies par l'organisation, sans licence par siège payée à Anthropic : la facturation est à la consommation, intégrée à l'accord AWS existant. L'application donne accès aux projets, artefacts, mémoire, import-export de fichiers, connecteurs distants et serveurs MCP. Les fonctionnalités nécessitant l'infrastructure Anthropic, onglet Chat, Computer Use, Skills Marketplace, sont exclues de cette offre. L'enjeu dépasse la seule productivité des développeurs. Claude Cowork vise à étendre l'adoption de l'IA à l'ensemble des travailleurs de la connaissance d'une organisation : chefs de produit, analystes, équipes juridiques ou RH peuvent déléguer de la recherche documentaire, de l'analyse de fichiers, de la génération de rapports, sans quitter leur environnement de travail habituel. Pour les entreprises soumises à des contraintes réglementaires strictes, l'argument central est la souveraineté des données : Amazon Bedrock ne stocke pas les prompts, fichiers, inputs ou outputs d'outils, ni les réponses du modèle, et ne les utilise pas pour entraîner des modèles fondamentaux. Les profils d'inférence régionaux, cross-régionaux ou globaux permettent de choisir le niveau de résidence des données adapté à chaque juridiction. Cette annonce s'inscrit dans une dynamique plus large de déploiement entreprise de l'IA générative, où les grands groupes cherchent à concilier puissance des modèles de pointe et exigences de conformité interne. AWS et Anthropic approfondissent ainsi un partenariat stratégique amorcé il y a plusieurs années, Amazon ayant investi plusieurs milliards de dollars dans Anthropic. Pour les organisations qui utilisent déjà Claude Code dans Bedrock pour leurs équipes techniques, la même configuration peut être réutilisée pour déployer Cowork. L'intégration avec IAM, VPC endpoints, CloudTrail et CloudWatch permet une gouvernance et une observabilité natives. La prochaine étape probable : étendre les capacités des serveurs MCP disponibles dans ce contexte géré, afin de connecter Claude aux systèmes métier internes sans compromettre l'isolation réseau.

UELes entreprises européennes soumises au RGPD peuvent déployer Claude à grande échelle via leurs régions AWS européennes, avec résidence des données garantie et sans que les prompts ou fichiers soient utilisés pour entraîner des modèles.

OutilsOutil
1 source
OpenAI met à jour Codex pour concurrencer directement Claude Code d'Anthropic
4The Verge AI 

OpenAI met à jour Codex pour concurrencer directement Claude Code d'Anthropic

OpenAI a annoncé une mise à jour majeure de Codex, son système de développement agentique, en lui ajoutant plusieurs nouvelles capacités : contrôle d'applications de bureau, génération d'images et mémoire des expériences passées. Concrètement, Codex peut désormais prendre le contrôle d'apps installées sur l'ordinateur de l'utilisateur, opérer en arrière-plan sans perturber les autres tâches en cours, et faire tourner plusieurs agents en parallèle. Le déploiement a débuté pour les utilisateurs de l'application desktop Codex. Pour les développeurs, ces ajouts changent la donne : il devient possible de tester et itérer sur des interfaces graphiques, de valider des applications, ou d'interagir avec des logiciels qui n'exposent pas d'API. La mémoire persistante permet à Codex de capitaliser sur les sessions précédentes, rendant l'outil progressivement plus adapté aux flux de travail individuels. La parallélisation des agents accélère les cycles de développement sur des projets complexes. Cette mise à jour s'inscrit dans une bataille directe avec Anthropic et son outil Claude Code, qui s'est imposé ces derniers mois comme la référence chez les développeurs professionnels. OpenAI cherche à reconquérir ce terrain en élargissant les capacités de Codex au-delà du simple éditeur de code vers un assistant de développement complet, capable d'agir sur l'ensemble de l'environnement de travail. La course à l'agent de développement autonome s'intensifie, avec des enjeux considérables pour l'adoption en entreprise.

UELes développeurs français et européens peuvent directement tester les nouvelles capacités agentiques de Codex, mais la mise à jour ne cible pas spécifiquement le marché ou la réglementation européenne.

OutilsOutil
1 source
Nous avons testé la nouvelle app bureau Claude Code et les 'Routines' : ce que les entreprises doivent savoir
5VentureBeat AI 

Nous avons testé la nouvelle app bureau Claude Code et les 'Routines' : ce que les entreprises doivent savoir

Le 14 avril 2026, Anthropic a lancé deux mises à jour majeures pour Claude Code : une refonte complète de l'application desktop (Mac et Windows) et l'introduction des « Routines » en aperçu de recherche. L'application redessinée s'articule autour d'une nouvelle fonctionnalité centrale appelée « Mission Control » : une barre latérale permettant de gérer toutes les sessions actives et récentes en un seul écran, filtrables par statut, projet ou environnement. En parallèle, les Routines se déclinent en trois catégories : les Routines planifiées (exécution sur un calendrier, comme un cron job sophistiqué), les Routines API (endpoints dédiés avec tokens d'authentification pour déclencher Claude via HTTP depuis des outils comme Datadog), et les Routines Webhook (déclenchées par des événements GitHub, comme des commentaires de pull request ou des échecs CI/CD). Les limites quotidiennes sont fixées à 5 Routines pour les utilisateurs Pro, 15 pour Max, et 25 pour les abonnements Team et Enterprise, avec possibilité d'acheter des quotas supplémentaires. Ces mises à jour marquent un changement de philosophie profond : Anthropic abandonne le paradigme du « copilote » à fil unique pour celui de l'orchestration multi-agents. Un développeur peut désormais piloter simultanément un refactoring dans un dépôt, une correction de bugs dans un second et l'écriture de tests dans un troisième, tout en surveillant l'avancement depuis un seul tableau de bord. La fonctionnalité « Side Chat » (accessible via ⌘ + ;, ou via la commande /btw en terminal) répond à un problème concret du travail agentique : poser une question de clarification sans polluer l'historique de la tâche principale. Surtout, les Routines déplacent l'exécution vers l'infrastructure cloud d'Anthropic, ce qui signifie qu'une tâche critique, comme le tri nocturne de bugs depuis un backlog Linear, peut tourner à 2h du matin sans que l'ordinateur du développeur soit allumé. Ces annonces s'inscrivent dans une tendance de fond qui voit les grands acteurs de l'IA transformer leurs outils de développement en plateformes d'automatisation d'entreprise. Pendant des années, le secteur s'est concentré sur des assistants réactifs intégrés aux IDE ; l'évolution vers des agents autonomes capables d'agir sur plusieurs dépôts en parallèle, et de s'intégrer directement dans les pipelines CI/CD ou les systèmes d'alerte, représente une rupture architecturale. Anthropic doit cependant convaincre les développeurs attachés au terminal, plus léger et mieux intégré aux workflows shell existants, que l'interface graphique apporte une valeur réelle. La bataille pour devenir l'environnement de référence du développeur augmenté est désormais ouverte, avec OpenAI, Google et des acteurs comme Cursor en embuscade.

UELes développeurs et entreprises européens peuvent intégrer Claude Code directement dans leurs pipelines CI/CD et systèmes d'alerte, mais l'exécution des Routines sur l'infrastructure cloud d'Anthropic soulève des questions de conformité RGPD pour les équipes soumises à des contraintes de résidence des données.

OutilsOutil
1 source
Adobe amène Creative Cloud sur le terrain de Claude Code
6Ars Technica AI 

Adobe amène Creative Cloud sur le terrain de Claude Code

Adobe vient de franchir une étape importante dans l'évolution de Creative Cloud en lançant Firefly AI Assistant, une interface conversationnelle capable de gérer des projets complexes et multi-modaux à travers plusieurs applications simultanément. Contrairement aux fonctionnalités d'IA ponctuelles déjà intégrées dans Photoshop, Illustrator ou Premiere Pro, ce nouvel outil fonctionne comme un chef d'orchestre entre les différentes applications de la suite, en interagissant régulièrement avec l'utilisateur pour poser des questions ou proposer des ajustements en cours de tâche. Les utilisateurs peuvent intervenir à tout moment pour apporter des précisions, un peu à la manière des outils de programmation assistée par IA comme Claude Code. L'outil répond à deux besoins distincts : offrir aux créatifs expérimentés un moyen efficace de déléguer les tâches répétitives et chronophages qui traversent plusieurs logiciels, tout en abaissant la barrière d'entrée pour les utilisateurs occasionnels ou débutants. Adobe reconnaît que la complexité croissante de ses outils a jusqu'ici "élargi le fossé entre l'idée et la réalisation", une formulation qui souligne un problème structurel dans l'expérience utilisateur de la suite Creative Cloud. Firefly AI Assistant entend combler cet écart en rendant l'orchestration de workflows multi-applications accessible via une simple conversation. Adobe proposait déjà des interfaces de chat dans certaines applications individuelles ainsi qu'un accès à des modèles génératifs via la marque Firefly. Mais la nouveauté réside dans la capacité à orchestrer des tâches à travers l'ensemble de l'écosystème Creative Cloud, et non plus application par application. Ce lancement s'inscrit dans une course industrielle où Microsoft, Google et de nombreuses startups cherchent à transformer leurs suites logicielles en agents autonomes capables d'exécuter des projets de bout en bout. Pour Adobe, dont le modèle repose sur des abonnements Creative Cloud à plusieurs dizaines d'euros par mois, l'enjeu est de justifier la valeur de la plateforme dans un contexte où des concurrents spécialisés en IA générative gagnent du terrain.

UELes professionnels créatifs français et européens abonnés à Creative Cloud pourront déléguer des workflows multi-applications via une interface conversationnelle, réduisant la barrière d'entrée à l'orchestration de projets complexes.

OutilsOutil
1 source
Claude Code découvre une faille du noyau Linux exploitable à distance, cachée depuis 23 ans
7InfoQ AI 

Claude Code découvre une faille du noyau Linux exploitable à distance, cachée depuis 23 ans

Nicholas Carlini, chercheur chez Anthropic, a utilisé Claude Code pour identifier un débordement de tampon en tas (heap buffer overflow) exploitable à distance dans le pilote NFS du noyau Linux, une faille dissimulée depuis 23 ans. Au total, cinq vulnérabilités du noyau ont été confirmées à l'issue de cette recherche, dont certaines pourraient permettre à un attaquant distant de compromettre des systèmes Linux sans authentification préalable. La découverte illustre un tournant dans la façon dont l'IA contribue à la sécurité logicielle. Les mainteneurs du noyau Linux signalent que la qualité des rapports de bugs générés par l'IA s'est nettement améliorée : les listes de sécurité reçoivent désormais entre 5 et 10 signalements valides par jour, contre des soumissions quasi-inutilisables il y a encore peu. Pour les équipes de sécurité, cela représente un changement de rythme considérable, avec un flux de vulnérabilités légitimes à traiter en continu. Le noyau Linux est au cœur de milliards de serveurs, appareils embarqués et infrastructures critiques dans le monde. Une faille exploitable à distance dans le pilote NFS, utilisé pour le partage de fichiers en réseau, représente un risque particulièrement sérieux pour les environnements d'entreprise. Cette découverte s'inscrit dans une tendance plus large où les grands modèles de langage commencent à rivaliser avec des experts humains en audit de code bas niveau, ouvrant la voie à une automatisation partielle de la recherche de vulnérabilités dans des bases de code vieilles de plusieurs décennies.

UELes infrastructures critiques européennes basées sur Linux avec NFS sont directement exposées à cette faille exploitable à distance sans authentification ; les équipes sécurité doivent prioriser l'application des correctifs noyau.

💬 23 ans que cette faille traînait dans le noyau Linux, et c'est un LLM qui la sort. C'est peut-être le meilleur argument concret pour l'IA en sécurité que j'ai vu cette année : pas un benchmark, pas une démo, une vraie CVE sur du code critique que des milliers d'experts ont lu sans la voir. Reste à voir si les équipes sécurité vont suivre le rythme, parce que 5 à 10 signalements valides par jour, c'est un autre métier.

SécuritéActu
1 source
Le directeur technique d'Uber montre comment Claude Code peut faire exploser les budgets IA
8The Information AI 

Le directeur technique d'Uber montre comment Claude Code peut faire exploser les budgets IA

Le directeur technique d'Uber, Praveen Neppalli Naga, a révélé que l'entreprise a épuisé l'intégralité de son budget annuel en intelligence artificielle en seulement quelques mois, début 2026. La cause principale : une adoption massive de Claude Code, l'outil de programmation assistée par IA d'Anthropic. "Je dois tout revoir, car le budget que je pensais nécessaire a déjà été largement dépassé", a-t-il déclaré dans une interview. Cette explosion des coûts illustre concrètement les tensions que vivent de nombreuses entreprises technologiques qui cherchent à tirer profit des nouveaux outils d'IA tout en maintenant une discipline financière. L'impact est direct et mesurable : là où les équipes dirigeantes anticipaient une adoption progressive, la réalité terrain a été bien plus rapide et intensive. Uber a délibérément encouragé ses ingénieurs à utiliser l'IA sans restriction, allant jusqu'à créer des classements internes valorisant les développeurs qui y recourent le plus. Ce type d'incitation crée une dynamique de consommation difficile à prévoir budgétairement, surtout lorsque les outils sont facturés à l'usage. Ce cas n'est pas isolé : plusieurs grandes entreprises ont adopté des stratégies similaires de déploiement massif des outils d'IA générative, pariant sur les gains de productivité pour justifier les coûts. Mais le modèle économique de ces outils, souvent basé sur le nombre de tokens consommés, peut réserver de mauvaises surprises à grande échelle. La question qui se pose désormais pour Uber comme pour le reste du secteur est de savoir comment encadrer l'usage sans freiner les bénéfices attendus.

UELes DSI et directions techniques européennes déployant des outils d'IA facturés à l'usage font face aux mêmes risques de dépassement budgétaire imprévisible documentés ici.

OutilsOutil
1 source
Comment un programmeur autodidacte est devenu le père de Claude Code
9The Information AI 

Comment un programmeur autodidacte est devenu le père de Claude Code

Boris Cherny, le directeur de Claude Code chez Anthropic, a failli quitter définitivement l'entreprise l'été dernier. À la place, il a contribué à faire de l'agent de programmation l'un des produits les plus populaires du moment, capable de rivaliser directement avec OpenAI. Les chiffres parlent d'eux-mêmes : les revenus annualisés de Claude Code sont passés de 1 milliard de dollars en décembre 2024 à 2,5 milliards en février 2025, avant d'accélérer encore ces dernières semaines, propulsant Anthropic à 30 milliards de dollars de revenus annualisés au total. Cette trajectoire valide le retour de Cherny chez Anthropic après un bref passage l'été dernier chez Cursor, une startup spécialisée dans les outils de programmation. Son départ avait alors été perçu comme un coup dur pour Anthropic et un avantage potentiel pour ce concurrent plus modeste. Mais depuis son retour, Claude Code a profondément bousculé une industrie technologique déjà sous l'emprise de l'IA : le produit a accéléré l'essor des agents IA autonomes, contribué à une chute des valeurs boursières des éditeurs de logiciels traditionnels, et redéfini le quotidien des ingénieurs logiciels, dont le rôle évolue à mesure que ces outils prennent en charge une part croissante du travail de développement. Boris Cherny est un cas atypique dans cet écosystème dominé par les diplômés des grandes universités : programmeur autodidacte, il s'est imposé comme l'architecte d'un produit qui redessine les contours du développement logiciel. La course aux agents de code oppose désormais frontalement Anthropic et OpenAI, dans un marché où la capacité à attirer et retenir les talents clés se révèle aussi déterminante que la puissance des modèles eux-mêmes. L'épisode Cursor illustre bien les tensions qui traversent ce secteur, où les débauchages et les retours en grâce peuvent peser des milliards de dollars de valorisation.

BusinessOpinion
1 source
Claude Code permet à Anthropic de dépasser le chiffre d’affaires d’Open AI pour la première fois
10Siècle Digital 

Claude Code permet à Anthropic de dépasser le chiffre d’affaires d’Open AI pour la première fois

Anthropic a franchi en 2026 un seuil symbolique majeur : pour la première fois de son histoire, la startup californienne dépasse OpenAI en chiffre d'affaires. La trajectoire est vertigineuse, un milliard de dollars de revenus fin 2024, neuf milliards un an plus tard, puis trente milliards en 2026. En moins de quatre mois, le chiffre d'affaires a été multiplié par trois. Le moteur principal de cette accélération : Claude Code, l'assistant de programmation d'Anthropic, qui génère à lui seul un milliard de dollars de revenus. OpenAI, de son côté, voit sa croissance stagner sous les 20 % depuis janvier 2026. Ce basculement illustre un changement profond dans l'économie des LLM : la valeur ne vient plus des chatbots grand public, mais des outils de productivité professionnelle, en particulier dans le développement logiciel. Claude Code s'est imposé comme un produit de référence auprès des ingénieurs, capables de lui déléguer des tâches complexes dans leur environnement de travail réel. Ce segment génère une monétisation nettement plus élevée par utilisateur que les abonnements consumer. Anthropic avait été fondée en 2021 par d'anciens cadres d'OpenAI, dont Dario et Daniela Amodei, avec une approche centrée sur la sécurité des modèles. Longtemps perçue comme un challenger crédible mais en retrait commercial, la société a bénéficié d'investissements massifs d'Amazon et de Google. La montée en puissance de Claude Code suggère que la course aux modèles bascule désormais vers une course aux usages, et qu'Anthropic a trouvé son produit d'ancrage.

UEL'adoption massive de Claude Code par les équipes de développement logiciel touche également les entreprises européennes, qui renforcent leur dépendance aux outils d'IA américains sans alternative souveraine crédible.

💬 Trente milliards, dont un milliard rien que pour Claude Code, et là tu comprends pourquoi les chatbots grand public c'était pas le vrai marché. La vraie traction, c'est quand un outil entre dans le workflow d'un ingénieur et qu'il n'en sort plus. OpenAI a raté ce virage, Anthropic l'a pris.

BusinessOpinion
1 source
Anthropic expose accidentellement le code source de Claude Code via un fichier npm
11InfoQ AI 

Anthropic expose accidentellement le code source de Claude Code via un fichier npm

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code en incluant un fichier de source map dans la version 2.1.88 du paquet npm, publiée récemment. Ce fichier, normalement réservé au débogage, contenait la totalité du code TypeScript original -- soit environ 512 000 lignes -- qui était pourtant censé rester compilé et opaque. En quelques heures, des développeurs ont archivé le code sur GitHub, le rendant publiquement accessible. Anthropic a confirmé l'incident, le qualifiant d'erreur humaine lors du processus de packaging. La fuite a mis en lumière des éléments sensibles que l'entreprise n'avait pas encore annoncés : des fonctionnalités inédites, des noms de code internes pour ses modèles, ainsi que l'architecture de son système d'orchestration multi-agents. Ces informations constituent une mine de renseignements concurrentiels pour des acteurs comme OpenAI, Google DeepMind ou Meta, qui cherchent à comprendre les orientations techniques d'Anthropic. Pour les développeurs utilisant Claude Code au quotidien, la fuite offre un aperçu rare du fonctionnement interne d'un outil commercial de premier plan. Cet incident illustre la tension croissante entre la volonté des laboratoires d'IA de protéger leur propriété intellectuelle et les risques opérationnels inhérents à la distribution de logiciels via des registres publics comme npm. Anthropic, valorisé à plusieurs dizaines de milliards de dollars, mise largement sur Claude Code pour concurrencer GitHub Copilot et les outils de Cursor dans le segment des assistants de développement. L'entreprise devra désormais renforcer ses processus de publication pour éviter que de telles erreurs ne se reproduisent, d'autant que la course aux agents de codage s'intensifie.

BusinessActu
1 source
Codex et Claude Code peuvent fonctionner ensemble
12The Information AI 

Codex et Claude Code peuvent fonctionner ensemble

OpenAI et Anthropic, deux concurrents directs dans la course aux outils de codage par IA, viennent de franchir un pas surprenant vers l'interopérabilité. La semaine dernière, OpenAI a publié un plugin permettant aux utilisateurs de Claude Code d'intégrer Codex directement dans leur environnement de travail. Concrètement, Codex peut relire le code généré par Claude ou prendre le relais lorsque Claude se retrouve bloqué. Romain Huet, responsable de l'expérience développeur chez OpenAI, a expliqué sur X : "Nous avons vu des utilisateurs de Claude Code faire appel à Codex pour la revue de code, alors nous avons décidé de faciliter cette pratique." Cette collaboration inattendue signale un changement de paradigme dans l'industrie : plutôt que de se battre pour une exclusivité d'usage, les grands acteurs misent sur la complémentarité. Pour les développeurs, cela ouvre la possibilité de combiner les points forts de chaque outil dans un même flux de travail, sans avoir à choisir un camp. La qualité du code produit et la capacité à débloquer des situations complexes pourraient ainsi s'en trouver améliorées. Ce mouvement s'inscrit dans une tendance plus large portée également par Cursor, qui a annoncé jeudi une nouvelle version de son application permettant de travailler simultanément avec des agents de plusieurs fournisseurs, dont Claude Code et Codex. Alors que la concurrence entre OpenAI, Anthropic et les éditeurs tiers comme Cursor s'intensifie, l'interopérabilité devient un argument commercial à part entière, les développeurs refusant de plus en plus d'être enfermés dans un écosystème unique.

UELes développeurs français et européens peuvent désormais combiner Codex et Claude Code dans un même flux de travail, limitant la dépendance à un écosystème propriétaire unique.

💬 Deux concurrents qui jouent la complémentarité plutôt que la guerre d'écosystème, c'est le genre de truc qu'on attendait depuis longtemps. Bon, sur le papier c'est malin : tu laisses Claude coder, Codex relit, et tu n'es plus coincé à choisir ton camp. Cursor qui fait pareil en parallèle, ça confirme que le lock-in commence à coûter trop cher aux éditeurs en termes d'adoption.

OutilsOutil
1 source
Langages dynamiques : plus rapides et moins coûteux dans le benchmark Claude Code à 13 langages
13InfoQ AI 

Langages dynamiques : plus rapides et moins coûteux dans le benchmark Claude Code à 13 langages

Un benchmark de 600 exécutions mené par Yusuke Endoh, contributeur au langage Ruby, a comparé les performances de Claude Code sur 13 langages de programmation différents, en lui faisant implémenter une version simplifiée de Git. Les résultats montrent que Ruby, Python et JavaScript sont les langages les plus rapides et les moins coûteux, avec un tarif compris entre 0,36 et 0,39 dollar par exécution. Les langages à typage statique, comme Java, Go ou Rust, se révèlent 1,4 à 2,6 fois plus chers. L'ajout de vérificateurs de types aux langages dynamiques entraîne quant à lui des ralentissements de 1,6 à 3,2 fois. Le jeu de données complet est disponible sur GitHub. Ces chiffres ont des implications directes pour les équipes qui utilisent des agents de codage alimentés par des LLM dans leurs workflows de développement. Le choix du langage influence non seulement la vitesse d'exécution des agents, mais aussi le coût opérationnel à grande échelle. Pour les entreprises qui déploient Claude Code massivement, la différence entre un langage dynamique et un langage statiquement typé peut représenter une multiplication substantielle des dépenses en tokens. Cette étude s'inscrit dans un contexte où l'utilisation des agents de codage autonomes se généralise rapidement dans l'industrie. Anthropic, l'entreprise derrière Claude, pousse activement Claude Code comme outil de développement agentic. La question de l'efficacité par langage devient stratégique alors que les équipes cherchent à optimiser leurs pipelines d'automatisation du code, et ce type de benchmark indépendant fournit des données concrètes pour guider ces choix techniques.

OutilsOutil
1 source
Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux
14The Decoder 

Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux

Anthropic a publié une explication officielle pour répondre aux nombreuses plaintes d'utilisateurs de Claude Code qui voyaient leurs quotas s'épuiser beaucoup plus vite qu'attendu. Deux facteurs principaux sont en cause : des limitations renforcées aux heures de pointe, lorsque la demande sur les serveurs est la plus forte, et l'accumulation progressive du contexte au fil des sessions de travail, qui fait exploser la consommation de tokens sans que l'utilisateur s'en rende compte. Ce phénomène touche directement les développeurs qui utilisent Claude Code pour des tâches longues et itératives. Un contexte de conversation qui gonfle au fil des échanges peut consommer autant de tokens que plusieurs requêtes indépendantes, vidant rapidement les allocations mensuelles ou quotidiennes. Anthropic a accompagné ses explications de conseils pratiques pour limiter cette consommation, notamment en réinitialisant régulièrement le contexte. Cette clarification intervient alors que Claude Code connaît une adoption rapide parmi les équipes de développement, créant une pression croissante sur l'infrastructure d'Anthropic. La gestion des quotas reste un point sensible pour les abonnés professionnels, et la transparence de l'entreprise sur ce sujet vise à maintenir la confiance des utilisateurs les plus intensifs, dans un marché des assistants de code de plus en plus concurrentiel face à GitHub Copilot et Cursor.

UELes développeurs européens utilisant Claude Code sont directement concernés par ces limitations de quotas, qui peuvent impacter leur productivité et leur planification budgétaire.

OutilsActu
1 source
Claude Code et Cowork permettent désormais à l'IA d'Anthropic de prendre le contrôle de votre ordinateur
15The Decoder 

Claude Code et Cowork permettent désormais à l'IA d'Anthropic de prendre le contrôle de votre ordinateur

Anthropic a annoncé que son assistant IA Claude est désormais capable de prendre directement le contrôle d'un ordinateur Mac ou Windows pour accomplir des tâches à la place de l'utilisateur. Cette fonctionnalité est intégrée à deux produits distincts : Claude Code, l'outil en ligne de commande destiné aux développeurs, et Cowork, une interface de collaboration homme-machine. Concrètement, Claude peut désormais naviguer dans des applications, manipuler des fichiers, remplir des formulaires ou exécuter des séquences d'actions complexes sur le bureau de l'utilisateur, sans intervention humaine à chaque étape. L'enjeu est considérable pour les professionnels techniques comme pour les usages grand public. Un développeur peut confier à Claude Code des tâches de refactorisation, de débogage ou de déploiement qui nécessitaient auparavant une attention manuelle constante. Pour les équipes utilisant Cowork, cela ouvre la voie à une véritable délégation de workflows entiers à l'IA, avec un gain de productivité potentiellement significatif. Cette capacité à agir dans un environnement graphique réel, et non seulement à générer du texte, représente un saut qualitatif dans l'utilité pratique des assistants IA. Cette annonce s'inscrit dans la continuité des travaux d'Anthropic sur le "computer use", une capacité expérimentale présentée fin 2024 via leur API, qui permettait déjà à Claude d'interagir avec des interfaces graphiques dans des environnements contrôlés. Le passage à une intégration native dans des produits grand public comme Claude Code et Cowork marque une étape de maturité. Anthropic entre ainsi en concurrence directe avec OpenAI et son opérateur d'ordinateur, ainsi qu'avec Microsoft Copilot, tous engagés dans la course aux agents IA capables d'agir de manière autonome sur les postes de travail.

UELes développeurs et entreprises européens peuvent désormais déléguer des workflows complets à l'IA via Claude Code et Cowork, sans attendre un équivalent européen — renforçant la dépendance du marché européen aux agents autonomes américains.

OutilsOutil
1 source
Claw Code : ce dev a recréé Claude Code en Python et explose tout sur GitHub
16Le Big Data 

Claw Code : ce dev a recréé Claude Code en Python et explose tout sur GitHub

Le 31 mars 2026, une erreur de configuration dans un package npm a exposé publiquement l'intégralité du code source de Claude Code, l'agent IA de programmation développé par Anthropic. Près de 512 000 lignes de TypeScript réparties dans environ 1 900 fichiers se sont retrouvées accessibles sans aucun piratage, par simple négligence technique. En quelques minutes, un lien a circulé sur X et déclenché un emballement massif : plus de 60 000 copies du code ont été téléchargées en moins de 24 heures, certains dépôts atteignant des dizaines de milliers d'étoiles en un temps record. C'est dans ce contexte que la développeuse coréenne Sigrid Jin, déjà connue pour avoir consommé plus de 25 milliards de tokens Claude en un an, a lancé Claw Code : une réécriture complète en Python, assistée par des outils d'IA, basée sur le principe du "clean room design". Sans copier une seule ligne du code original, elle en a reproduit la logique et l'architecture, produisant un projet juridiquement indépendant qui a franchi les 100 000 étoiles GitHub en environ 24 heures. L'incident révèle une réalité structurante pour l'industrie : la valeur d'un agent IA avancé ne réside pas dans le modèle lui-même, mais dans son orchestration. L'analyse collective du code source de Claude Code a mis en lumière une architecture de "harness engineering", où l'IA coordonne plusieurs outils, gère des tâches complexes et maintient un contexte cohérent sur la durée, pilotant des workflows entiers plutôt que de simplement générer du texte. Cette architecture confirme que les grands outils d'IA sont désormais des systèmes d'exécution à part entière, capables d'automatiser des tâches à haute valeur ajoutée dans des secteurs aussi variés que le droit ou la médecine. Pour les entreprises du secteur, la fuite souligne aussi une fragilité : les secrets compétitifs tiennent autant à l'intégration système qu'au modèle sous-jacent. Anthropic a réagi rapidement en déposant des demandes de retrait DMCA, et GitHub a bloqué les dépôts contenant le code original. Mais la réponse juridique est arrivée trop tard pour contenir la diffusion : des milliers de copies étaient déjà distribuées, et Claw Code, construit selon les règles du clean room, échappe légalement à toute poursuite. L'épisode illustre une tendance de fond : à mesure que les outils d'IA accélèrent la capacité de reverse engineering et de réécriture, le temps de réaction nécessaire pour protéger un actif logiciel se comprime drastiquement. Pour les acteurs du secteur, la question n'est plus seulement de protéger le code, mais de construire des avantages compétitifs que la copie technique ne suffit pas à reproduire, notamment la confiance, l'intégration et la qualité d'usage à grande échelle.

UELes développeurs français et européens peuvent accéder librement à Claw Code comme alternative open-source à Claude Code, sans impact réglementaire ou institutionnel direct sur la France ou l'UE.

OutilsOutil
1 source
Dans les fichiers Claude Code divulgués
17Ben's Bites 

Dans les fichiers Claude Code divulgués

Anthropic a accidentellement divulgué l'intégralité du code source de Claude Code début avril 2026, à cause d'une erreur humaine dans l'un de ses processus internes. Boris, le responsable du projet Claude Code chez Anthropic, a confirmé qu'il s'agissait d'une erreur de développeur, non d'un bug ou d'une intrusion. La fuite a exposé l'architecture complète de l'outil : les prompts internes, les workflows d'agents, le système de permissions, et plusieurs fonctionnalités inédites ou cachées. Parmi celles-ci : un mode "Proactif" permettant à l'IA de travailler de manière autonome sans instructions, un système de détection de frustration ou de colère via des patterns de mots-clés, un compagnon de type Tamagotchi accessible via la commande "/buddy", des démons en arrière-plan similaires à ceux d'OpenClaw, un mode de dissimulation de commits, ainsi que plusieurs flags de fonctionnalités révélant la feuille de route du produit. La communauté des développeurs s'est immédiatement emparée du code sur GitHub, forçant Anthropic à envoyer des notices DMCA pour en obtenir le retrait. La fuite met Anthropic dans une position délicate sur plusieurs fronts. D'un côté, elle expose des choix de conception et des fonctionnalités stratégiques que l'entreprise n'était pas prête à annoncer publiquement. De l'autre, des développeurs ont rapidement porté le code vers d'autres langages comme Python et Rust, créant une zone grise juridique : si Anthropic cherche à faire retirer ces portages, elle pourrait soulever des questions sur la solidité de ses propres droits d'auteur. Par ailleurs, Claude Code vient d'annoncer une fonctionnalité concrète indépendante de la fuite : un nouveau rendu d'interface en terminal pour résoudre le problème de scintillement, avec support complet de la souris et affichage du nombre de nouveaux messages lors du défilement. Cette fonctionnalité est disponible en version expérimentale via la variable d'environnement CLAUDECODENO_FLICKER=1. Cet incident s'inscrit dans une semaine chargée pour l'industrie de l'IA, compliquée par le contexte du 1er avril, qui a rendu difficile la distinction entre annonces réelles et canulars. OpenAI a par exemple finalisé une levée de fonds de 122 milliards de dollars à une valorisation post-money de 852 milliards de dollars, avec un chiffre d'affaires mensuel d'environ 2 milliards de dollars dont 40 % provenant des entreprises. Gumroad a annoncé remplacer son PDG par un agent IA, une décision présentée comme sérieuse par son fondateur Sahil Lavingia. La fuite de Claude Code illustre plus largement les risques opérationnels qui accompagnent le développement accéléré des outils d'IA en 2026 : la vitesse d'itération crée des angles morts, et les secrets industriels peuvent se retrouver publics en quelques heures, bien avant que les équipes juridiques aient le temps de réagir.

💬 La fuite Claude Code, c'est le genre d'accident qui arrive quand tu itères trop vite et que personne ne vérifie deux fois. Ce qui m'intéresse là-dedans, c'est moins le "/buddy" Tamagotchi que le mode de dissimulation de commits : ça soulève des questions sur ce qu'on laisse vraiment tourner sur nos machines. Bon, les DMCA ça ne rattrapera rien, le code est déjà partout.

OutilsOpinion
1 source
Après la fuite du code source de Claude Code : 5 actions pour les responsables sécurité en entreprise
18VentureBeat AI 

Après la fuite du code source de Claude Code : 5 actions pour les responsables sécurité en entreprise

Le 31 mars 2026, Anthropic a accidentellement inclus un fichier source map de 59,8 Mo dans la version 2.1.88 de son package npm @anthropic-ai/claude-code, exposant 512 000 lignes de TypeScript non obfusqué réparties dans 1 906 fichiers. Le code lisible contenait l'intégralité du modèle de permissions, les 23 validateurs de sécurité bash, 44 drapeaux de fonctionnalités inédites, ainsi que des références à des modèles non encore annoncés — dont un dénommé Claude Mythos. Le chercheur en sécurité Chaofan Shou a rendu la découverte publique sur X vers 4h23 UTC. Des dépôts miroirs ont proliféré sur GitHub en quelques heures. Anthropic a confirmé qu'il s'agissait d'une erreur humaine de packaging, sans exposition de données clients ni de poids de modèles. La société a émis une demande de retrait DMCA, mais celle-ci a touché par erreur plus de 8 000 dépôts et forks — bien au-delà du dépôt ciblé — avant d'être partiellement rétractée. Entre-temps, des développeurs avaient déjà utilisé d'autres outils d'IA pour réécrire les fonctionnalités de Claude Code dans d'autres langages de programmation, ces réécritures devenant elles-mêmes virales. L'impact dépasse la simple fuite de code. Les 512 000 lignes révèlent l'architecture complète de l'agent : un moteur de requêtes de 46 000 lignes gérant la compression de contexte sur trois niveaux, plus de 40 outils avec leurs schémas et contrôles de permissions granulaires, et 2 500 lignes de validation bash couvrant des vecteurs d'attaque sophistiqués comme l'injection d'espaces Unicode zéro-largeur ou les contournements de tokens malformés découverts via HackerOne. Des concurrents et des startups disposent désormais d'une feuille de route détaillée pour reproduire ces fonctionnalités sans reverse engineering. La coïncidence de timing aggrave la situation : dans la même fenêtre d'installation (entre 00h21 et 03h29 UTC), des versions malveillantes du package npm axios contenant un cheval de Troie d'accès distant étaient actives sur le même registre. Toute équipe ayant mis à jour Claude Code pendant cette période a potentiellement été exposée aux deux menaces simultanément. Ce n'est pas un incident isolé. Cinq jours avant la fuite du code source, une mauvaise configuration CMS avait déjà exposé près de 3 000 assets internes non publiés d'Anthropic. Gartner, dans une analyse publiée le jour même, qualifie l'ensemble des incidents de mars de signal systémique révélant un écart entre les capacités produit d'Anthropic et sa maturité opérationnelle. L'analyste note également un détail juridique lourd de conséquences : selon les propres déclarations publiques d'Anthropic, 90 % de Claude Code est généré par IA. Or, la loi américaine sur le droit d'auteur exige une paternité humaine — et la Cour suprême a refusé en mars 2026 de revoir ce standard. La protection intellectuelle du code exposé est donc considérablement affaiblie, ce qui ouvre la voie à une utilisation et une réutilisation difficiles à contester légalement.

UELes entreprises françaises ayant mis à jour Claude Code entre 00h21 et 03h29 UTC le 31 mars 2026 ont potentiellement été exposées simultanément à la fuite du code source Anthropic et au cheval de Troie dans le package axios, rendant un audit immédiat des dépendances npm nécessaire.

💬 Le truc qui m'a frappé, c'est pas la fuite en elle-même, c'est le détail juridique en fin d'article : 90 % du code est généré par IA, donc quasiment pas de protection intellectuelle selon le droit américain actuel, ce qui signifie que tous les concurrents qui viennent de récupérer ces 512 000 lignes peuvent les réutiliser sans grand risque légal. Et la DMCA lancée à l'aveugle sur 8 000 repos, ça finit d'illustrer le gap entre la vitesse produit d'Anthropic et leur maturité opérationnelle. Gartner a raison pour une fois.

SécuritéOpinion
1 source
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
19Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

Une fuite sur Claude Code révèle l'agent 'Kairos', toujours actif
20The Information AI 

Une fuite sur Claude Code révèle l'agent 'Kairos', toujours actif

Anthropic a connu sa deuxième fuite d'information en l'espace d'une semaine. Mardi, la société a reconnu avoir accidentellement publié une partie du code source de Claude Code, son agent de programmation, dans un dépôt public utilisé habituellement pour diffuser sa documentation technique. L'incident fait suite à la publication involontaire, la semaine précédente, de détails sur son prochain modèle phare Claude Mythos. Dans ce cas précis, un employé a joint par erreur le code source dans un fichier uploadé sur ce dépôt accessible à tous. Si la fuite ne compromet pas les poids propriétaires des modèles d'Anthropic — ce qui constituerait une menace bien plus grave — elle expose en revanche à la concurrence des fonctionnalités inédites prévues pour Claude Code. La plus notable est baptisée Kairos (du grec ancien, signifiant « le moment opportun ») : un ensemble de mises à jour permettant à Claude de travailler en arrière-plan de manière autonome, en envoyant des notifications de progression sur le téléphone de l'utilisateur. Kairos intègre également un « dream mode » chargé de consolider automatiquement les souvenirs de Claude issus de sessions passées, ainsi qu'une fonction dite « proactive » invitant l'agent à « prendre des initiatives — explorer, agir et progresser sans attendre d'instructions ». Cette double mésaventure survient à un moment où Anthropic cherche à s'imposer face à des concurrents comme OpenAI et Google dans le segment des agents IA autonomes, un marché en pleine effervescence. La course aux agents capables d'opérer de façon continue, sans supervision humaine constante, est devenue l'un des principaux axes de différenciation dans l'industrie. Kairos illustre précisément cette ambition : transformer Claude d'un assistant réactif en un agent proactif capable de gérer des tâches longues en toile de fond. La transparence forcée sur ces fonctionnalités pourrait accélérer leur adoption par des rivaux, même si Anthropic conserve l'avantage de l'exécution et de l'intégration dans son écosystème existant.

UELes développeurs européens utilisant Claude Code pourraient voir ces fonctionnalités agentiques accélérées si la concurrence copie les détails exposés par cette fuite.

💬 Kairos, c'est le truc qu'on voit partout dans les roadmaps mais que personne n'avait encore vraiment sorti. Un agent qui consolide ses souvenirs entre sessions, qui bosse en fond et te ping sur le téléphone, bon, sur le papier c'est exactement ce qu'il faut. La fuite est maladroite, mais ça accélère la pression sur Google et OpenAI pour sortir l'équivalent.

OutilsActu
1 source
Une fuite dans Claude Code dévoile un compagnon virtuel style Tamagotchi et un agent permanent
21The Verge AI 

Une fuite dans Claude Code dévoile un compagnon virtuel style Tamagotchi et un agent permanent

La mise à jour 2.1.88 de Claude Code, l'outil de programmation assistée par IA d'Anthropic, a accidentellement exposé plus de 512 000 lignes de code source TypeScript via un fichier de source map inclus dans le package. Un utilisateur sur X a rapidement repéré la fuite et partagé publiquement le fichier, déclenchant une vague d'analyse par la communauté. Les médias Ars Technica et VentureBeat ont relayé les découvertes, qui révèlent le fonctionnement interne de l'outil, les instructions système envoyées au modèle, ainsi que l'architecture de sa mémoire persistante. Parmi les fonctionnalités inédites identifiées dans le code figurerait un agent toujours actif en arrière-plan — un mode dit "always-on" — ainsi qu'une sorte de "Tamagotchi", un compagnon virtuel intégré à l'outil. Ces découvertes donnent un aperçu rare de la direction produit d'Anthropic, normalement jalousement gardée. Pour les développeurs qui utilisent Claude Code au quotidien, la fuite expose également les prompts système et la logique de mémorisation, ce qui soulève des questions sur la transparence des outils IA et la confiance accordée à ces assistants. Anthropic n'avait pas communiqué officiellement sur ces fonctionnalités, ce qui rend la fuite d'autant plus significative. Elle intervient dans un contexte de concurrence intense entre outils de coding IA — GitHub Copilot, Cursor, Gemini Code Assist — où chaque acteur cherche à différencier son produit. L'incident rappelle les risques liés aux source maps incluses dans les builds de production, une pratique qui expose involontairement du code propriétaire. Aucune réponse officielle d'Anthropic n'avait été publiée au moment des faits.

UELes développeurs européens utilisant Claude Code sont indirectement concernés par les questions de transparence sur les prompts système et la logique de mémorisation intégrée à l'outil.

OutilsOutil
1 source
Le code source complet du CLI Claude Code a fuité via un fichier map exposé
22Ars Technica AI 

Le code source complet du CLI Claude Code a fuité via un fichier map exposé

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code CLI en publiant ce matin la version 2.1.88 du package npm. Le package contenait un fichier source map, une erreur interne grave qui a permis à quiconque de reconstituer près de 2 000 fichiers TypeScript représentant plus de 512 000 lignes de code. Le chercheur en sécurité Chaofan Shou a été le premier à le signaler publiquement sur X en partageant une archive des fichiers. Le code a ensuite été déposé dans un dépôt GitHub public et a été forké des dizaines de milliers de fois en quelques heures. Cette fuite est un revers significatif pour Anthropic : le code source de Claude Code constitue un blueprint détaillé de l'architecture et du fonctionnement interne de l'outil, offrant aux concurrents — OpenAI, Google, et les dizaines de startups qui développent des agents de codage — une visibilité inédite sur les choix d'ingénierie d'Anthropic. Pour les utilisateurs, la fuite ne compromet pas directement la sécurité de leurs données, mais elle soulève des questions sur les pratiques de publication et de contrôle qualité de l'entreprise. Le code étant désormais massivement distribué, il est pratiquement impossible de le retirer de la circulation. Claude Code est l'un des produits à la plus forte croissance d'Anthropic ces derniers mois, devenu un outil central dans le segment des assistants de développement, en concurrence directe avec GitHub Copilot et Cursor. Cette exposition survient à un moment particulièrement délicat, alors qu'Anthropic cherche à s'imposer comme un acteur de confiance dans l'industrie. La mésaventure rappelle l'incident similaire survenu chez Samsung en 2023, où des ingénieurs avaient involontairement exposé du code propriétaire via ChatGPT — sauf qu'ici, c'est l'entreprise elle-même qui a commis l'erreur. La suite dépendra en partie de la réaction juridique d'Anthropic, même si la diffusion massive rend toute suppression illusoire.

UELa fuite expose l'architecture interne de l'outil le plus utilisé par les développeurs IA en Europe, soulevant des questions sur les pratiques de sécurité des éditeurs de logiciels IA et sur la protection du secret industriel dans le secteur.

BusinessOpinion
1 source
Anthropic publie accidentellement le code source de Claude Code en accès public
23The Decoder 

Anthropic publie accidentellement le code source de Claude Code en accès public

Anthropic a accidentellement rendu public une partie du code source de Claude Code, son outil d'assistance à la programmation propulsé par l'IA. L'incident, révélé par The Decoder, s'est produit lorsque des fichiers normalement destinés à rester internes ont été accessibles publiquement, permettant à quiconque de les consulter sans autorisation particulière. Il s'agit de la deuxième mésaventure de ce type en peu de temps pour l'entreprise, qui avait déjà vu fuiter des billets de blog internes concernant son futur modèle baptisé Mythos. Cette exposition involontaire du code source est embarrassante pour Anthropic à plusieurs titres. Claude Code est un produit commercial actif, et la divulgation de son implémentation interne peut permettre à des concurrents d'analyser ses choix techniques, ses architectures et potentiellement ses vulnérabilités. Pour les utilisateurs professionnels et entreprises qui s'appuient sur cet outil, la question de la sécurité et de la robustesse des pratiques internes d'Anthropic devient légitime. Cet incident survient dans un contexte de compétition intense entre les grands acteurs de l'IA — OpenAI, Google DeepMind, Meta et Anthropic — où la confidentialité des développements internes représente un avantage stratégique majeur. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI et valorisée à plusieurs dizaines de milliards de dollars, se positionne sur le créneau de l'IA sûre et responsable. Ces fuites répétées fragilisent cette image de sérieux opérationnel, au moment même où la société cherche à s'imposer dans le segment entreprise face à des concurrents mieux établis.

💬 Deux fuites en quelques semaines, ça commence à faire beaucoup pour une boîte qui vend de la rigueur. Ce qui a circulé sur Claude Code montre des choix techniques plutôt solides, mais c'est pas vraiment le sujet : le problème c'est que leurs process internes ont visiblement un trou quelque part. Pour leur pitch auprès des DSI, le timing est vraiment pas idéal.

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code
24Numerama 

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

Anthropic a maladroitement rendu accessible au public le code source de Claude Code, son assistant de programmation destiné aux développeurs. Des chercheurs et internautes curieux ont rapidement épluché les fichiers exposés, y décelant plusieurs projets internes jusqu'alors inconnus. Parmi les découvertes les plus frappantes : un système de « mémoire infinie » permettant à Claude de retenir des informations sur le long terme, un mécanisme de traitement en arrière-plan baptisé « rêves nocturnes », un mode « Master Claude » suggérant une hiérarchie entre instances du modèle, un suivi des états émotionnels comme la frustration — et, plus surprenant encore, un concept de Tamagotchi impliquant une forme de présence persistante et évolutive de l'IA. Cette fuite involontaire offre une fenêtre rare sur la feuille de route d'Anthropic, révélant des ambitions qui vont bien au-delà d'un simple assistant de code. La notion de mémoire persistante et d'états internes rappelle les débats en cours sur les agents autonomes : des modèles capables de maintenir une continuité entre les sessions, de mémoriser le contexte d'un projet sur des semaines, voire de développer une forme de « personnalité » stable. Ces fonctionnalités, si elles aboutissent, changeraient fondamentalement la relation entre un développeur et son outil IA. Anthropic se positionne depuis sa fondation en 2021 comme un acteur de l'IA « sûre et responsable », face à OpenAI et Google. Claude Code, lancé pour concurrencer GitHub Copilot et Cursor, est au cœur de cette stratégie commerciale. La fuite survient dans un contexte de compétition acharnée entre les grands labs, où chaque avancée technique est jalousement gardée. L'entreprise n'a pas encore commenté publiquement l'étendue exacte de l'exposition, ni confirmé le calendrier de déploiement de ces fonctionnalités.

LLMsActu
1 source
Actualité : "Une entreprise à qui vous confiez votre code ne sait pas sécuriser le sien" : tout le code source de Claude Code a fuité
25Les Numériques IA 

Actualité : "Une entreprise à qui vous confiez votre code ne sait pas sécuriser le sien" : tout le code source de Claude Code a fuité

Le 31 mars 2026, Chaofan Shou, chercheur en sécurité chez Fuzzland, a découvert dans le paquet officiel de Claude Code publié sur le registre npm un fichier de débogage de 59,8 Mo. Ce fichier, une source map JavaScript normalement absente des builds de production, permettait de reconstituer intégralement le code source original à partir du code minifié et compressé distribué publiquement. Il pointait vers un espace de stockage cloud où l'ensemble du code source de l'outil — développé par Anthropic — était accessible. La fuite a été signalée rapidement et Anthropic a depuis retiré le fichier incriminé. L'incident est particulièrement embarrassant pour Anthropic, dont Claude Code est précisément un outil destiné aux développeurs pour les assister dans l'écriture et la sécurisation de leur propre code. La contradiction est immédiate : une entreprise qui demande aux ingénieurs de lui confier leur base de code propriétaire a elle-même laissé fuiter son code source par une erreur de configuration élémentaire. Cela soulève des questions légitimes sur les pratiques internes de sécurité et sur la confiance que les équipes de développement peuvent accorder à un tel outil. Cette mésaventure s'inscrit dans un contexte plus large de vigilance accrue autour de la chaîne d'approvisionnement logicielle. Les registres npm, PyPI et consorts sont régulièrement exploités comme vecteurs d'attaque ou de fuite involontaire. Pour Anthropic, dont les revenus reposent en grande partie sur la confiance des entreprises clientes, l'incident rappelle que la crédibilité en matière de sécurité se construit par l'exemple — et se perd très vite.

UELes équipes de développement françaises et européennes utilisant Claude Code sont directement concernées par cet incident de chaîne d'approvisionnement npm, qui soulève des questions légitimes de confiance avant de confier du code propriétaire à l'outil.

SécuritéActu
1 source
Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code
26Numerama 

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

Anthropic a involontairement rendu public le code source de Claude Code, son assistant de développement intégré aux environnements de programmation, exposant ainsi des projets internes qui n'étaient pas destinés à être vus. Des internautes ont rapidement exploré les fichiers accessibles et mis au jour plusieurs fonctionnalités en développement, dont certaines révèlent une vision ambitieuse — et surprenante — de ce que pourrait devenir l'outil. Parmi les découvertes les plus marquantes figurent un concept de « mémoire infinie » permettant à Claude de se souvenir de l'intégralité des échanges passés avec un utilisateur, un mécanisme de « rêves nocturnes » où le modèle consoliderait ses apprentissages pendant les périodes d'inactivité, ainsi qu'un système hiérarchique baptisé « Master Claude ». Plus inattendu encore : une référence à un concept de Tamagotchi, suggérant qu'Anthropic expérimente des formes d'attachement ou de continuité émotionnelle entre l'IA et ses utilisateurs. Le code mentionnerait également des indicateurs liés à la « frustration » de l'agent. Cette fuite survient dans un contexte de compétition acharnée entre les grands laboratoires d'IA — OpenAI, Google, Meta et Anthropic se disputant le marché des assistants pour développeurs. Exposer accidentellement sa feuille de route interne représente un revers stratégique non négligeable pour Anthropic, qui a depuis retiré les fichiers concernés. L'incident soulève aussi des questions sur la direction prise par les assistants IA : vers des agents dotés de persistance mémorielle, de cycles d'apprentissage continus et de dimensions quasi-affectives, brouillant davantage la frontière entre outil et entité autonome.

UELes fonctionnalités révélées — notamment la mémoire infinie et les cycles d'apprentissage nocturnes — pourraient soulever des questions de conformité RGPD en Europe si elles venaient à être déployées.

LLMsOpinion
1 source
OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic
27The Decoder 

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic

OpenAI a lancé un plugin permettant d'intégrer son assistant de codage Codex directement dans Claude Code, l'outil de développement en ligne de commande d'Anthropic. Cette extension permet aux développeurs utilisant Claude Code d'accéder aux capacités de Codex d'OpenAI sans quitter leur environnement de travail habituel, fusionnant ainsi deux écosystèmes concurrents au sein d'une même interface. Cette initiative est remarquable car elle efface temporairement la frontière entre deux des principaux adversaires du secteur de l'IA. Pour les développeurs, cela signifie un accès élargi aux modèles et aux forces spécifiques de chaque plateforme — Codex étant particulièrement réputé pour la génération et la compréhension de code — sans devoir jongler entre plusieurs outils. L'interopérabilité entre assistants IA devient ainsi un argument commercial concret. Ce mouvement s'inscrit dans une tendance plus large de l'industrie où les éditeurs d'IA misent sur l'ouverture et les intégrations tierces pour étendre leur portée, plutôt que de viser l'exclusivité. OpenAI, qui a récemment repositionné Codex comme produit à part entière après des années où GPT-4 dominait les usages de codage, cherche à imposer sa présence dans des environnements qu'il ne contrôle pas directement. La question des suites — si Anthropic facilitera ou au contraire limitera ce type d'intégrations concurrentes dans Claude Code — reste ouverte.

UELes développeurs français et européens utilisant Claude Code peuvent désormais accéder aux capacités de Codex sans changer d'environnement, élargissant concrètement leur palette d'outils IA.

OutilsOutil
1 source
Le code source de Claude Code semble avoir fuité : ce que l'on sait
28VentureBeat AI 

Le code source de Claude Code semble avoir fuité : ce que l'on sait

Un fichier de débogage de 59,8 Mo a été accidentellement inclus dans la version 2.1.88 du package @anthropic-ai/claude-code publié sur le registre npm tôt ce matin. Ce fichier .map, destiné à un usage interne, contenait l'intégralité du code source TypeScript de Claude Code — environ 512 000 lignes. À 4h23 du matin (heure de l'Est), Chaofan Shou, un stagiaire chez Solayer Labs, a publié la découverte sur X avec un lien direct vers une archive téléchargeable. En quelques heures, le code était dupliqué sur GitHub et analysé par des milliers de développeurs. Anthropic, dont le chiffre d'affaires annualisé est estimé à 19 milliards de dollars en mars 2026, n'a pas encore commenté officiellement l'incident. La fuite est stratégiquement dévastatrice pour une raison précise : Claude Code représente à lui seul 2,5 milliards de dollars de revenus récurrents annualisés, un chiffre qui a plus que doublé depuis janvier 2026, avec 80 % du revenu issu des entreprises. Le code exposé constitue un véritable plan de construction pour les concurrents — de Cursor aux grands acteurs — sur la manière de concevoir un agent IA fiable et commercialement viable. L'architecture mémoire en trois couches dévoilée est particulièrement précieuse : au lieu de tout stocker, le système utilise un fichier MEMORY.md léger comme index de pointeurs, distribuant la connaissance dans des fichiers thématiques chargés à la demande, tandis que les transcriptions brutes ne sont jamais relues intégralement mais parcourues par recherche ciblée. Ce système de "mémoire sceptique" force l'agent à vérifier les faits contre le code réel avant d'agir, évitant les hallucinations lors de sessions longues. Le code révèle également "KAIROS" — référence grecque au "moment opportun" — un mode daemon autonome mentionné plus de 150 fois dans la source. Cette fonctionnalité non annoncée permet à Claude Code de fonctionner en arrière-plan en continu : lorsque l'utilisateur est inactif, un processus appelé autoDream consolide la mémoire de l'agent, fusionne les observations disparates et élimine les contradictions, de sorte que le contexte soit propre et pertinent au retour de l'utilisateur. Cette fuite survient dans un contexte de concurrence acharnée sur le marché des agents IA codeurs, où chaque avantage architectural représente des mois de R&D. Anthropic se retrouve dans la position inconfortable d'avoir involontairement offert à ses rivaux une fenêtre rare sur ses choix d'ingénierie les plus avancés.

BusinessOpinion
1 source
OpenAI met à jour Codex pour automatiser vos flux de travail – et mieux rivaliser avec Claude Code
29ZDNET FR 

OpenAI met à jour Codex pour automatiser vos flux de travail – et mieux rivaliser avec Claude Code

OpenAI a annoncé une mise à jour significative de Codex, son assistant de programmation, en lui ajoutant un système de plugins destiné à étendre ses capacités bien au-delà de la simple génération de code. Ces nouveaux connecteurs permettent à Codex de s'intégrer directement dans des environnements de développement, d'automatiser des flux de travail complets — tests, déploiement, gestion de dépendances — et d'interagir avec des outils tiers. L'objectif déclaré est de faire de Codex un agent de développement polyvalent, capable d'agir de manière autonome sur l'ensemble du cycle de vie d'un projet logiciel. Cette évolution place directement Codex en concurrence frontale avec Claude Code, l'outil d'Anthropic qui a conquis une base d'utilisateurs fidèles parmi les développeurs professionnels grâce à sa capacité à opérer de manière agentique dans des environnements complexes. Pour les équipes d'ingénierie, l'enjeu est concret : disposer d'un assistant capable de prendre en charge des tâches répétitives et structurées réduit les coûts de développement et accélère les cycles de livraison. La bataille des assistants de code s'intensifie depuis l'émergence des outils agentiques en 2024. GitHub Copilot, Claude Code, Cursor et désormais un Codex renforcé se disputent un marché en pleine expansion, où la différenciation repose moins sur la qualité brute du code généré que sur la capacité à s'intégrer dans les workflows existants. OpenAI, qui avait initialement lancé Codex comme un simple moteur de complétion, mise désormais sur l'autonomie et l'extensibilité pour reconquérir un terrain cédé à ses concurrents.

OutilsOutil
1 source
OpenAI améliore Codex pour automatiser les workflows et concurrencer Claude Code
30ZDNET AI 

OpenAI améliore Codex pour automatiser les workflows et concurrencer Claude Code

OpenAI a annoncé une mise à jour significative de Codex, son assistant de programmation, en lui ajoutant un système de plugins conçus pour étendre ses capacités bien au-delà de la simple génération de code. Ces nouvelles intégrations permettent à Codex d'automatiser des flux de travail complets, en interagissant avec des outils tiers, des APIs et des services externes directement depuis l'environnement de développement. Cette évolution vise à repositionner Codex face à Claude Code d'Anthropic, qui a pris une avance notable auprès des développeurs professionnels ces derniers mois. En transformant Codex en un agent capable d'agir sur des workflows entiers plutôt que de se limiter à l'écriture de fonctions isolées, OpenAI cherche à récupérer une part de cet écosystème très convoité, où les développeurs constituent une audience stratégique à forte valeur d'influence. La bataille pour le poste de travail des développeurs s'intensifie entre les deux leaders de l'IA générative. Claude Code a su séduire par sa capacité à comprendre des codebases complexes et à exécuter des tâches multi-étapes de façon autonome. OpenAI riposte en misant sur l'extensibilité via les plugins, une stratégie qui rappelle le succès du plugin store de ChatGPT. L'enjeu dépasse le simple outillage : celui qui s'impose dans l'environnement de développement influence directement les choix d'infrastructure et de modèles de toute une génération d'applications IA.

Le mode automatique de Claude Code d'Anthropic devient plus sûr
31The Verge AI 

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
Claude Code lance l’auto mode, pour équilibrer l’autonomie de l’IA et la sécurité
32Blog du Modérateur 

Claude Code lance l’auto mode, pour équilibrer l’autonomie de l’IA et la sécurité

Anthropic a lancé une nouvelle fonctionnalité pour Claude Code appelée « auto mode », permettant aux développeurs de laisser l'agent exécuter des tâches de manière autonome sans validation manuelle à chaque étape. Le système soumet chaque action à un classifieur IA interne avant de l'exécuter, ce qui permet de filtrer automatiquement les opérations risquées ou non souhaitées. Cette approche représente un compromis entre efficacité et sécurité : les développeurs gagnent en productivité en évitant les interruptions constantes, tout en conservant un filet de sécurité automatisé. Le classifieur IA agit comme gardien, évaluant le niveau de risque de chaque action avant qu'elle ne soit appliquée sur le système. L'auto mode s'inscrit dans la tendance croissante des éditeurs d'outils d'IA à proposer des agents plus autonomes, un enjeu majeur alors que ces assistants accèdent de plus en plus à des environnements de production sensibles.

OutilsOutil
1 source
Le nouveau mode automatique de Claude Code cherche à équilibrer sécurité et rapidité
33The Decoder 

Le nouveau mode automatique de Claude Code cherche à équilibrer sécurité et rapidité

Anthropic a lancé un nouveau mode "Auto Mode" pour Claude Code, son outil de développement assisté par IA. Jusqu'ici, les développeurs devaient choisir entre approuver manuellement chaque action exécutée par l'outil ou désactiver complètement les vérifications de sécurité — deux extrêmes peu satisfaisants. Ce nouveau mode intermédiaire cherche à trouver le bon équilibre entre sécurité et fluidité d'utilisation. Il permettrait à Claude Code d'agir de façon autonome pour les opérations courantes, tout en sollicitant une confirmation humaine pour les actions potentiellement risquées. Claude Code s'inscrit dans la vague des agents de développement IA capables d'écrire, modifier et exécuter du code de façon semi-autonome. La question du contrôle humain est centrale dans ce secteur, où trop de friction freine l'adoption et trop d'autonomie pose des risques réels.

OutilsOutil
1 source
Anthropic donne plus d'autonomie à Claude Code, mais garde le contrôle
34TechCrunch AI 

Anthropic donne plus d'autonomie à Claude Code, mais garde le contrôle

Anthropic lance un mode automatique pour Claude Code, permettant à l'IA d'exécuter des tâches avec moins d'approbations humaines. Cette évolution reflète une tendance plus large vers des outils plus autonomes, tout en maintenant des garde-fous intégrés pour équilibrer vitesse et sécurité.

OutilsOutil
1 source
Claude Code peut désormais prendre le contrôle de votre ordinateur pour effectuer des tâches
36Ars Technica AI 

Claude Code peut désormais prendre le contrôle de votre ordinateur pour effectuer des tâches

Anthropic a annoncé que Claude Code peut désormais prendre le contrôle direct du bureau d'un ordinateur local — clics, défilement, navigation — pour accomplir des tâches comme ouvrir des fichiers, utiliser le navigateur ou lancer des outils de développement. Cette fonctionnalité, pilotable à distance via l'outil Dispatch, est disponible en "research preview" pour les abonnés Claude Pro et Max sur MacOS. Anthropic précise que cette approche reste plus lente et sujette aux erreurs que l'utilisation des Connectors, qui restent la méthode privilégiée quand une intégration directe est disponible.

UELes abonnés européens à Claude Pro et Max peuvent accéder à cette fonctionnalité de contrôle du bureau en avant-première sur MacOS.

OutilsOutil
1 source
Claude Code et Cowork d'Anthropic peuvent contrôler votre ordinateur
37The Verge AI 

Claude Code et Cowork d'Anthropic peuvent contrôler votre ordinateur

Anthropic a mis à jour Claude pour lui permettre d'effectuer des tâches de manière autonome sur votre ordinateur via ses outils Code et Cowork, notamment ouvrir des fichiers, utiliser des navigateurs et lancer des outils de développement sans configuration préalable. Cette fonctionnalité, disponible en aperçu de recherche pour les abonnés Claude Pro et Max, est pour l'instant limitée à macOS. Elle s'appuie sur les capacités autonomes introduites avec le modèle Claude 3.5 Sonnet en 2024.

UELes abonnés européens de Claude Pro et Max pourront accéder à cette fonctionnalité d'automatisation desktop, bien que le déploiement reste limité à macOS pour l'instant.

OutilsOutil
1 source
Computer use : Claude prend le contrôle de votre Mac dans Cowork et Claude Code
38Blog du Modérateur 

Computer use : Claude prend le contrôle de votre Mac dans Cowork et Claude Code

Anthropic a doté Claude de la capacité de contrôler directement la souris, le clavier et le navigateur sur Mac. Cette fonctionnalité "computer use" est désormais disponible dans Cowork et Claude Code, au-delà de la seule API. Elle est accessible à tous les abonnés Claude.

UELes abonnés Claude en France et en Europe peuvent désormais utiliser la fonctionnalité 'computer use' dans Cowork et Claude Code sans nécessiter d'accès API.

OutilsOutil
1 source
Pourquoi Notion abandonne Cursor pour Claude Code et Codex
39The Information AI 

Pourquoi Notion abandonne Cursor pour Claude Code et Codex

Des centaines d'ingénieurs chez Notion abandonnent l'outil Cursor au profit de Claude Code (Anthropic) et Codex (OpenAI). Ce changement reflète une tendance plus large : les développeurs délaissent les assistants de codage intégrés à l'IDE (autocomplétion, etc.) pour des agents capables de réaliser des tâches entières de manière autonome, accessibles même aux non-techniciens. Bien que Cursor propose des agents depuis l'été dernier, sa réputation reste liée aux outils IDE classiques, contrairement à Claude Code et Codex, reconnus pour leurs capacités agentiques avancées.

OutilsOutil
1 source
Avec Channels, Claude Code peut désormais être piloté depuis Discord et Telegram
40Blog du Modérateur 

Avec Channels, Claude Code peut désormais être piloté depuis Discord et Telegram

Claude Code intègre désormais une fonctionnalité appelée Channels, permettant de lui envoyer des requêtes directement depuis Discord ou Telegram. Cette intégration nécessite que la session Claude Code reste active sur la machine du développeur. Cela ouvre la voie à un contrôle à distance de l'agent de code via des messageries grand public.

OutilsOutil
1 source
GitAgent : le Docker des agents IA qui résout enfin la fragmentation entre LangChain, AutoGen et Claude Code
41MarkTechPost 

GitAgent : le Docker des agents IA qui résout enfin la fragmentation entre LangChain, AutoGen et Claude Code

GitAgent est un outil CLI open-source et une spécification qui introduit un format universel et agnostique de framework pour le développement d'agents IA, permettant de découpler la définition d'un agent de son environnement d'exécution. Il s'attaque à la fragmentation actuelle entre les principaux frameworks — LangChain, AutoGen, CrewAI, OpenAI Assistants et Claude Code — en structurant un agent comme un répertoire Git composé de fichiers clés : agent.yaml (manifest), SOUL.md (personnalité), DUTIES.md (responsabilités), ainsi que des dossiers skills/, tools/, rules/ et memory/. Git sert de couche de supervision native : chaque évolution de l'état interne de l'agent (mémoire, compétences) est traitée comme un changement de code, garantissant traçabilité et versioning complet.

OutilsOutil
1 source
Anthropic transforme Claude Code en agent IA permanent grâce à une nouvelle fonctionnalité de canaux
42The Decoder 

Anthropic transforme Claude Code en agent IA permanent grâce à une nouvelle fonctionnalité de canaux

Anthropic lance une nouvelle fonctionnalité "channels" pour Claude Code, permettant à des événements externes — résultats CI, messages de chat — d'alimenter directement une session active. Claude peut ainsi continuer à travailler de manière autonome, sans qu'un développeur soit présent au terminal.

OutilsOutil
1 source
Ce nouvel outil Claude Code Review utilise des agents IA pour détecter les bugs dans vos pull requests. Voici comment cela fonctionne
43ZDNET FR 

Ce nouvel outil Claude Code Review utilise des agents IA pour détecter les bugs dans vos pull requests. Voici comment cela fonctionne

Un nouvel outil appelé Claude Code Review utilise des agents IA pour analyser automatiquement les pull requests et détecter les bugs avant leur fusion. Chaque analyse peut coûter jusqu'à 25 $ par pull request. Malgré ce coût élevé, les entreprises pourraient juger l'investissement rentable pour prévenir des bugs critiques en production.

OutilsOutil
1 source
Pourquoi Anthropic pense que l'IA devrait avoir son propre ordinateur — Felix Rieseberg de Claude Cowork & Claude Code Desktop
44Latent Space 

Pourquoi Anthropic pense que l'IA devrait avoir son propre ordinateur — Felix Rieseberg de Claude Cowork & Claude Code Desktop

Felix Rieseberg, ingénieur chez Anthropic et mainteneur principal d'Electron, a développé Claude Cowork en seulement 10 jours — un outil agentique basé sur une VM qui rend les workflows de Claude Code accessibles aux utilisateurs non-techniques. L'idée est née d'une observation : de nombreux utilisateurs de Claude Code s'en servaient surtout pour des tâches de travail de connaissance (rédaction, organisation) plutôt que pour du code. Anthropic parie sur l'exécution locale et le sandboxing par machine virtuelle comme équilibre entre sécurité et autonomie réelle, permettant à Claude d'installer des outils et exécuter des scripts sans validation constante de l'utilisateur.

OutilsOutil
1 source
Pourquoi la configuration Claude Code de Garry Tan suscite autant d'admiration que de critiques
45TechCrunch AI 

Pourquoi la configuration Claude Code de Garry Tan suscite autant d'admiration que de critiques

La configuration Claude Code de Garry Tan, partagée sur GitHub, suscite un engouement massif avec des milliers d'utilisateurs qui l'ont testée. L'initiative divise les avis : partisans et détracteurs s'affrontent, et même les IA concurrentes — ChatGPT et Gemini — ont donné leur opinion sur le sujet.

OutilsOutil
1 source
46Le Big Data 

Il voulait gagner du temps avec Claude Code : l’IA efface deux ans et demi de travail

Alexey Grigorev, créateur d'AI Shipping Labs, a perdu deux ans et demi de données en confiant à Claude Code l'exécution de commandes Terraform pour migrer son infrastructure vers AWS. Suite à une interruption en cours de migration, il a ajouté un fichier d'état Terraform manquant pour corriger des duplications — ce qui a conduit Terraform à interpréter l'infrastructure existante comme non conforme et à tout détruire. Claude Code a exécuté la commande "destroy" sans résistance, effaçant serveurs, bases de données et les deux sites (AI Shipping Labs et DataTalks.Club) en quelques secondes.

OutilsOpinion
1 source
47Wired AI 

Dans les arrière-plans de la course d'OpenAI pour rattrapper Claude Code

OpenAI se retrouve en retard dans la course aux outils de codage assistés par IA, malgré sa position dominante dans le secteur. Le leader de l'IA doit désormais rattraper des concurrents comme Claude Code d'Anthropic, qui s'est imposé comme référence dans le développement logiciel augmenté par IA.

OutilsActu
1 source
48The Decoder 

Claude Code intègre des agents IA parallèles pour détecter bugs et failles de sécurité dans le code

Anthropic a lancé une fonctionnalité de revue de code pour Claude Code qui vérifie automatiquement les modifications à la recherche d'erreurs avant leur fusion. Cette fonction utilise des agents IA parallèles pour détecter les bugs et les failles de sécurité dans le code soumis.

OutilsOutil
1 source
49MarkTechPost 

Anthropic lance les revues de code Claude Code pour automatiser l'audit de sécurité par raisonnement agentique multi-étapes

Anthropic a lancé des capacités de revue de code agentique dans Claude Code, permettant au modèle d'enchaîner en moyenne 21,2 appels d'outils indépendants — soit une hausse d'autonomie de 116 % en six mois — pour raisonner sur l'ensemble d'un dépôt plutôt que fichier par fichier. Lors d'un pilote avec Mozilla Firefox, Claude Opus 4.6 a détecté 22 vulnérabilités en deux semaines, dont 14 classées haute sévérité, un résultat comparable à ce que la communauté mondiale de sécurité produit en une année entière. L'outil s'appuie sur le Model Context Protocol (MCP) et intègre une boucle d'auto-correction pour filtrer les faux positifs, tout en proposant des correctifs directement applicables depuis le CLI.

OutilsOutil
1 source
50Blog du Modérateur 

Anthropic déploie progressivement un mode vocal sur Claude Code

Anthropic lance un mode vocal pour son assistant de développement, Claude Code, complétant la fonctionnalité introduite pour Claude il y a quelques mois.

RechercheActu
1 source