Aller au contenu principal
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
OutilsArs Technica AI6sem

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

Résumé IASources croisées · 2Impact UETake éditorial
Source originale ↗·
Egalement couvert par :Next INpact

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic.

La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées <tick> pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail."

Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

Impact France/UE

Le système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Le point de vue du dev

Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le mode automatique de Claude Code d'Anthropic devient plus sûr
1The Verge AI 

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
Anthropic lance Claude Platform sur AWS, accessible depuis votre compte
2AWS ML Blog 

Anthropic lance Claude Platform sur AWS, accessible depuis votre compte

Anthropic a annoncé le 11 mai 2026 la disponibilité générale de Claude Platform on AWS, un nouveau service permettant aux clients Amazon Web Services d'accéder directement à la plateforme native d'Anthropic via leur compte AWS, sans avoir besoin de contrat séparé, de credentials distincts ni de relation de facturation indépendante. AWS devient ainsi le premier fournisseur cloud à proposer l'expérience native Claude Platform. Concrètement, les développeurs accèdent aux mêmes API et fonctionnalités que ceux qui passent directement par Anthropic : l'API Messages, Claude Managed Agents (en bêta), la recherche web, le connecteur MCP (en bêta), les Agent Skills (en bêta), l'exécution de code et l'API Files. L'authentification repose sur les credentials IAM existants d'AWS, la facturation s'effectue via AWS Marketplace à la consommation, et toute l'activité est tracée dans AWS CloudTrail. Ce lancement simplifie considérablement l'adoption de l'IA pour les équipes déjà ancrées dans l'écosystème AWS. Là où il fallait auparavant gérer des comptes distincts, des clés API séparées et des lignes budgétaires parallèles, tout se consolide désormais dans une seule console, un seul budget et un seul système d'audit. Les directions techniques et les équipes de conformité y trouvent un avantage immédiat : la traçabilité CloudTrail permet de superviser les usages de l'IA exactement comme n'importe quel autre service AWS. Pour les entreprises qui déploient des applications à grande échelle, la possibilité de segmenter les projets, les environnements et les équipes via des workspaces avec des politiques IAM granulaires représente un gain organisationnel significatif. Ce service s'inscrit dans une tendance de fond où les grands fournisseurs de modèles cherchent à réduire la friction d'adoption en s'intégrant dans les infrastructures cloud existantes plutôt qu'en imposant des écosystèmes parallèles. Anthropic propose déjà ses modèles Claude via Amazon Bedrock, mais Claude Platform on AWS va plus loin en donnant accès à la plateforme complète, y compris les fonctionnalités en bêta les plus récentes. Il convient de noter que le service est opéré par Anthropic et que les données sont traitées en dehors du périmètre de sécurité d'AWS, ce qui le positionne davantage pour les équipes sans exigences strictes de résidence régionale des données. La prochaine étape probable sera l'extension à d'autres fournisseurs cloud et l'intégration progressive des fonctionnalités bêta vers la disponibilité générale, consolidant ainsi la stratégie de distribution multicanal d'Anthropic.

UELes entreprises européennes hébergées sur AWS peuvent désormais accéder à Claude Platform directement depuis leur console AWS, mais les données étant traitées hors du périmètre sécurisé d'AWS, les acteurs soumis au RGPD devront vérifier la conformité avant toute adoption.

OutilsOutil
1 source
Anthropic lance Claude pour les PME afin d'intégrer l'IA dans vos outils du quotidien
3The Decoder 

Anthropic lance Claude pour les PME afin d'intégrer l'IA dans vos outils du quotidien

Anthropic a lancé "Claude for Small Business", une offre dédiée aux petites entreprises qui regroupe quinze workflows agentiques et des intégrations natives avec des outils de gestion largement répandus comme QuickBooks, PayPal et HubSpot. La société déploie simultanément des formations gratuites en ligne et une tournée d'ateliers dans dix villes américaines, afin d'accompagner concrètement les entrepreneurs dans la prise en main de ces nouvelles fonctionnalités. L'initiative cible un segment souvent délaissé par les grandes offres IA d'entreprise : les PME et TPE qui utilisent déjà ces logiciels de comptabilité, de paiement ou de CRM au quotidien, mais sans exploiter leur potentiel d'automatisation. En intégrant Claude directement dans ces outils, Anthropic cherche à réduire la friction d'adoption : pas besoin d'une équipe technique, l'IA s'active là où le travail se fait déjà. L'impact potentiel est significatif, car QuickBooks comptabilise à lui seul plusieurs millions de petites entreprises clientes aux États-Unis. Cette offensive s'inscrit dans une compétition féroce pour capter le marché des PME, où OpenAI, Google et Microsoft positionnent également leurs modèles via des partenariats avec des éditeurs de logiciels. Anthropic, longtemps perçu comme orienté grands comptes et recherche, signale ainsi une volonté claire d'élargir sa base d'utilisateurs vers le tissu économique plus diffus des indépendants et petites structures. La tournée nationale de workshops suggère une stratégie de croissance fondée autant sur l'éducation que sur la technologie.

UELes PME françaises utilisant HubSpot, PayPal ou QuickBooks pourraient accéder aux intégrations Claude, mais la tournée d'ateliers et la stratégie d'accompagnement restent exclusivement ciblées sur le marché américain.

OutilsOutil
1 source
Une fuite sur Claude Code révèle l'agent 'Kairos', toujours actif
4The Information AI 

Une fuite sur Claude Code révèle l'agent 'Kairos', toujours actif

Anthropic a connu sa deuxième fuite d'information en l'espace d'une semaine. Mardi, la société a reconnu avoir accidentellement publié une partie du code source de Claude Code, son agent de programmation, dans un dépôt public utilisé habituellement pour diffuser sa documentation technique. L'incident fait suite à la publication involontaire, la semaine précédente, de détails sur son prochain modèle phare Claude Mythos. Dans ce cas précis, un employé a joint par erreur le code source dans un fichier uploadé sur ce dépôt accessible à tous. Si la fuite ne compromet pas les poids propriétaires des modèles d'Anthropic — ce qui constituerait une menace bien plus grave — elle expose en revanche à la concurrence des fonctionnalités inédites prévues pour Claude Code. La plus notable est baptisée Kairos (du grec ancien, signifiant « le moment opportun ») : un ensemble de mises à jour permettant à Claude de travailler en arrière-plan de manière autonome, en envoyant des notifications de progression sur le téléphone de l'utilisateur. Kairos intègre également un « dream mode » chargé de consolider automatiquement les souvenirs de Claude issus de sessions passées, ainsi qu'une fonction dite « proactive » invitant l'agent à « prendre des initiatives — explorer, agir et progresser sans attendre d'instructions ». Cette double mésaventure survient à un moment où Anthropic cherche à s'imposer face à des concurrents comme OpenAI et Google dans le segment des agents IA autonomes, un marché en pleine effervescence. La course aux agents capables d'opérer de façon continue, sans supervision humaine constante, est devenue l'un des principaux axes de différenciation dans l'industrie. Kairos illustre précisément cette ambition : transformer Claude d'un assistant réactif en un agent proactif capable de gérer des tâches longues en toile de fond. La transparence forcée sur ces fonctionnalités pourrait accélérer leur adoption par des rivaux, même si Anthropic conserve l'avantage de l'exécution et de l'intégration dans son écosystème existant.

UELes développeurs européens utilisant Claude Code pourraient voir ces fonctionnalités agentiques accélérées si la concurrence copie les détails exposés par cette fuite.

💬 Kairos, c'est le truc qu'on voit partout dans les roadmaps mais que personne n'avait encore vraiment sorti. Un agent qui consolide ses souvenirs entre sessions, qui bosse en fond et te ping sur le téléphone, bon, sur le papier c'est exactement ce qu'il faut. La fuite est maladroite, mais ça accélère la pression sur Google et OpenAI pour sortir l'équivalent.

OutilsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour