Aller au contenu principal
Une fuite sur Claude Code révèle l'agent 'Kairos', toujours actif
OutilsThe Information AI6sem

Une fuite sur Claude Code révèle l'agent 'Kairos', toujours actif

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Anthropic a connu sa deuxième fuite d'information en l'espace d'une semaine. Mardi, la société a reconnu avoir accidentellement publié une partie du code source de Claude Code, son agent de programmation, dans un dépôt public utilisé habituellement pour diffuser sa documentation technique. L'incident fait suite à la publication involontaire, la semaine précédente, de détails sur son prochain modèle phare Claude Mythos. Dans ce cas précis, un employé a joint par erreur le code source dans un fichier uploadé sur ce dépôt accessible à tous.

Si la fuite ne compromet pas les poids propriétaires des modèles d'Anthropic — ce qui constituerait une menace bien plus grave — elle expose en revanche à la concurrence des fonctionnalités inédites prévues pour Claude Code. La plus notable est baptisée Kairos (du grec ancien, signifiant « le moment opportun ») : un ensemble de mises à jour permettant à Claude de travailler en arrière-plan de manière autonome, en envoyant des notifications de progression sur le téléphone de l'utilisateur. Kairos intègre également un « dream mode » chargé de consolider automatiquement les souvenirs de Claude issus de sessions passées, ainsi qu'une fonction dite « proactive » invitant l'agent à « prendre des initiatives — explorer, agir et progresser sans attendre d'instructions ».

Cette double mésaventure survient à un moment où Anthropic cherche à s'imposer face à des concurrents comme OpenAI et Google dans le segment des agents IA autonomes, un marché en pleine effervescence. La course aux agents capables d'opérer de façon continue, sans supervision humaine constante, est devenue l'un des principaux axes de différenciation dans l'industrie. Kairos illustre précisément cette ambition : transformer Claude d'un assistant réactif en un agent proactif capable de gérer des tâches longues en toile de fond. La transparence forcée sur ces fonctionnalités pourrait accélérer leur adoption par des rivaux, même si Anthropic conserve l'avantage de l'exécution et de l'intégration dans son écosystème existant.

Impact France/UE

Les développeurs européens utilisant Claude Code pourraient voir ces fonctionnalités agentiques accélérées si la concurrence copie les détails exposés par cette fuite.

💬 Le point de vue du dev

Kairos, c'est le truc qu'on voit partout dans les roadmaps mais que personne n'avait encore vraiment sorti. Un agent qui consolide ses souvenirs entre sessions, qui bosse en fond et te ping sur le téléphone, bon, sur le papier c'est exactement ce qu'il faut. La fuite est maladroite, mais ça accélère la pression sur Google et OpenAI pour sortir l'équivalent.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
1Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

OutilsOutil
1 source
Une fuite dans Claude Code dévoile un compagnon virtuel style Tamagotchi et un agent permanent
2The Verge AI 

Une fuite dans Claude Code dévoile un compagnon virtuel style Tamagotchi et un agent permanent

La mise à jour 2.1.88 de Claude Code, l'outil de programmation assistée par IA d'Anthropic, a accidentellement exposé plus de 512 000 lignes de code source TypeScript via un fichier de source map inclus dans le package. Un utilisateur sur X a rapidement repéré la fuite et partagé publiquement le fichier, déclenchant une vague d'analyse par la communauté. Les médias Ars Technica et VentureBeat ont relayé les découvertes, qui révèlent le fonctionnement interne de l'outil, les instructions système envoyées au modèle, ainsi que l'architecture de sa mémoire persistante. Parmi les fonctionnalités inédites identifiées dans le code figurerait un agent toujours actif en arrière-plan — un mode dit "always-on" — ainsi qu'une sorte de "Tamagotchi", un compagnon virtuel intégré à l'outil. Ces découvertes donnent un aperçu rare de la direction produit d'Anthropic, normalement jalousement gardée. Pour les développeurs qui utilisent Claude Code au quotidien, la fuite expose également les prompts système et la logique de mémorisation, ce qui soulève des questions sur la transparence des outils IA et la confiance accordée à ces assistants. Anthropic n'avait pas communiqué officiellement sur ces fonctionnalités, ce qui rend la fuite d'autant plus significative. Elle intervient dans un contexte de concurrence intense entre outils de coding IA — GitHub Copilot, Cursor, Gemini Code Assist — où chaque acteur cherche à différencier son produit. L'incident rappelle les risques liés aux source maps incluses dans les builds de production, une pratique qui expose involontairement du code propriétaire. Aucune réponse officielle d'Anthropic n'avait été publiée au moment des faits.

UELes développeurs européens utilisant Claude Code sont indirectement concernés par les questions de transparence sur les prompts système et la logique de mémorisation intégrée à l'outil.

OutilsOutil
1 source
Agent View débarque sur Claude Code : votre armée d’agents IA en une vue
3Le Big Data 

Agent View débarque sur Claude Code : votre armée d’agents IA en une vue

Anthropic a lancé une nouvelle fonctionnalité appelée Agent View pour son outil Claude Code, disponible dès la version 2.1.139 de l'application. Accessible via la commande claude agents dans le terminal, cette interface regroupe l'ensemble des sessions d'agents actives dans un tableau de bord unique intégré directement à l'environnement de développement. Elle est disponible pour tous les abonnements Pro, Max, Team et Enterprise, ainsi que via l'API Claude, dans le respect des limites de débit habituelles. Les administrateurs d'organisation disposent par ailleurs de la possibilité de désactiver la fonctionnalité depuis les paramètres centraux. Chaque ligne du tableau de bord représente une session Claude Code avec son état en temps réel : en cours, en attente de réponse humaine, terminée, inactive, arrêtée ou en échec. Pour les équipes de développeurs qui orchestrent plusieurs tâches simultanées, Agent View change concrètement la façon de travailler. Jusqu'ici, gérer plusieurs agents en parallèle signifiait jongler entre de multiples fenêtres de terminal, sans vue d'ensemble claire sur l'état de chaque processus. Désormais, un développeur peut lancer en parallèle des agents chargés de correctifs, de tests, de revues de code ou de mises à jour, passer de l'un à l'autre sans friction, reprendre une session suspendue à tout moment, et surtout identifier immédiatement les agents qui nécessitent une intervention humaine. Ce gain de visibilité est particulièrement précieux dans les environnements d'intégration continue où le temps perdu à chercher quelle tâche est bloquée peut coûter cher. Cette mise à jour s'inscrit dans une stratégie plus large qu'Anthropic mène depuis plusieurs mois pour transformer Claude Code en véritable plateforme de gestion d'agents IA pour les équipes techniques. L'entreprise avait déjà introduit successivement les sous-agents, les équipes d'agents, les compétences personnalisées, les hooks, les commandes à distance, les tâches programmées et une version web de Claude Code. Agent View est en quelque sorte la pièce qui manquait : elle consolide tous ces blocs épars en une interface cohérente. Anthropic cherche clairement à sortir Claude Code du statut d'assistant à l'écriture de code pour en faire un outil d'orchestration de workflows autonomes, en concurrence directe avec des environnements comme GitHub Copilot Workspace ou les solutions agentiques de Google DeepMind. La question qui reste ouverte est celle de la fiabilité à grande échelle : plus les agents sont nombreux et autonomes, plus la capacité à détecter rapidement les échecs devient critique, et c'est précisément ce que vise Agent View.

OutilsOutil
1 source
[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création
4Latent Space 

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création

OpenAI a déployé cette semaine une mise à jour majeure de Codex, repositionnant l'outil bien au-delà du code pour en faire un agent universel de travail sur ordinateur. Intitulée « Codex for Work », cette évolution introduit un navigateur réactif 42 % plus rapide, de nouvelles commandes comme /chronicle et /goal, une interface de planification inédite et un éditeur de fichiers intégré pour les formats Microsoft Office, avec des connexions directes aux suites Microsoft, Google et Salesforce. Sam Altman a personnellement amplifié le lancement sur X en invitant les utilisateurs à « essayer Codex pour les tâches non-coding ». Dans le même temps, Anthropic a lancé Claude Security, un outil de revue de code axé sur la détection de vulnérabilités, et a annoncé le support de logiciels créatifs majeurs : Blender, Autodesk, Adobe Creative Cloud, Ableton, Splice, Canva et Affinity. Sur le front des évaluations, le UK AI Security Institute a signalé que GPT-5.5 est devenu le deuxième modèle à compléter de bout en bout une simulation d'attaque informatique multi-étapes, avec un taux de réussite moyen de 71,4 % contre 68,6 % pour Claude Mythos Preview. Ces annonces marquent un tournant stratégique dans la compétition entre les deux leaders de l'IA générative. En transformant Codex en agent généraliste, OpenAI cherche à capturer un marché bien plus large que le développement logiciel : les travailleurs du savoir, analystes, juristes, marketeurs et consultants, qui passent leurs journées entre documents, présentations et feuilles de calcul. L'interface dynamique adoptée par Codex, qui laisse l'agent choisir lui-même l'expérience utilisateur selon la nature de la tâche plutôt qu'un simple bouton de bascule, illustre une ambition de « SuperApp » pleinement assumée. Du côté d'Anthropic, l'intégration aux outils créatifs professionnels ouvre Claude à un public radicalement différent : graphistes, musiciens, vidéastes. Quant aux résultats cyber de GPT-5.5, ils remettent en cause l'avantage qu'Anthropic était supposé détenir dans l'automatisation offensive, les performances du modèle continuant de progresser au-delà de 100 millions de tokens d'inférence sans signe de saturation visible. Ces évolutions s'inscrivent dans une dynamique que les observateurs du secteur nomment « la sortie de confinement des agents de coding » : les outils initialement conçus pour les développeurs commencent à coloniser l'ensemble du travail sur ordinateur. OpenAI productise désormais activement l'interface « agent computer-use », tandis qu'Anthropic mise sur la sécurité et la créativité pour différencier Claude. GPT-5.5 Pro envoie également un signal économique notable : selon Artificial Analysis, il améliore légèrement les scores sur le benchmark CritPt par rapport à GPT-5.4 Pro tout en réduisant les coûts d'environ 60 %, suggérant qu'OpenAI parie autant sur l'efficacité que sur la puissance brute. Les prochaines semaines diront si ces repositionnements trouvent un écho réel auprès des utilisateurs non-techniques que les deux entreprises cherchent désormais à conquérir.

UELes nouveaux outils d'OpenAI et Anthropic (Codex for Work, Claude Security, intégrations créatives) sont accessibles aux professionnels européens, mais les résultats du UK AI Security Institute sur les capacités offensives de GPT-5.5 interpellent les régulateurs de l'UE sur les implications de l'AI Act pour les modèles à double usage.

💬 OpenAI fait sortir Codex du code pour aller chercher les consultants et les juristes, et l'interface qui s'adapte toute seule à la tâche sans bascule manuelle, c'est là que le truc est sérieux. Claude dans Blender et Ableton, je l'attendais pas, mais ça a du sens comme différenciation. Et GPT-5.5 qui boucle des simulations d'attaque cyber à 71%, ça, ça va faire causer bien au-delà du secteur IA.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour