Aller au contenu principal
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
OutilsArs Technica AI6j

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

2 sources couvrent ce sujet·Source originale ↗·
Egalement couvert par :Next INpact

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic.

La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées <tick> pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail."

Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

Impact France/UE

Le système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Le point de vue du dev

Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

À lire aussi

1The Information AI 

Une startup crée un logiciel de gestion de code pour les adeptes du tokenmaxxing

GitButler, une startup berlinoise spécialisée dans la gestion de code, vient de lever 17 millions de dollars lors d'un tour de table de série A mené par Andreessen Horowitz. L'opération inclut également les investisseurs existants A.Capital Ventures et Fly Ventures. L'annonce a été faite par Scott Chacon, PDG de l'entreprise, qu'il a cofondée il y a trois ans avec les entrepreneurs Anne Leuschner et Kiril Videlov. Le logiciel de GitButler vise à faciliter la coordination entre développeurs humains et agents de codage IA, en modernisant les outils de gestion de versions qui existent depuis plusieurs décennies. Cette levée de fonds s'inscrit dans un contexte où les entreprises technologiques poussent leurs équipes à utiliser massivement l'IA pour écrire du code. Meta, notamment, a vu émerger en interne un classement informel mesurant quels ingénieurs consomment le plus de tokens IA, une pratique baptisée "tokenmaxxing". Cette course à l'utilisation de l'IA génère une demande croissante pour des outils capables d'organiser, de tracer et de superviser le code produit par ces agents, qui travaillent en parallèle des développeurs humains et à un rythme que les systèmes traditionnels de contrôle de versions peinent à suivre. Les outils de versioning classiques comme Git ont été conçus pour un flux de travail entièrement humain, où les modifications sont soumises de façon réfléchie et espacée. L'irruption d'agents IA capables de générer des milliers de lignes de code en continu bouscule ces paradigmes établis. GitButler parie que ce changement structurel crée un nouveau marché pour des couches logicielles intermédiaires entre les agents et les dépôts de code. Avec le soutien d'Andreessen Horowitz, l'un des fonds les plus influents de la Silicon Valley, la startup dispose désormais des ressources pour s'imposer dans cet espace encore peu défriché, à mesure que le "tokenmaxxing" se généralise au-delà de Meta.

UEGitButler, startup berlinoise, s'impose comme acteur européen des outils de développement IA avec ce financement d'Andreessen Horowitz, renforçant l'écosystème tech allemand face à la Silicon Valley.

OutilsActu
1 source
2Next INpact 

[Tuto] Utiliser des IA génératives en local et influence du GPU sur les performances

Faire tourner un grand modèle de langage sur sa propre machine est désormais accessible à quiconque dispose d'un ordinateur suffisamment puissant. Des outils comme Ollama permettent d'installer et d'utiliser localement des LLM tels que Mistral, LLaMA ou Qwen, sans connexion internet et sans envoyer la moindre donnée à un serveur tiers. L'article propose un tutoriel pas à pas pour configurer cet environnement en local, accompagné d'un comparatif de performances entre deux configurations : un serveur équipé de 24 cœurs CPU sans GPU, et un autre disposant d'une carte graphique dédiée. Le résultat est sans appel : l'écart de vitesse d'inférence entre les deux setups est énorme, le GPU surclassant massivement le CPU seul pour ce type de charge de travail. L'enjeu central est la confidentialité des données. Utiliser ChatGPT, Claude ou Le Chat implique d'envoyer ses requêtes sur les serveurs d'OpenAI, Anthropic ou Mistral, où elles peuvent potentiellement servir à l'entraînement ou à l'amélioration des modèles. Pour les professionnels manipulant des données sensibles, documents juridiques, médicaux, financiers, code propriétaire, cette dépendance aux infrastructures cloud représente un risque réel. L'exécution locale supprime complètement ce vecteur : le modèle tourne sur la machine de l'utilisateur, les données n'en sortent jamais. C'est aussi une question d'autonomie : pas de quota d'API, pas d'abonnement mensuel, pas de coupure de service. Deux contraintes techniques conditionnent la faisabilité de cette approche. D'abord la mémoire : les poids d'un modèle de 7 milliards de paramètres occupent environ 4 à 8 Go selon le niveau de quantisation, tandis qu'un modèle de 70 milliards en requiert facilement 40 Go ou plus. Ensuite la puissance de calcul : un GPU accélère les opérations matricielles qui constituent le cœur de l'inférence, là où un CPU seul produit des réponses lentes et difficilement utilisables en pratique. Cette architecture locale n'est pas nouvelle, la communauté open source travaille dessus depuis la publication de LLaMA par Meta en 2023, mais elle est devenue beaucoup plus accessible grâce à des outils comme Ollama, LM Studio ou llama.cpp, qui abstraient la complexité technique. L'essor des modèles compacts et quantisés (3B, 7B, 14B paramètres) rend aujourd'hui possible une expérience satisfaisante même sur du matériel grand public, à condition de disposer d'une carte graphique avec suffisamment de VRAM.

UELes professionnels européens soumis au RGPD peuvent éliminer le risque d'envoi de données sensibles vers des serveurs américains en exécutant leurs modèles en local.

OutilsTuto
1 source
3Le Big Data 

OpenClaw vs ChatGPT : quel agent IA local bat le roi du cloud ?

En 2026, le débat entre agents IA locaux et solutions cloud a pris une nouvelle dimension avec l'émergence d'OpenClaw, un agent dit "skills-based" qui s'exécute directement sur la machine de l'utilisateur. Contrairement à ChatGPT Agent, le mode Operator d'OpenAI lancé dans le courant de l'année, OpenClaw accède au terminal, manipule les fichiers locaux, gère les dépôts Git et peut tourner en arrière-plan même session fermée, envoyant des notifications sur Discord à la fin d'une tâche. ChatGPT Agent fonctionne lui exclusivement dans le navigateur : l'IA clique, défile et remplit des formulaires à la place de l'utilisateur, mais s'arrête dès que l'onglet est fermé. Sur le plan tarifaire, OpenClaw revient à environ 10 à 30 dollars par mois selon la consommation d'API, contre 20 dollars fixes pour l'abonnement ChatGPT Plus incluant l'accès au mode Operator. La différence fondamentale entre les deux approches tient à la souveraineté des données et à la flexibilité technique. Avec OpenClaw, l'utilisateur choisit lui-même ses modèles, Claude 3.5 pour les raisonnements complexes, Llama 3 ou Kimi pour les tâches répétitives, afin d'optimiser ses coûts, tandis que ChatGPT impose l'écosystème OpenAI sans possibilité de substitution. La mémoire d'OpenClaw est persistante via des fichiers stockés sur disque ; celle de ChatGPT Agent est éphémère, réinitialisée à chaque session. Pour les professionnels qui valorisent l'intégration profonde dans leur environnement de travail, scripts actifs, assets locaux, automatisations conditionnelles, l'agent local représente un levier que le cloud ne peut pas reproduire. Nvidia a par ailleurs introduit NemoClaw, une couche de sécurité greffable sur OpenClaw pour encadrer les actions de l'agent et prévenir les comportements non désirés, comblant l'un des reproches traditionnels faits aux solutions locales. Ce duel s'inscrit dans un basculement plus large du marché de l'IA : on ne parle plus de simples chatbots, mais d'agents capables d'agir de manière autonome sur des systèmes réels. OpenAI a misé sur l'accessibilité maximale avec une interface sans friction, au prix d'un contrôle réduit pour l'utilisateur. OpenClaw, porté par une communauté technique exigeante, répond à un besoin croissant de confidentialité et d'autonomie, notamment dans les secteurs sensibles, finance, santé, défense, où héberger des données sur des serveurs tiers reste rédhibitoire. La vraie question pour 2026 n'est donc pas laquelle des deux IA est "plus intelligente", mais laquelle correspond au niveau de contrôle et de confiance que chaque utilisateur est prêt à exercer sur ses outils numériques.

UELa souveraineté des données mise en avant par OpenClaw répond aux exigences du RGPD et aux contraintes des secteurs réglementés en France et en UE (finance, santé, défense), où l'hébergement tiers reste problématique.

OutilsOutil
1 source
Cloudflare et GoDaddy s’allient pour permettre aux sites de bloquer les bots IA
4Siècle Digital 

Cloudflare et GoDaddy s’allient pour permettre aux sites de bloquer les bots IA

Cloudflare et GoDaddy ont annoncé un partenariat visant à donner aux propriétaires de sites web un contrôle direct sur les robots d'intelligence artificielle qui explorent leurs pages. Concrètement, GoDaddy va intégrer l'outil AI Crawl Control de Cloudflare dans sa plateforme d'hébergement, utilisée par des millions de sites à travers le monde. Via un tableau de bord simplifié, les propriétaires pourront autoriser ou bloquer individuellement les crawlers des grands modèles d'IA, ceux d'OpenAI, Anthropic, Google, Meta ou d'autres acteurs, sans avoir à modifier manuellement leur fichier robots.txt. L'enjeu est considérable pour les créateurs de contenu, éditeurs et développeurs indépendants qui voient leurs textes, images et données aspirés massivement par des entreprises d'IA sans consentement ni compensation. Ce type d'outil leur restitue une capacité de négociation concrète : bloquer certains acteurs, en autoriser d'autres, voire conditionner l'accès à des accords commerciaux. Pour l'industrie, c'est un signal fort que la question du droit à l'extraction de données web entre dans une phase de normalisation technique. Ce partenariat s'inscrit dans un contexte de tension croissante entre les éditeurs de contenu et les entreprises d'IA générative. Plusieurs procès sont en cours, notamment contre OpenAI et Google, pour utilisation non autorisée de contenus protégés dans l'entraînement de modèles. Cloudflare, qui traite une part massive du trafic internet mondial, se positionne ainsi comme un acteur clé de la gouvernance du web à l'ère de l'IA, aux côtés de partenaires comme GoDaddy dont la base d'utilisateurs garantit une adoption rapide et large.

UELes éditeurs et créateurs de contenu européens hébergés chez GoDaddy disposent désormais d'un outil concret pour bloquer individuellement les crawlers IA, ce qui renforce leur position dans les débats européens sur le droit d'auteur et l'extraction de données encadrée par l'AI Act.

OutilsActu
1 source