Aller au contenu principal
Le mode automatique de Claude Code d'Anthropic devient plus sûr
OutilsThe Verge AI6sem

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Résumé IASource uniqueImpact UE
Source originale ↗·

Anthropic vient de déployer un mode automatique pour Claude Code, son agent de développement IA. Cette nouvelle fonctionnalité permet à l'IA de prendre des décisions de permissions de manière autonome, sans solliciter l'utilisateur à chaque étape — tout en maintenant un filet de sécurité contre les actions potentiellement dangereuses.

L'enjeu est de taille pour les développeurs qui utilisent des agents IA en mode autonome. Jusqu'ici, le choix se résumait à une surveillance constante et fastidieuse, ou à une autonomie totale exposant l'utilisateur à des risques réels. Ce mode auto se positionne comme une troisième voie, particulièrement pertinente pour les profils dits vibe coders — ces développeurs qui délèguent largement à l'IA sans superviser chaque action.

Claude Code étant capable d'agir de manière indépendante, il pouvait jusqu'alors exécuter des opérations non souhaitées : suppression de fichiers, exfiltration de données sensibles, exécution de code malveillant ou de commandes cachées. Le mode automatique est conçu pour détecter et bloquer ces actions à risque avant leur exécution, en offrant à l'agent la possibilité de proposer une alternative plus sûre plutôt que de simplement échouer.

Cette initiative d'Anthropic s'inscrit dans une réflexion plus large sur la sécurité des agents IA autonomes, un sujet devenu central alors que ces outils s'imposent progressivement dans les workflows de développement professionnels. La question de la confiance accordée à un agent — et de ses limites — sera déterminante pour l'adoption massive de ces technologies.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic donne plus d'autonomie à Claude Code, mais garde le contrôle
1TechCrunch AI 

Anthropic donne plus d'autonomie à Claude Code, mais garde le contrôle

Anthropic lance un mode automatique pour Claude Code, permettant à l'IA d'exécuter des tâches avec moins d'approbations humaines. Cette évolution reflète une tendance plus large vers des outils plus autonomes, tout en maintenant des garde-fous intégrés pour équilibrer vitesse et sécurité.

OutilsOutil
1 source
Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic
2Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

💬 Kairos, c'est exactement ce que j'attendais d'un agent de dev sérieux. Un démon persistant avec mémoire de session, des invitations périodiques, une capacité à agir sans qu'on lui demande, sur le papier c'est le rêve. Sauf qu'en Europe, "profiler les habitudes de travail en continu" sans consentement explicite va faire grincer des dents chez les DPO, et Anthropic va avoir du boulot pour que ça passe en prod dans une boîte française.

OutilsOutil
1 source
OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic
3The Decoder 

OpenAI lance un plugin Codex compatible avec Claude Code d'Anthropic

OpenAI a lancé un plugin permettant d'intégrer son assistant de codage Codex directement dans Claude Code, l'outil de développement en ligne de commande d'Anthropic. Cette extension permet aux développeurs utilisant Claude Code d'accéder aux capacités de Codex d'OpenAI sans quitter leur environnement de travail habituel, fusionnant ainsi deux écosystèmes concurrents au sein d'une même interface. Cette initiative est remarquable car elle efface temporairement la frontière entre deux des principaux adversaires du secteur de l'IA. Pour les développeurs, cela signifie un accès élargi aux modèles et aux forces spécifiques de chaque plateforme — Codex étant particulièrement réputé pour la génération et la compréhension de code — sans devoir jongler entre plusieurs outils. L'interopérabilité entre assistants IA devient ainsi un argument commercial concret. Ce mouvement s'inscrit dans une tendance plus large de l'industrie où les éditeurs d'IA misent sur l'ouverture et les intégrations tierces pour étendre leur portée, plutôt que de viser l'exclusivité. OpenAI, qui a récemment repositionné Codex comme produit à part entière après des années où GPT-4 dominait les usages de codage, cherche à imposer sa présence dans des environnements qu'il ne contrôle pas directement. La question des suites — si Anthropic facilitera ou au contraire limitera ce type d'intégrations concurrentes dans Claude Code — reste ouverte.

UELes développeurs français et européens utilisant Claude Code peuvent désormais accéder aux capacités de Codex sans changer d'environnement, élargissant concrètement leur palette d'outils IA.

OutilsOutil
1 source
Le nouveau mode automatique de Claude Code cherche à équilibrer sécurité et rapidité
4The Decoder 

Le nouveau mode automatique de Claude Code cherche à équilibrer sécurité et rapidité

Anthropic a lancé un nouveau mode "Auto Mode" pour Claude Code, son outil de développement assisté par IA. Jusqu'ici, les développeurs devaient choisir entre approuver manuellement chaque action exécutée par l'outil ou désactiver complètement les vérifications de sécurité — deux extrêmes peu satisfaisants. Ce nouveau mode intermédiaire cherche à trouver le bon équilibre entre sécurité et fluidité d'utilisation. Il permettrait à Claude Code d'agir de façon autonome pour les opérations courantes, tout en sollicitant une confirmation humaine pour les actions potentiellement risquées. Claude Code s'inscrit dans la vague des agents de développement IA capables d'écrire, modifier et exécuter du code de façon semi-autonome. La question du contrôle humain est centrale dans ce secteur, où trop de friction freine l'adoption et trop d'autonomie pose des risques réels.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour