Aller au contenu principal
OutilsThe Information AI1h

Une fuite sur Claude Code révèle l'agent 'Kairos', toujours actif

1 source couvre ce sujet·Source originale ↗·

Anthropic a connu sa deuxième fuite d'information en l'espace d'une semaine. Mardi, la société a reconnu avoir accidentellement publié une partie du code source de Claude Code, son agent de programmation, dans un dépôt public utilisé habituellement pour diffuser sa documentation technique. L'incident fait suite à la publication involontaire, la semaine précédente, de détails sur son prochain modèle phare Claude Mythos. Dans ce cas précis, un employé a joint par erreur le code source dans un fichier uploadé sur ce dépôt accessible à tous.

Si la fuite ne compromet pas les poids propriétaires des modèles d'Anthropic — ce qui constituerait une menace bien plus grave — elle expose en revanche à la concurrence des fonctionnalités inédites prévues pour Claude Code. La plus notable est baptisée Kairos (du grec ancien, signifiant « le moment opportun ») : un ensemble de mises à jour permettant à Claude de travailler en arrière-plan de manière autonome, en envoyant des notifications de progression sur le téléphone de l'utilisateur. Kairos intègre également un « dream mode » chargé de consolider automatiquement les souvenirs de Claude issus de sessions passées, ainsi qu'une fonction dite « proactive » invitant l'agent à « prendre des initiatives — explorer, agir et progresser sans attendre d'instructions ».

Cette double mésaventure survient à un moment où Anthropic cherche à s'imposer face à des concurrents comme OpenAI et Google dans le segment des agents IA autonomes, un marché en pleine effervescence. La course aux agents capables d'opérer de façon continue, sans supervision humaine constante, est devenue l'un des principaux axes de différenciation dans l'industrie. Kairos illustre précisément cette ambition : transformer Claude d'un assistant réactif en un agent proactif capable de gérer des tâches longues en toile de fond. La transparence forcée sur ces fonctionnalités pourrait accélérer leur adoption par des rivaux, même si Anthropic conserve l'avantage de l'exécution et de l'intégration dans son écosystème existant.

Impact France/UE

Les développeurs européens utilisant Claude Code pourraient voir ces fonctionnalités agentiques accélérées si la concurrence copie les détails exposés par cette fuite.

💬 Le point de vue du dev

Kairos, c'est le truc qu'on voit partout dans les roadmaps mais que personne n'avait encore vraiment sorti. Un agent qui consolide ses souvenirs entre sessions, qui bosse en fond et te ping sur le téléphone, bon, sur le papier c'est exactement ce qu'il faut. La fuite est maladroite, mais ça accélère la pression sur Google et OpenAI pour sortir l'équivalent.

À lire aussi

1ZDNET AI 

J'ai utilisé l'outil IA de Gmail pour faire des heures de travail en 10 minutes, avec 3 prompts

Le contenu de l'article fourni est quasi-vide — seule la phrase d'accroche est présente ("I just had a 'living in the future' moment with Gmail, of all things. Here's what happened."), sans les faits, chiffres, ni détail des 3 prompts utilisés. Je ne peux pas rédiger un article factuel et précis (paragraphe 1 exige "qui, quoi, quand, chiffres précis") sans inventer des informations — ce que je refuse de faire. Pour que je puisse rédiger le résumé, colle le corps complet de l'article (les sections suivant l'intro).

OutilsOutil
1 source
2VentureBeat AI 

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle

La startup Kilo a annoncé le lancement de KiloClaw for Organizations et KiloClaw Chat, une suite d'outils destinée à encadrer l'usage des agents IA autonomes au sein des grandes entreprises. Cette annonce intervient un mois après la mise en disponibilité générale de son produit individuel OpenClaw, qui a déjà séduit plus de 25 000 utilisateurs actifs. Le benchmark propriétaire de Kilo, PinchBench, a quant à lui enregistré plus de 250 000 interactions et a été cité publiquement par Jensen Huang, PDG de Nvidia, lors de sa keynote à la conférence GTC 2026 à San Jose. Co-fondée par Scott Breitenother et Emilie Schario, la société propose un environnement de développement IA multi-modèles hébergé dans le cloud, conçu pour être portable et accessible. Le problème que KiloClaw for Organizations cherche à résoudre est celui du « shadow AI » — ou BYOAI (Bring Your Own AI) : des développeurs et travailleurs du savoir qui déploient des agents IA autonomes sur des infrastructures personnelles, hors du contrôle de leur employeur, pour gérer agendas, dépôts de code ou flux de travail professionnels. Des directeurs IA de sous-traitants gouvernementaux ont confié à Kilo avoir découvert leurs équipes faisant tourner des agents OpenClaw sur des serveurs VPS non répertoriés. « Nous ne voyons rien : pas de journaux d'audit, pas de gestion des identifiants, aucune idée de quelles données touchent quelle API », aurait déclaré l'un d'eux. Face à cette opacité, certaines organisations ont répondu par des interdictions totales des agents autonomes, faute de stratégie claire. Le nouveau produit permet à une entreprise d'acheter un package organisationnel et d'en distribuer l'accès à chaque membre de l'équipe, dans un environnement géré et auditable. Ce lancement s'inscrit dans une dynamique sectorielle plus large. Des acteurs majeurs comme Nvidia (NemoClaw), Cisco (DefenseClaw), Palo Alto Networks et CrowdStrike ont tous annoncé des déclinaisons entreprise d'OpenClaw, avec des mécanismes de gouvernance et de sécurité. Pourtant, selon Anand Kashyap, PDG de la société de sécurité des données Fortanix, l'adoption en entreprise reste faible : les organisations exigent un contrôle IT centralisé, un comportement prévisible et une conformité stricte des données — trois paramètres que les plateformes agentiques autonomes mettent à rude épreuve. Kashyap souligne que les solutions de périmètre traditionnelles ne réduisent pas la surface d'attaque fondamentale. À terme, le marché devrait converger vers des plateformes agentiques avec des agents pré-packagés, des contrôles centralisés et des accès aux données intégrés directement dans les LLM — des technologies comme le Confidential Computing étant appelées à jouer un rôle clé dans cette transition.

UELes entreprises européennes sont confrontées aux mêmes enjeux de shadow AI, aggravés par les obligations de traçabilité et de contrôle imposées par l'AI Act pour les systèmes d'IA à risque déployés en contexte professionnel.

OutilsOutil
1 source
3The Verge AI 

L'IA peut appuyer sur les boutons de votre Stream Deck à votre place

Elgato a lancé le 1er avril 2026 la version 7.4 de son logiciel Stream Deck, introduisant le support du Model Context Protocol (MCP). Cette mise à jour permet aux assistants IA — dont Claude d'Anthropic, ChatGPT d'OpenAI et G-Assist de Nvidia — de détecter et déclencher des actions configurées sur un Stream Deck à la demande de l'utilisateur. Concrètement, il suffit de taper ou dicter une instruction à son assistant IA préféré pour qu'il active le raccourci correspondant, sans toucher physiquement au périphérique. Pour les streamers, créateurs de contenu et professionnels qui utilisent le Stream Deck comme tableau de bord pour automatiser des tâches — changer de scène OBS, lancer une musique, envoyer un message — cette intégration ouvre une nouvelle couche d'interaction. L'utilisateur continue de configurer ses actions dans l'application Stream Deck comme avant ; le MCP vient simplement ajouter un canal de déclenchement vocal ou textuel via l'IA. Cela réduit la friction pour les flux de travail complexes où retenir l'emplacement de chaque bouton devient fastidieux. Le Model Context Protocol est un standard ouvert promu notamment par Anthropic pour permettre aux modèles de langage d'interagir avec des applications tierces de façon standardisée. Son adoption par Elgato illustre une tendance croissante : les fabricants de périphériques hardware intègrent directement des couches IA dans leurs outils, transformant des appareils physiques en surfaces contrôlables par langage naturel. Après les IDE, les navigateurs et les outils de productivité, c'est désormais le matériel grand public qui entre dans l'écosystème MCP.

OutilsOutil
1 source
4AI News 

DeepL : 83 % des grandes entreprises accusent du retard sur l'IA linguistique

Selon un rapport publié le 10 mars 2026 par DeepL, intitulé « Borderless Business : Transforming Translation in the Age of AI », 83 % des grandes entreprises n'ont pas encore adopté les outils modernes d'intelligence artificielle pour leurs opérations multilingues. L'étude, menée auprès de dirigeants d'entreprise aux États-Unis, au Royaume-Uni, en France, en Allemagne et au Japon, révèle que 35 % des entreprises internationales traitent encore leurs traductions entièrement manuellement, et 33 % supplémentaires s'appuient sur une automatisation classique avec révision humaine systématique. Seulement 17 % ont déployé des outils de nouvelle génération — grands modèles de langage ou IA agentique — pour leurs flux de travail linguistiques. Parallèlement, le volume de contenu d'entreprise a bondi de 50 % depuis 2023, mais 68 % des sociétés fonctionnent toujours avec des processus conçus pour une autre époque. DeepL compte aujourd'hui plus de 200 000 clients professionnels dans 228 marchés, dont 2 000 qui déploient déjà des agents IA pour l'analyse de rapports, le ciblage commercial et la revue de documents juridiques. Ce retard n'est pas anodin : la traduction et les opérations multilingues touchent des fonctions critiques de l'entreprise. D'après le rapport, l'expansion internationale constitue le premier moteur d'investissement dans l'IA linguistique (33 % des cas), devant les ventes et le marketing (26 %), le support client (23 %) et le juridico-financier (22 %). Une étude complémentaire de décembre 2025, conduite auprès de 5 000 cadres dirigeants, révèle que 54 % des dirigeants mondiaux estiment que la traduction vocale en temps réel sera indispensable en 2026, contre 32 % aujourd'hui — avec des écarts notables entre pays : 48 % au Royaume-Uni, 33 % en France, seulement 11 % au Japon. Pour Jarek Kutylowski, PDG et fondateur de DeepL : « L'IA est partout, mais l'efficacité ne l'est pas. La plupart des entreprises ont déployé l'IA sous une forme ou une autre, mais peu atteignent une vraie productivité à l'échelle, parce que les workflows centraux restent conçus autour des personnes, pas des systèmes. » DeepL se distingue de ses concurrents généralistes sur un point stratégique : la souveraineté des données. Dans les secteurs réglementés — finance, santé, droit, administration publique — la conformité est devenue un critère de sélection de premier ordre. L'entreprise est certifiée ISO 27001, SOC 2 Type 2 et RGPD, et propose un chiffrement « Bring Your Own Key » permettant aux clients de révoquer l'accès à leurs données en quelques secondes, y compris pour DeepL lui-même. Cette garantie lui ouvre des portes que les grands fournisseurs de LLM peinent à franchir. En 2026, la société accélère sur l'IA agentique avec DeepL Agent, et son CTO Sebastian Enderlein résume l'ambition : « 2026 sera l'année où l'IA arrête d'expérimenter et commence à exécuter, à une échelle que nous n'avons pas encore vue. »

UEL'étude couvre explicitement la France et l'Allemagne, et la conformité RGPD mise en avant par DeepL répond à une exigence réglementaire européenne directe pour les entreprises traitant des données multilingues sensibles.

OutilsOutil
1 source