Aller au contenu principal
OutilsMarkTechPost6h

Cline publie son SDK open source : un runtime d'agents qui alimente désormais son CLI et son Kanban, avec migration des extensions IDE

Résumé IASource uniqueImpact UE
Source originale ↗·

Cline, l'agent de codage IA open-source utilisé par des millions de développeurs, a annoncé cette semaine une refonte architecturale majeure avec la sortie de @cline/sdk, un runtime d'agent TypeScript désormais disponible en open-source. Concrètement, l'équipe a extrait le coeur du moteur agentique, jusqu'ici étroitement couplé à l'extension VS Code, pour en faire un SDK indépendant, modulaire, sur lequel tous ses produits sont désormais reconstruits : l'extension VS Code, JetBrains, le CLI et le tableau Kanban. Le SDK est structuré en couches strictement ordonnées : @cline/shared (types, schémas, utilitaires), @cline/llms (passerelle vers Anthropic, OpenAI, Google, AWS Bedrock, Mistral, LiteLLM et tout endpoint compatible OpenAI), @cline/agents (boucle d'exécution stateless, compatible navigateur), et @cline/core (orchestration Node.js, sessions, stockage, télémétrie, plugins). Chaque couche est installable séparément, ce qui permet par exemple d'utiliser uniquement @cline/llms comme proxy LLM sans embarquer tout le runtime.

Cette architecture redéfinie apporte des gains concrets mesurables. Avec Cline 2.0, l'équipe a reécrit les prompts, simplifié la boucle agentique et amélioré la gestion du contexte. Les résultats publiés sur Terminal Benchmark 2.0 (tbench.ai) au 8 mai 2026 sont frappants : sur claude-opus-4.7, le CLI Cline atteint 74,2% contre 69,4% pour Claude Code d'Anthropic sur le même modèle. Sur claude-opus-4.6, l'écart est similaire, 71,9% contre 65,4%. Sur les modèles open-weight, Cline marque 55,1% sur Kimi-K2.6, contre 37,1% pour OpenCode et 45,5% pour Pi-Code. Côté stabilité, les sessions agentiques longues ne meurent plus lors d'un redémarrage de l'interface : la boucle reste stateless et portable, tandis que la persistance est gérée séparément par le runtime.

Cette sortie s'inscrit dans une tendance plus large : celle de la fragmentation et de la standardisation de l'outillage agentique. Pendant des années, les agents IA étaient construits comme des monolithes liés à une interface spécifique, VS Code, un navigateur, un SaaS. Le choix de Cline de découpler son moteur de ses surfaces d'affichage ouvre la voie à une nouvelle génération d'outils où le même agent peut s'exécuter dans un IDE, un terminal, un serveur serverless ou un environnement browser sans réécriture. Le système de plugins intégré au SDK permet en outre aux équipes tierces d'enregistrer leurs propres outils, d'observer les événements du cycle de vie de l'agent et d'étendre ses capacités. Pour les éditeurs et startups qui cherchent à construire sur une base agentique robuste sans repartir de zéro, @cline/sdk représente une fondation crédible, et son positionnement open-source face à des alternatives propriétaires comme Claude Code ou Cursor pourrait accélérer l'adoption dans les environnements d'entreprise.

Impact France/UE

Le SDK intègre Mistral nativement comme fournisseur LLM, ce qui facilite l'adoption par les équipes européennes souhaitant une alternative open-source aux outils propriétaires soumis au CLOUD Act.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

AgentCore : optimisation de la qualité des agents, désormais en préversion
1AWS ML Blog 

AgentCore : optimisation de la qualité des agents, désormais en préversion

Amazon a annoncé ce 5 mai 2026 l'intégration de nouvelles capacités d'optimisation automatique dans AgentCore, sa plateforme de déploiement d'agents IA, désormais disponibles en préversion. Ces fonctionnalités couvrent trois mécanismes complémentaires : les Recommandations, l'évaluation par lots (batch evaluation) et les tests A/B. Le moteur de recommandations analyse les traces de production et les résultats d'évaluation pour proposer des améliorations concrètes des prompts système ou des descriptions d'outils, en ciblant un critère de performance défini par le développeur. L'évaluation par lots permet ensuite de valider ces suggestions sur un jeu de données de test prédéfini, en mesurant des scores agrégés pour détecter d'éventuelles régressions. Enfin, les tests A/B comparent deux versions d'un agent en production via AgentCore Gateway, en répartissant le trafic réel selon un pourcentage configurable et en restituant les résultats avec intervalles de confiance et significativité statistique. L'ensemble s'appuie sur un système de traçabilité OpenTelemetry géré par AgentCore Observability, qui capture chaque appel au modèle, chaque invocation d'outil et chaque étape de raisonnement. Ces nouvelles capacités répondent à un problème structurel bien connu des équipes IA en production : la dégradation silencieuse des agents au fil du temps. Lorsque les modèles évoluent, les comportements utilisateurs changent, ou les prompts sont réutilisés dans des contextes imprévus, la qualité baisse sans signal d'alerte clair. Jusqu'ici, le cycle de correction restait entièrement manuel : un utilisateur se plaint, un développeur lit des traces, formule une hypothèse, réécrit le prompt, teste quelques cas et pousse un correctif qui peut en créer un autre. AgentCore ferme cette boucle en remplaçant l'intuition du développeur par des données systématiques, avec un signal de récompense configurable : taux de succès des objectifs, précision de sélection des outils, pertinence, sécurité. Yoshiharu Okuda, directeur de la stratégie IA générative chez NTT DATA, a confirmé que des processus qui nécessitaient auparavant plusieurs semaines de réglage manuel se transforment désormais en cycles rapides et reproductibles. AgentCore est la plateforme d'Amazon Web Services pour construire, connecter et optimiser des agents IA à grande échelle, avec des milliers de développeurs déjà actifs. Cette annonce s'inscrit dans une course plus large entre les grands fournisseurs cloud pour proposer des outils d'opérationnalisation des agents, au-delà de la simple inférence. Google Vertex AI, Microsoft Azure AI et AWS se disputent les équipes qui passent de la phase expérimentale à la production à grande échelle, là où la maintenance de la qualité devient un défi d'ingénierie à part entière. En automatisant la boucle observer-évaluer-améliorer, AWS positionne AgentCore comme une infrastructure de fond pour les organisations qui ne peuvent pas se permettre des équipes dédiées à l'optimisation manuelle de prompts sur des cycles hebdomadaires, alors que leurs agents dérivent chaque jour en production.

OutilsActu
1 source
Construire un runtime d'agents local-first sécurisé avec OpenClaw Gateway, skills et exécution contrôlée des outils
2MarkTechPost 

Construire un runtime d'agents local-first sécurisé avec OpenClaw Gateway, skills et exécution contrôlée des outils

OpenClaw Gateway s'impose progressivement comme une solution de référence pour les développeurs souhaitant déployer des agents IA en environnement local, sans dépendance à une infrastructure cloud tierce. Le projet, distribué via npm sous le nom openclaw, s'installe en quelques commandes sur Node.js 22 et expose un serveur de contrôle sur le port 18789 en mode loopback, c'est-à-dire uniquement accessible depuis la machine locale. L'agent communique avec des modèles de langage via une couche de routage configurable, dans les exemples fournis, OpenAI GPT-4o-mini est utilisé comme modèle principal, et orchestre l'exécution d'outils et de compétences personnalisées (appelées « skills ») au travers d'un plan de contrôle centralisé. L'authentification aux APIs de modèles passe par des variables d'environnement, jamais par des secrets codés en dur, et le runtime dispose d'une interface de contrôle web optionnelle accessible via le chemin /openclaw. Ce type d'architecture répond à un besoin croissant dans l'industrie : faire fonctionner des agents autonomes dans des environnements contraints, isolés du réseau public, où la confidentialité des données et la maîtrise des appels aux modèles sont non négociables. Le binding en loopback empêche toute exposition accidentelle du gateway sur le réseau local ou internet, tandis que le mécanisme de timeout configurable sur l'outil exec (1 800 secondes par défaut) et la gestion propre des processus en arrière-plan permettent d'encadrer précisément ce que l'agent est autorisé à faire. Pour les équipes travaillant sur des workflows d'automatisation sensibles, traitement de documents confidentiels, pipelines DevOps internes, assistants métier, cette approche offre un cadre de sécurité que les solutions SaaS ne peuvent garantir par construction. La capacité à définir des skills structurées, découvrables et invocables de manière déterministe par l'agent constitue également un avantage notable pour la reproductibilité des comportements en production. OpenClaw s'inscrit dans une tendance plus large de «local-first AI», portée par des projets comme Ollama pour l'inférence locale ou LM Studio pour la gestion de modèles. Face aux préoccupations réglementaires croissantes autour du traitement des données personnelles, RGPD en Europe, diverses lois sectorielles aux États-Unis, et à la méfiance envers les dépendances cloud critiques, plusieurs startups et équipes d'ingénierie cherchent à rapatrier le cycle complet de raisonnement des agents sur leur propre infrastructure. OpenClaw se positionne sur ce segment en proposant une couche d'abstraction entre le code applicatif Python ou JavaScript et les runtimes de modèles, avec une configuration déclarative en JSON. La prochaine étape logique sera probablement l'intégration native de modèles open source via des backends comme Ollama, pour s'affranchir totalement des API propriétaires tout en conservant la rigueur du contrôle d'exécution.

UELe mode local-first et l'absence de dépendance cloud facilitent la conformité RGPD pour les équipes européennes traitant des données personnelles.

💬 C'est le genre de projet qui arrive au bon moment, quand les DPO commencent à bloquer systématiquement les intégrations SaaS IA dans les grandes boîtes. Le binding loopback par défaut et la définition des skills en JSON déclaratif, c'est exactement ce qu'il faut pour convaincre une équipe sécu que ton agent ne va pas exfiltrer des données sensibles par accident. Reste à voir si l'écosystème grossit assez vite avant qu'un acteur plus connu ne sorte la même chose avec dix fois les ressources derrière.

OutilsOutil
1 source
3VentureBeat AI 

Les developpeurs peuvent desormais deboguer et evaluer des agents IA en local avec l'outil open source Workshop de Raindrop

Raindrop AI, une startup spécialisée dans l'observabilité des systèmes d'intelligence artificielle, a lancé ce jour Workshop, un outil open source sous licence MIT conçu pour déboguer et évaluer les agents IA directement en local. L'outil fonctionne comme un démon léger associé à une interface web accessible sur localhost:5899, qui capture en temps réel chaque token généré, chaque appel d'outil et chaque décision prise par un agent. Toutes ces données sont stockées dans un unique fichier SQLite (.db), particulièrement économe en mémoire, ce qui permet aux développeurs de rejouer et inspecter l'intégralité du comportement de leur agent sans quitter leur machine. Workshop est disponible sur macOS, Linux et Windows, installable en une seule ligne de commande, et s'appuie sur le runtime Bun pour ceux qui préfèrent compiler depuis les sources via GitHub. Ben Hylak, cofondateur et CTO de Raindrop, ancien ingénieur chez Apple et SpaceX, a présenté l'outil comme une réponse directe au besoin de déboguer les agents de façon "sensée". La fonctionnalité centrale de Workshop est ce que Raindrop appelle la "boucle d'évaluation auto-réparatrice" : un agent de code comme Claude Code peut lire les traces capturées, écrire automatiquement des tests d'évaluation ciblés, identifier les erreurs logiques dans le prompt ou le code, puis relancer l'agent jusqu'à ce que tous les tests passent. Concrètement, si un agent assistant vétérinaire omet de poser des questions de suivi essentielles, Workshop enregistre la trajectoire complète de l'échec, permettant à Claude Code de localiser la faille et de la corriger de manière autonome. Cette approche élimine la latence des méthodes traditionnelles de polling et répond à une préoccupation croissante dans la communauté : la confidentialité des traces, qui ne quittent plus jamais la machine du développeur. L'émergence de Workshop s'inscrit dans un mouvement plus large de maturation de l'écosystème des agents IA. Depuis que le développement agentique s'est imposé comme paradigme dominant en 2024-2025, les développeurs manquaient d'outils d'introspection adaptés à ces systèmes autonomes, dont les comportements sont notoirement difficiles à tracer et à reproduire. Workshop répond à ce vide en s'intégrant avec les principaux frameworks du marché, notamment le Vercel AI SDK, OpenAI, Anthropic, LangChain, LlamaIndex et CrewAI, ainsi qu'avec les agents de code populaires comme Cursor, Devin et OpenCode. Il supporte TypeScript, Python, Rust et Go. La licence MIT garantit une utilisation libre y compris en entreprise, tout en favorisant les contributions communautaires. Pour marquer le lancement, Raindrop a distribué des goodies physiques en édition limitée aux premiers utilisateurs ayant exécuté une commande "drip" spécifique.

UELes développeurs européens soumis au RGPD peuvent tirer parti du stockage local des traces d'agents pour simplifier leur conformité, sans transfert de données vers des serveurs tiers.

OutilsOutil
1 source
RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch
4MarkTechPost 

RightNow AI publie AutoKernel : un framework open source qui applique une boucle d'agents autonomes à l'optimisation des kernels GPU pour les modèles PyTorch

RightNow AI a publié AutoKernel, un framework open-source qui automatise l'optimisation des kernels GPU pour n'importe quel modèle PyTorch. Le principe est simple : soumettre un modèle avant de dormir et retrouver au matin des kernels Triton plus rapides, sans avoir à maîtriser la programmation GPU de bas niveau. Le système repose sur une boucle agentique autonome : un agent LLM modifie un fichier kernel.py, un banc de test vérifie la correction puis mesure le débit, et le résultat détermine si la modification est conservée ou annulée via un git reset. Chaque itération dure environ 90 secondes, ce qui permet de réaliser 300 à 400 expériences lors d'une session de 10 heures. L'agent suit un manuel d'optimisation en six niveaux encodé dans un document de 909 lignes, couvrant le réglage des tailles de blocs, les patterns d'accès mémoire, les optimisations de calcul comme TF32, les techniques avancées comme split-K, et les stratégies spécifiques aux architectures Hopper et Ampere de NVIDIA. L'enjeu est considérable pour l'industrie du machine learning. Optimiser un kernel GPU de haute performance exige de raisonner simultanément sur l'intensité arithmétique, la coalescence mémoire, la pression sur les registres, la synchronisation au niveau warp et la sélection des instructions tensor core, un ensemble de compétences qui prend des années à acquérir. Un seul kernel de multiplication matricielle performant peut représenter plus de 200 lignes de code CUDA ou Triton avec des dizaines de paramètres interdépendants. La suite de benchmarks KernelBench, qui évalue les grands modèles de langage sur 250 problèmes de kernels GPU, a montré que même les meilleurs modèles n'égalaient la baseline PyTorch que dans moins de 20 % des cas en génération directe. AutoKernel répond précisément à ce déficit en rendant cette expertise accessible sans spécialiste humain, ce qui pourrait accélérer significativement le développement et le déploiement de modèles d'IA. L'approche s'inspire directement du projet autoresearch d'Andrej Karpathy, dans lequel une boucle keep/revert appliquée à du code d'entraînement LLM avait permis de découvrir 20 optimisations en 700 expériences sur deux jours avec un seul GPU. AutoKernel transpose cette logique à l'espace des kernels, en substituant la loss de validation par un benchmark de correction et de débit comme fonction d'évaluation. La traçabilité est assurée par git, les résultats étant stockés dans un fichier TSV lisible directement par l'agent. Ce type de framework illustre une tendance plus large où les tâches d'ingénierie hautement spécialisées deviennent des cibles pour l'automatisation agentique, réduisant la dépendance aux rares experts en optimisation GPU à mesure que les architectures de modèles continuent d'évoluer.

💬 L'idée de laisser tourner une boucle agentique toute la nuit pour sortir des kernels Triton optimisés au matin, c'est exactement ce qu'on attendait depuis qu'on a vu Karpathy faire la même chose sur du code d'entraînement. La partie vraiment bien foutue, c'est le mécanisme d'évaluation : un benchmark de correction avant tout, et le git reset si ça régresse, ce qui évite de passer des heures à débugger des "optimisations" qui cassent tout. Pour les équipes sans expert CUDA dans les jambes, c'est une vraie bouffée d'air.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour