Aller au contenu principal
Les 15 meilleures skills OpenClaw à installer en 2026
OutilsLe Big Data2h

Les 15 meilleures skills OpenClaw à installer en 2026

1 source couvre ce sujet·Source originale ↗·

OpenClaw s'est imposé en 2026 comme bien plus qu'un simple assistant IA pour développeurs : la plateforme open source est désormais un véritable système d'exploitation autonome capable d'exécuter des scripts shell, de gérer des boîtes mail, de contrôler un navigateur web et de coordonner des chaînes d'actions complexes sans intervention humaine. Son écosystème de « skills » — des modules fonctionnels installables à la demande — compte plusieurs centaines d'extensions. Parmi les plus utiles figurent Capability Evolver, qui permet à l'agent de s'auto-corriger en temps réel lorsqu'une commande échoue et de mémoriser la solution pour les prochaines fois, et Gog, le connecteur Google Workspace qui rédige des synthèses de réunions, nettoie des fichiers Sheets et prépare un briefing matinal livré sur Telegram. Mission Control complète ce trio productivité en coordonnant plusieurs modules en parallèle dès le démarrage — vérification météo, état des serveurs, messages Slack — en une seule passe automatisée. Côté développement, les skills GitHub et Agent Browser sont plébiscitées : la première gère issues et pull requests en autonomie, suggère des relecteurs et poste des notes de version ; la seconde transforme l'agent en outil de scraping avancé, capable de naviguer sur des sites complexes, remplir des formulaires et prendre des captures d'écran pour surveiller des prix ou automatiser des inscriptions.

L'enjeu dépasse la simple productivité individuelle. OpenClaw, déployé sur un VPS personnel, donne à n'importe quel utilisateur technique un agent capable de remplacer plusieurs abonnements SaaS — automation, monitoring, rédaction, gestion de projet. Pour les petites équipes de développement, la skill GitHub seule représente un gain de temps substantiel sur les workflows de revue de code. Pour les indépendants ou les TPE, Gog et Mission Control automatisent une partie du travail administratif quotidien. Le modèle open source permet aussi une personnalisation totale, impossible avec des assistants propriétaires comme Copilot ou Notion AI.

Mais 2026 marque aussi un tournant dans la méfiance vis-à-vis des écosystèmes de plugins IA. La multiplication des skills disponibles — dont une partie provient de contributeurs anonymes — crée une surface d'attaque non négligeable : des modules malveillants peuvent exfiltrer des données sensibles ou détourner des clés API. Les utilisateurs sont donc fortement encouragés à déployer leur instance uniquement sur un VPS sécurisé, à auditer le code source de chaque skill avant installation et à compartimenter les permissions accordées à chaque module. OpenClaw rejoint ainsi une tendance plus large de l'IA auto-hébergée où la puissance de l'outil est directement proportionnelle au soin apporté à sa configuration — et où une mauvaise installation peut coûter bien plus qu'elle ne rapporte.

À lire aussi

Créer et faire évoluer un agent OpenAI sur mesure avec A-Evolve : benchmarks, compétences et mémoire
1MarkTechPost 

Créer et faire évoluer un agent OpenAI sur mesure avec A-Evolve : benchmarks, compétences et mémoire

A-Evolve est un framework open source conçu pour faire évoluer automatiquement des agents d'intelligence artificielle en modifiant itérativement leur architecture interne — leurs prompts, leurs compétences, leur mémoire — afin d'améliorer leurs performances sur des tâches définies. Un tutoriel détaillé, exécutable sur Google Colab, montre comment construire de bout en bout un pipeline d'évolution complet en s'appuyant sur GPT-4o-mini d'OpenAI comme moteur de raisonnement. Le processus commence par le clonage du dépôt GitHub A-EVO-Lab/a-evolve, la configuration d'un espace de travail structuré en couches (prompts, skills, memory, tools), et la définition d'un fichier manifeste qui spécifie les parties du système autorisées à évoluer. L'agent démarre avec un prompt système minimaliste, puis est soumis à un benchmark personnalisé comprenant des tâches de transformation de texte — calculs de sommes au format JSON, génération d'acronymes, tri de tokens — pour mesurer objectivement ses progrès à chaque génération. Ce type d'approche représente un changement de paradigme dans la façon dont les équipes construisent et maintiennent des agents IA. Plutôt que d'ajuster manuellement les prompts ou d'affiner un modèle par fine-tuning coûteux, A-Evolve automatise le cycle d'amélioration : l'agent tente des tâches, reçoit un retour structuré sous forme de scores, et un moteur d'évolution applique des mutations ciblées à son espace de travail pour corriger ses failles. Pour les développeurs et les équipes produit, cela signifie des agents qui s'améliorent de façon reproductible et traçable, sans intervention humaine à chaque itération. La philosophie est proche de l'optimisation évolutionnaire appliquée aux systèmes LLM : survivent les configurations qui performent le mieux sur le benchmark défini. A-Evolve s'inscrit dans une tendance plus large autour des agents "auto-améliorants", un sujet qui mobilise plusieurs laboratoires de recherche depuis 2024. Des travaux comme Self-Play Fine-Tuning (SPIN) chez UCLA ou les expériences d'auto-raffinement chez DeepMind ont posé les bases théoriques ; A-Evolve propose ici une implémentation pratique et accessible, orientée ingénierie plutôt que recherche fondamentale. Le framework est publié sous licence ouverte sur GitHub par l'organisation A-EVO-Lab, ce qui laisse la porte ouverte à des contributions communautaires. Les prochaines évolutions attendues concernent l'élargissement des stratégies de mutation (aujourd'hui limitées aux prompts et aux compétences codées) et l'intégration de benchmarks plus complexes, notamment des tâches de raisonnement multi-étapes ou d'interaction avec des APIs externes.

OutilsOutil
1 source
Slack ajoute 30 fonctionnalités IA à Slackbot, sa mise à jour la plus ambitieuse depuis le rachat par Salesforce
2VentureBeat AI 

Slack ajoute 30 fonctionnalités IA à Slackbot, sa mise à jour la plus ambitieuse depuis le rachat par Salesforce

Slack a annoncé mardi plus de 30 nouvelles fonctionnalités pour Slackbot, son assistant IA intégré, lors d'un événement keynote co-animé par le PDG de Salesforce, Marc Benioff. Cette mise à jour, la plus ambitieuse depuis le rachat de Slack par Salesforce pour 27,7 milliards de dollars en 2021, transforme Slackbot en un véritable agent d'entreprise autonome. Parmi les nouveautés : un mode de recherche approfondie capable de mener des investigations multi-étapes en environ quatre minutes, une intégration du protocole MCP (Model Context Protocol) permettant d'interagir avec plus de 2 600 applications du Slack Marketplace et 6 000 applications Salesforce AppExchange, ainsi qu'une intelligence de réunion qui transcrit et résume les appels sur Zoom, Google Meet ou tout autre fournisseur en captant l'audio directement depuis l'application desktop. Slack introduit également les "AI-Skills", des ensembles d'instructions réutilisables que les équipes peuvent créer une fois et déployer à la demande — Slackbot les appliquant automatiquement dès qu'il reconnaît un cas d'usage correspondant. Ces changements ne sont pas anodins : lancé en disponibilité générale le 13 janvier 2026 pour les abonnés Business+ et Enterprise+, Slackbot est en passe de devenir le produit le plus rapidement adopté des 27 ans d'histoire de Salesforce. Certains employés de sociétés clientes déclarent économiser jusqu'à 90 minutes par jour, tandis qu'en interne, les équipes Salesforce revendiquent des gains allant jusqu'à 20 heures par semaine, soit plus de 6,4 millions de dollars de valeur productive estimée. Pour les petites entreprises, Slackbot peut même faire office de CRM léger, sans installation supplémentaire. L'enjeu est donc considérable : Slack veut se positionner comme un "système d'exploitation agentique" — une interface unique par laquelle les travailleurs pilotent leurs agents IA, leurs applications métier et leurs collaborateurs. Ce pivot s'inscrit dans une bataille frontale avec Microsoft, qui intègre depuis deux ans son assistant Copilot à l'ensemble de sa suite de productivité. Salesforce, longtemps perçu comme n'ayant pas pleinement exploité son acquisition de Slack, semble désormais vouloir en faire le point de convergence de sa stratégie IA, portée par la plateforme Agentforce. Rob Seaman, PDG par intérim de Slack et ancien directeur produit, résume l'ambition sans détour : "La limite supérieure des cas d'usage est effectivement illimitée." Avec l'adoption massive du MCP comme standard d'intégration et une architecture pensée pour l'autonomie des agents, Slack parie que l'interface de messagerie d'entreprise deviendra le cockpit central de l'IA au travail — un territoire que Microsoft, Google et d'autres entendent bien ne pas céder facilement.

UELes entreprises européennes abonnées à Slack Business+ ou Enterprise+ ont accès depuis janvier 2026 à ces capacités agentiques, ce qui peut influencer leurs décisions d'outillage face à Microsoft 365 Copilot.

OutilsOutil
1 source
Créer un agent FinOps avec Amazon Bedrock AgentCore
3AWS ML Blog 

Créer un agent FinOps avec Amazon Bedrock AgentCore

Amazon a dévoilé une solution clé en main pour construire un agent FinOps basé sur Amazon Bedrock AgentCore, permettant aux équipes financières de gérer les coûts AWS à travers plusieurs comptes via une interface conversationnelle unique. L'architecture repose sur Claude Sonnet 4.5 d'Anthropic, le Strands Agent SDK et le protocole MCP (Model Context Protocol), déployée via AWS CDK. L'agent consolide les données de trois services AWS — Cost Explorer, Budgets et Compute Optimizer — et propose plus de 20 outils spécialisés couvrant l'intégralité du spectre de la gestion des coûts cloud. La mémoire conversationnelle conserve jusqu'à 30 jours de contexte, permettant des questions de suivi sans répéter les informations préalables. Concrètement, cette solution élimine la nécessité pour les équipes finance et DevOps de naviguer manuellement entre plusieurs consoles AWS pour obtenir une vue consolidée des dépenses. Un responsable peut simplement demander "Quels sont mes principaux postes de dépenses ce mois-ci ?" et obtenir une réponse immédiate, sans requêtes SQL ni exports manuels. L'authentification repose sur Amazon Cognito (gestion des utilisateurs et flux OAuth 2.0 machine-à-machine), tandis qu'AWS Amplify héberge l'interface web. L'accès en langage naturel démocratise la visibilité sur les coûts cloud à l'ensemble de l'organisation, y compris aux profils non techniques — un enjeu majeur dans les entreprises où la facture AWS est souvent opaque pour les décideurs métier. Le FinOps — la pratique de gouvernance financière du cloud — est devenu un domaine à part entière alors que les dépenses cloud des entreprises ont explosé ces cinq dernières années, rendant le suivi des coûts multi-comptes complexe et chronophage. Amazon Bedrock AgentCore, lancé récemment par AWS, est la réponse d'Amazon à la vague d'agents IA d'entreprise : une plateforme d'exécution managée pour déployer des agents LLM avec mémoire, outils et identité gérés nativement. Cette solution illustre parfaitement la stratégie d'AWS de transformer ses propres services (Cost Explorer, Compute Optimizer) en sources de données accessibles via des agents IA, réduisant la friction d'adoption. La concurrence s'intensifie sur ce segment : Microsoft Copilot pour Azure Cost Management et Google Cloud Carbon Footprint poursuivent des ambitions similaires. La prochaine étape logique sera l'automatisation des recommandations d'optimisation, passant d'un agent qui répond à des questions à un agent qui agit directement sur l'infrastructure pour réduire les coûts.

UELes entreprises françaises et européennes utilisant AWS peuvent simplifier leur gestion de coûts cloud multi-comptes via cet agent, sans impact réglementaire ou institutionnel spécifique.

OutilsOutil
1 source
Un système alimenté par IA pour la collecte de preuves de conformité
4AWS ML Blog 

Un système alimenté par IA pour la collecte de preuves de conformité

Des équipes d'Amazon Web Services ont développé et documenté un système automatisé de collecte de preuves pour les audits de conformité, s'appuyant sur Amazon Bedrock et une extension de navigateur compatible Chrome et Firefox. Concrètement, l'outil exécute des workflows prédéfinis qui naviguent automatiquement dans des interfaces web — GitHub, consoles AWS, applications internes — en capturant des captures d'écran horodatées, puis les stocke de manière organisée dans Amazon S3. Le cœur intelligent du système repose sur le modèle Amazon Nova 2 Lite : lorsqu'un auditeur lui soumet un document de conformité en langage naturel, le modèle l'analyse et génère automatiquement les workflows JSON exécutables correspondants. En fin de cycle, Amazon SES produit et envoie un rapport de conformité par e-mail. L'authentification est gérée via Amazon Cognito couplé à AWS STS et IAM, garantissant des accès à privilèges minimaux vers Bedrock, S3 et SES. L'impact est direct pour les équipes de conformité et de sécurité des entreprises, qui consacrent aujourd'hui des dizaines d'heures par cycle d'audit à des tâches manuelles répétitives — naviguer de page en page, faire des captures d'écran, les renommer et les classer. Ce système rend le processus reproductible à l'identique d'un audit à l'autre, élimine les erreurs humaines de capture ou d'organisation, et produit une piste d'audit complète avec horodatage et chiffrement au repos. L'approche par extension navigateur présente un avantage structurel important : elle fonctionne avec n'importe quelle application web sans nécessiter d'accès API spécifique, et s'adapte aux évolutions d'interface grâce à l'automatisation pilotée par IA plutôt que par des sélecteurs CSS fragiles. Ce développement s'inscrit dans une tendance plus large d'industrialisation des agents IA pour des tâches d'entreprise à haute valeur réglementaire. Les audits SOC 2, ISO 27001 ou PCI-DSS imposent des volumes de preuves considérables, et la pression réglementaire sur les entreprises tech ne faiblit pas — notamment en Europe avec NIS2 et l'AI Act. AWS positionne ici Bedrock non pas comme un simple moteur de génération de texte, mais comme une couche d'orchestration capable de piloter des interfaces utilisateur réelles, ce qui représente un saut qualitatif par rapport aux intégrations API classiques. La prochaine étape logique sera l'extension de ces agents à des workflows multi-systèmes entièrement autonomes, où l'humain ne valide plus que l'exception — un modèle qui soulève déjà des questions sur la supervision et la responsabilité dans les processus réglementaires.

UELes entreprises européennes soumises à NIS2 ou à l'AI Act pourraient adopter des approches similaires pour automatiser la collecte de preuves d'audit, réduisant la charge de conformité réglementaire.

OutilsOutil
1 source