Aller au contenu principal
Slack ajoute 30 fonctionnalités IA à Slackbot, sa mise à jour la plus ambitieuse depuis le rachat par Salesforce
OutilsVentureBeat AI2h

Slack ajoute 30 fonctionnalités IA à Slackbot, sa mise à jour la plus ambitieuse depuis le rachat par Salesforce

1 source couvre ce sujet·Source originale ↗·

Slack a annoncé mardi plus de 30 nouvelles fonctionnalités pour Slackbot, son assistant IA intégré, lors d'un événement keynote co-animé par le PDG de Salesforce, Marc Benioff. Cette mise à jour, la plus ambitieuse depuis le rachat de Slack par Salesforce pour 27,7 milliards de dollars en 2021, transforme Slackbot en un véritable agent d'entreprise autonome. Parmi les nouveautés : un mode de recherche approfondie capable de mener des investigations multi-étapes en environ quatre minutes, une intégration du protocole MCP (Model Context Protocol) permettant d'interagir avec plus de 2 600 applications du Slack Marketplace et 6 000 applications Salesforce AppExchange, ainsi qu'une intelligence de réunion qui transcrit et résume les appels sur Zoom, Google Meet ou tout autre fournisseur en captant l'audio directement depuis l'application desktop. Slack introduit également les "AI-Skills", des ensembles d'instructions réutilisables que les équipes peuvent créer une fois et déployer à la demande — Slackbot les appliquant automatiquement dès qu'il reconnaît un cas d'usage correspondant.

Ces changements ne sont pas anodins : lancé en disponibilité générale le 13 janvier 2026 pour les abonnés Business+ et Enterprise+, Slackbot est en passe de devenir le produit le plus rapidement adopté des 27 ans d'histoire de Salesforce. Certains employés de sociétés clientes déclarent économiser jusqu'à 90 minutes par jour, tandis qu'en interne, les équipes Salesforce revendiquent des gains allant jusqu'à 20 heures par semaine, soit plus de 6,4 millions de dollars de valeur productive estimée. Pour les petites entreprises, Slackbot peut même faire office de CRM léger, sans installation supplémentaire. L'enjeu est donc considérable : Slack veut se positionner comme un "système d'exploitation agentique" — une interface unique par laquelle les travailleurs pilotent leurs agents IA, leurs applications métier et leurs collaborateurs.

Ce pivot s'inscrit dans une bataille frontale avec Microsoft, qui intègre depuis deux ans son assistant Copilot à l'ensemble de sa suite de productivité. Salesforce, longtemps perçu comme n'ayant pas pleinement exploité son acquisition de Slack, semble désormais vouloir en faire le point de convergence de sa stratégie IA, portée par la plateforme Agentforce. Rob Seaman, PDG par intérim de Slack et ancien directeur produit, résume l'ambition sans détour : "La limite supérieure des cas d'usage est effectivement illimitée." Avec l'adoption massive du MCP comme standard d'intégration et une architecture pensée pour l'autonomie des agents, Slack parie que l'interface de messagerie d'entreprise deviendra le cockpit central de l'IA au travail — un territoire que Microsoft, Google et d'autres entendent bien ne pas céder facilement.

Impact France/UE

Les entreprises européennes abonnées à Slack Business+ ou Enterprise+ ont accès depuis janvier 2026 à ces capacités agentiques, ce qui peut influencer leurs décisions d'outillage face à Microsoft 365 Copilot.

À lire aussi

Les patterns d'IA à base d'agents renforcent la rigueur d'ingénierie
1InfoQ AI 

Les patterns d'IA à base d'agents renforcent la rigueur d'ingénierie

Paul Duvall a récemment présenté sa bibliothèque de patterns d'ingénierie conçus pour encadrer le développement assisté par IA. Ces modèles visent à structurer les pratiques autour des agents IA afin de garantir une livraison logicielle de haute qualité. Les réflexions de Paul Stack et Gergely Orosz, publiées dans le même contexte, pointent vers une mutation profonde des méthodes de développement, notamment l'émergence du développement piloté par spécifications et du « remixage » de code existant. Cette évolution marque un tournant pour les équipes d'ingénierie : à mesure que les agents IA prennent en charge des tâches de plus en plus complexes, la rigueur disciplinaire — tests, revues, spécifications claires — devient non pas moins nécessaire, mais davantage critique. Sans cadres solides, l'automatisation amplifie les erreurs autant que les gains de productivité. Le débat s'inscrit dans une tendance plus large où des figures influentes du secteur tech cherchent à codifier les bonnes pratiques autour de l'IA générative appliquée au code. Alors que des outils comme GitHub Copilot, Cursor ou les agents autonomes se répandent dans les entreprises, la question n'est plus de savoir si l'IA peut écrire du code, mais comment encadrer ce processus pour éviter la dette technique et les régressions systémiques.

OutilsOutil
1 source
Créer et faire évoluer un agent OpenAI sur mesure avec A-Evolve : benchmarks, compétences et mémoire
2MarkTechPost 

Créer et faire évoluer un agent OpenAI sur mesure avec A-Evolve : benchmarks, compétences et mémoire

A-Evolve est un framework open source conçu pour faire évoluer automatiquement des agents d'intelligence artificielle en modifiant itérativement leur architecture interne — leurs prompts, leurs compétences, leur mémoire — afin d'améliorer leurs performances sur des tâches définies. Un tutoriel détaillé, exécutable sur Google Colab, montre comment construire de bout en bout un pipeline d'évolution complet en s'appuyant sur GPT-4o-mini d'OpenAI comme moteur de raisonnement. Le processus commence par le clonage du dépôt GitHub A-EVO-Lab/a-evolve, la configuration d'un espace de travail structuré en couches (prompts, skills, memory, tools), et la définition d'un fichier manifeste qui spécifie les parties du système autorisées à évoluer. L'agent démarre avec un prompt système minimaliste, puis est soumis à un benchmark personnalisé comprenant des tâches de transformation de texte — calculs de sommes au format JSON, génération d'acronymes, tri de tokens — pour mesurer objectivement ses progrès à chaque génération. Ce type d'approche représente un changement de paradigme dans la façon dont les équipes construisent et maintiennent des agents IA. Plutôt que d'ajuster manuellement les prompts ou d'affiner un modèle par fine-tuning coûteux, A-Evolve automatise le cycle d'amélioration : l'agent tente des tâches, reçoit un retour structuré sous forme de scores, et un moteur d'évolution applique des mutations ciblées à son espace de travail pour corriger ses failles. Pour les développeurs et les équipes produit, cela signifie des agents qui s'améliorent de façon reproductible et traçable, sans intervention humaine à chaque itération. La philosophie est proche de l'optimisation évolutionnaire appliquée aux systèmes LLM : survivent les configurations qui performent le mieux sur le benchmark défini. A-Evolve s'inscrit dans une tendance plus large autour des agents "auto-améliorants", un sujet qui mobilise plusieurs laboratoires de recherche depuis 2024. Des travaux comme Self-Play Fine-Tuning (SPIN) chez UCLA ou les expériences d'auto-raffinement chez DeepMind ont posé les bases théoriques ; A-Evolve propose ici une implémentation pratique et accessible, orientée ingénierie plutôt que recherche fondamentale. Le framework est publié sous licence ouverte sur GitHub par l'organisation A-EVO-Lab, ce qui laisse la porte ouverte à des contributions communautaires. Les prochaines évolutions attendues concernent l'élargissement des stratégies de mutation (aujourd'hui limitées aux prompts et aux compétences codées) et l'intégration de benchmarks plus complexes, notamment des tâches de raisonnement multi-étapes ou d'interaction avec des APIs externes.

OutilsOutil
1 source
Créer un agent FinOps avec Amazon Bedrock AgentCore
3AWS ML Blog 

Créer un agent FinOps avec Amazon Bedrock AgentCore

Amazon a dévoilé une solution clé en main pour construire un agent FinOps basé sur Amazon Bedrock AgentCore, permettant aux équipes financières de gérer les coûts AWS à travers plusieurs comptes via une interface conversationnelle unique. L'architecture repose sur Claude Sonnet 4.5 d'Anthropic, le Strands Agent SDK et le protocole MCP (Model Context Protocol), déployée via AWS CDK. L'agent consolide les données de trois services AWS — Cost Explorer, Budgets et Compute Optimizer — et propose plus de 20 outils spécialisés couvrant l'intégralité du spectre de la gestion des coûts cloud. La mémoire conversationnelle conserve jusqu'à 30 jours de contexte, permettant des questions de suivi sans répéter les informations préalables. Concrètement, cette solution élimine la nécessité pour les équipes finance et DevOps de naviguer manuellement entre plusieurs consoles AWS pour obtenir une vue consolidée des dépenses. Un responsable peut simplement demander "Quels sont mes principaux postes de dépenses ce mois-ci ?" et obtenir une réponse immédiate, sans requêtes SQL ni exports manuels. L'authentification repose sur Amazon Cognito (gestion des utilisateurs et flux OAuth 2.0 machine-à-machine), tandis qu'AWS Amplify héberge l'interface web. L'accès en langage naturel démocratise la visibilité sur les coûts cloud à l'ensemble de l'organisation, y compris aux profils non techniques — un enjeu majeur dans les entreprises où la facture AWS est souvent opaque pour les décideurs métier. Le FinOps — la pratique de gouvernance financière du cloud — est devenu un domaine à part entière alors que les dépenses cloud des entreprises ont explosé ces cinq dernières années, rendant le suivi des coûts multi-comptes complexe et chronophage. Amazon Bedrock AgentCore, lancé récemment par AWS, est la réponse d'Amazon à la vague d'agents IA d'entreprise : une plateforme d'exécution managée pour déployer des agents LLM avec mémoire, outils et identité gérés nativement. Cette solution illustre parfaitement la stratégie d'AWS de transformer ses propres services (Cost Explorer, Compute Optimizer) en sources de données accessibles via des agents IA, réduisant la friction d'adoption. La concurrence s'intensifie sur ce segment : Microsoft Copilot pour Azure Cost Management et Google Cloud Carbon Footprint poursuivent des ambitions similaires. La prochaine étape logique sera l'automatisation des recommandations d'optimisation, passant d'un agent qui répond à des questions à un agent qui agit directement sur l'infrastructure pour réduire les coûts.

UELes entreprises françaises et européennes utilisant AWS peuvent simplifier leur gestion de coûts cloud multi-comptes via cet agent, sans impact réglementaire ou institutionnel spécifique.

OutilsOutil
1 source
Un système alimenté par IA pour la collecte de preuves de conformité
4AWS ML Blog 

Un système alimenté par IA pour la collecte de preuves de conformité

Des équipes d'Amazon Web Services ont développé et documenté un système automatisé de collecte de preuves pour les audits de conformité, s'appuyant sur Amazon Bedrock et une extension de navigateur compatible Chrome et Firefox. Concrètement, l'outil exécute des workflows prédéfinis qui naviguent automatiquement dans des interfaces web — GitHub, consoles AWS, applications internes — en capturant des captures d'écran horodatées, puis les stocke de manière organisée dans Amazon S3. Le cœur intelligent du système repose sur le modèle Amazon Nova 2 Lite : lorsqu'un auditeur lui soumet un document de conformité en langage naturel, le modèle l'analyse et génère automatiquement les workflows JSON exécutables correspondants. En fin de cycle, Amazon SES produit et envoie un rapport de conformité par e-mail. L'authentification est gérée via Amazon Cognito couplé à AWS STS et IAM, garantissant des accès à privilèges minimaux vers Bedrock, S3 et SES. L'impact est direct pour les équipes de conformité et de sécurité des entreprises, qui consacrent aujourd'hui des dizaines d'heures par cycle d'audit à des tâches manuelles répétitives — naviguer de page en page, faire des captures d'écran, les renommer et les classer. Ce système rend le processus reproductible à l'identique d'un audit à l'autre, élimine les erreurs humaines de capture ou d'organisation, et produit une piste d'audit complète avec horodatage et chiffrement au repos. L'approche par extension navigateur présente un avantage structurel important : elle fonctionne avec n'importe quelle application web sans nécessiter d'accès API spécifique, et s'adapte aux évolutions d'interface grâce à l'automatisation pilotée par IA plutôt que par des sélecteurs CSS fragiles. Ce développement s'inscrit dans une tendance plus large d'industrialisation des agents IA pour des tâches d'entreprise à haute valeur réglementaire. Les audits SOC 2, ISO 27001 ou PCI-DSS imposent des volumes de preuves considérables, et la pression réglementaire sur les entreprises tech ne faiblit pas — notamment en Europe avec NIS2 et l'AI Act. AWS positionne ici Bedrock non pas comme un simple moteur de génération de texte, mais comme une couche d'orchestration capable de piloter des interfaces utilisateur réelles, ce qui représente un saut qualitatif par rapport aux intégrations API classiques. La prochaine étape logique sera l'extension de ces agents à des workflows multi-systèmes entièrement autonomes, où l'humain ne valide plus que l'exception — un modèle qui soulève déjà des questions sur la supervision et la responsabilité dans les processus réglementaires.

UELes entreprises européennes soumises à NIS2 ou à l'AI Act pourraient adopter des approches similaires pour automatiser la collecte de preuves d'audit, réduisant la charge de conformité réglementaire.

OutilsOutil
1 source