Aller au contenu principal
Conseil sur le feedback des agents
OutilsBen's Bites1h

Conseil sur le feedback des agents

Résumé IASource uniqueImpact UE
Source originale ↗·

Un développeur partage une technique récente pour fluidifier ses échanges avec des agents IA : plutôt que de taper ses retours ou d'utiliser la dictée vocale, il enregistre son écran en commentant à voix haute ce qu'il fait, puis fournit cette vidéo directement à l'agent. Ce dernier analyse les images, transcrit la voix, extrait les moments clés horodatés et génère un rapport HTML structuré, avec des GIFs illustrant les points importants et une liste d'actions à accomplir. La méthode permet aussi de naviguer vers d'autres applications pour montrer des exemples de référence, que l'agent intègre dans son analyse. Ben a formalisé cette approche en une "skill" réutilisable baptisée video-to-html, qui instruit l'agent pour convertir n'importe quelle vidéo en document HTML structuré avec keyframes, horodatages et animations courtes. Les fichiers générés servent également de journal de bord du projet, consultables à tout moment.

Cette technique s'attaque à un problème concret dans les workflows avec des agents : la difficulté à communiquer un retour visuel précis et contextualisé. Là où les feedbacks textuels restent abstraits et les captures d'écran statiques, la vidéo permet de montrer l'interface en situation réelle, de naviguer entre applications, et de commenter en temps réel ce qui fonctionne ou non. L'approche consomme davantage de tokens, mais l'auteur note que les agents analysent efficacement les frames extraites, rendant une compression préalable via ffmpeg superflue pour la plupart des usages. Pour les équipes travaillant régulièrement avec des agents de développement ou de design, ce type de boucle de feedback visuel structuré pourrait accélérer les itérations de manière significative, en réduisant les allers-retours d'éclaircissement.

Cette semaine apporte également plusieurs annonces importantes pour l'écosystème IA. Anthropic a annoncé un changement de politique à compter du 15 juin : les utilisateurs de Claude via des outils tiers comme Cursor, Zed ou T3 Code disposeront d'un quota distinct, équivalent en valeur à leur abonnement mensuel, sans report possible ni tokens subventionnés au-delà. En compensation, les limites hebdomadaires augmentent de 50 % pendant les deux prochains mois. Vercel, de son côté, a publié un index de production basé sur l'usage réel de son AI Gateway : Anthropic capte 61 % des dépenses (porté par Opus), Google représente 38 % des volumes de tokens (grâce à Flash), et les workloads agentiques constituent désormais 59 % de la totalité des tokens consommés. Notion a lancé une plateforme développeur avec une API markdown permettant la synchronisation de données externes et l'intégration d'agents comme Claude directement dans l'outil, accompagnée d'un CLI nommé ntn. Google a présenté "Gemini Intelligence" pour Android, incluant l'autocomplétion de formulaires et la transformation de notes vocales en texte structuré, à quelques jours de sa conférence I/O.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud
1Le Big Data 

Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud

Mistral AI a franchi une étape décisive le 29 avril 2026 avec le lancement des agents distants dans sa plateforme Vibe. Jusqu'à présent cantonnés à la machine locale de l'utilisateur, ces agents peuvent désormais s'exécuter entièrement dans le cloud, lancés depuis la ligne de commande ou depuis Le Chat, l'interface conversationnelle de Mistral. Le moteur de cette évolution est Mistral Medium 3.5, un nouveau modèle conçu spécifiquement pour gérer le raisonnement, le suivi d'instructions complexes et la génération de code. Une fois une tâche lancée, l'agent travaille en arrière-plan, peut poser des questions si nécessaire, suit les modifications de fichiers en temps réel et, en fin de session, crée automatiquement une pull request sur GitHub pour validation. Plusieurs agents peuvent fonctionner en parallèle, et une session locale peut être basculée dans le cloud sans interruption. Ce changement modifie profondément la position du développeur dans le cycle de production. L'utilisateur n'est plus un point de blocage : il confie une tâche, reprend ses activités, et n'intervient qu'au moment de la validation finale. Chaque session s'exécute dans un environnement isolé où l'agent peut installer des dépendances, tester des correctifs et modifier du code de façon autonome. La portée dépasse le seul développement logiciel : le mode Travail intégré à Le Chat étend la même logique à la recherche, à l'analyse et à la rédaction, permettant de préparer automatiquement une réunion, de gérer des tickets ou de traiter des e-mails. Vibe s'intègre directement dans les écosystèmes existants, GitHub, Jira, Linear, Slack, Teams, sans remplacer ces outils mais en les activant via l'IA. Cette annonce s'inscrit dans une compétition acharnée autour du "vibe coding" et des agents d'ingénierie autonomes, un segment où Cursor, GitHub Copilot Workspace et Devin se disputent déjà le marché. Mistral, qui a levé 1,1 milliard de dollars fin 2024 et revendique une position d'alternative européenne aux géants américains, accélère sa montée en gamme vers des cas d'usage professionnels à forte valeur ajoutée. La sortie simultanée de Mistral Medium 3.5 comme socle technique des agents Vibe signale une stratégie de verticalisation : contrôler à la fois le modèle et la couche applicative. Les prochaines étapes probables concerneront l'élargissement des intégrations d'outils, la gestion de projets multi-dépôts et une tarification adaptée aux équipes d'ingénierie qui délèguent des workflows entiers à ces agents.

UEMistral, entreprise française, consolide sa position dans la course aux agents de codage autonomes et offre aux équipes européennes une alternative souveraine aux outils américains comme Cursor ou GitHub Copilot Workspace.

💬 Mistral fait enfin le truc qu'on attendait : contrôler à la fois le modèle et la couche applicative, pas juste vendre une API. La PR automatique en fin de session, c'est le petit détail qui change tout dans le quotidien d'une équipe, parce que c'est là que la supervision humaine a encore du sens. Reste à voir si Medium 3.5 tient la comparaison avec ce que Cursor fait tourner depuis des mois.

OutilsOutil
1 source
Slack unifié chez Salesforce : nouvelle interface pour les agents IA
2Le Big Data 

Slack unifié chez Salesforce : nouvelle interface pour les agents IA

Salesforce a annoncé une refonte majeure de Slack pour en faire l'interface centrale de pilotage des agents IA en entreprise. L'éditeur américain positionne désormais sa plateforme de messagerie collaborative comme un point d'entrée unique capable de réunir conversations, données et automatisations dans un seul espace. Au coeur de cette évolution, Slackbot change de dimension : l'assistant ne se limite plus à répondre à des requêtes simples mais intervient directement dans les flux de travail, s'appuyant sur les conversations, fichiers et historiques disponibles. Il peut rédiger, analyser ou générer du code, et apprend progressivement les habitudes de chaque utilisateur pour adapter ses réponses. Parker Harris, cofondateur de Salesforce, résume l'ambition : Slack devient selon lui "le système d'exploitation du travail", capable de relier collaborateurs, données et applications dans une interface conversationnelle unifiée. Grâce au protocole MCP, Slackbot peut également mobiliser différents agents ou applications tierces sans que l'utilisateur ait à naviguer entre plusieurs outils. L'impact concret se mesure déjà chez les premières entreprises adoptantes. Des sociétés comme Anthropic ou reMarkable rapportent des gains de temps significatifs, certains utilisateurs évoquant jusqu'à 90 minutes économisées par jour. La gestion des réunions illustre bien ces gains : Slackbot peut transcrire les échanges, produire une synthèse et déclencher automatiquement les actions nécessaires dès la fin d'une conversation, les informations étant directement injectées dans les outils internes. L'introduction de "compétences IA réutilisables" va plus loin encore : les équipes définissent une tâche précise avec ses règles et son format, et Slackbot l'identifie puis l'applique automatiquement lors des occurrences suivantes, sans intervention humaine. L'intégration poussée avec l'écosystème Salesforce permet par ailleurs de gérer des opportunités commerciales, suivre des clients ou déclencher des processus métier directement depuis une conversation. Cette transformation s'inscrit dans une tendance de fond qui traverse tout le secteur technologique : la course à l'agent IA universel, capable d'orchestrer des actions complexes à partir d'une simple instruction en langage naturel. Salesforce, qui avait racheté Slack en 2021 pour 27,7 milliards de dollars, cherche à rentabiliser cet investissement en faisant de la plateforme le liant de son vaste écosystème CRM et d'automatisation. La concurrence est directe avec Microsoft, qui intègre Copilot dans Teams selon une logique similaire, et avec des acteurs comme Notion ou Linear qui misent eux aussi sur l'IA conversationnelle pour centraliser les opérations. L'enjeu pour Salesforce est de transformer Slack d'un simple outil de messagerie en colonne vertébrale opérationnelle des entreprises, au moment où la multiplication des outils SaaS crée une fragmentation croissante que les organisations cherchent à résorber.

UELes entreprises européennes utilisant l'écosystème Salesforce devront évaluer cette refonte de Slack dans leur stratégie d'automatisation et d'intégration des agents IA.

OutilsOutil
1 source
Amazon Bedrock AgentCore Evaluations : construire des agents IA fiables
3AWS ML Blog 

Amazon Bedrock AgentCore Evaluations : construire des agents IA fiables

Amazon a lancé AgentCore Evaluations, un service entièrement géré intégré à Amazon Bedrock, conçu pour mesurer la performance des agents d'IA tout au long de leur cycle de développement. Le problème que ce service cherche à résoudre est bien documenté dans l'industrie : un agent fonctionne parfaitement en démo, convainc les parties prenantes lors des tests, puis échoue en production face à de vrais utilisateurs. Les symptômes sont prévisibles — mauvais appels d'outils, réponses incohérentes, comportements imprévus — mais leur détection systématique exige une infrastructure que la plupart des équipes n'ont pas. AgentCore Evaluations propose un cycle continu : construction de cas de tests, exécution sur l'agent, notation automatisée, analyse des échecs et amélioration itérative. Chaque échec devient automatiquement un nouveau cas de test, ce qui permet de fermer progressivement l'écart entre le comportement attendu et le comportement réel. L'enjeu est structurel : les grands modèles de langage sont non-déterministes. Une même requête peut produire des sélections d'outils différentes, des raisonnements distincts et des réponses variées d'un run à l'autre. Un seul passage de test ne dit pas ce qui se passe habituellement — il dit seulement ce qui peut arriver. Pour obtenir une image fiable du comportement d'un agent, il faut répéter chaque scénario plusieurs fois et agréger les résultats. Sans cela, chaque modification de prompt devient un pari : les équipes ignorent si leurs changements améliorent ou dégradent les performances, et brûlent des crédits API sans visibilité réelle. AgentCore Evaluations adresse précisément cette incertitude en fournissant des métriques de qualité sur plusieurs dimensions — exactitude des sélections d'outils, validité des paramètres, précision des réponses finales — pour le développement comme pour la production. Ce lancement s'inscrit dans une tendance plus large : la maturité des agents d'IA dépasse désormais la phase d'expérimentation et entre dans celle de l'ingénierie de fiabilité. Construire l'infrastructure d'évaluation en interne — curation de datasets, hébergement de modèles de scoring, gestion des limites de débit, pipelines de transformation des traces, tableaux de bord — représente un coût fixe considérable que les équipes multiplient pour chaque agent déployé. Amazon positionne AgentCore Evaluations comme la réponse cloud à ce problème, en absorbant cette complexité dans un service managé. La concurrence est vive : des outils comme LangSmith, Braintrust ou PromptFoo couvrent des besoins similaires, mais l'intégration native dans l'écosystème Bedrock donne à AWS un avantage naturel pour les entreprises déjà engagées sur sa plateforme. La prochaine étape logique sera de voir si le service s'étend aux agents multi-modaux et aux architectures multi-agents, deux domaines où l'évaluation reste un problème ouvert.

UELes équipes européennes développant des agents IA sur Amazon Bedrock peuvent adopter ce service managé pour remplacer une infrastructure d'évaluation coûteuse à construire en interne.

OutilsOutil
1 source
4VentureBeat AI 

Les entreprises IA à base d'agents : concevoir pour des performances mesurables

Les agents d'intelligence artificielle semi-autonomes capables de gérer des tâches métier complexes en temps réel ne sont plus une promesse lointaine, c'est désormais une réalité opérationnelle pour certaines grandes entreprises. EdgeVerve, filiale d'Infosys spécialisée dans l'automatisation intelligente, a récemment publié un cadre de conception pour déployer ces agents à l'échelle industrielle. L'entreprise cite ses propres déploiements en production : dans un environnement financier réel piloté par un directeur financier, sept agents interconnectés ont généré en un an une amélioration de plus de 3 % des flux de trésorerie mensuels, un gain de productivité de 50 % sur les workflows concernés, un onboarding 90 % plus rapide, et un impact total de 32 millions de dollars sur la trésorerie. En maintenance immobilière, des résultats similaires ont été obtenus grâce à des agents spécialisés dans la coordination des interventions. Ces chiffres illustrent ce qui distingue un pilote réussi d'un projet abandonné : l'ancrage dans des objectifs métier mesurables dès le départ. La méthode préconisée consiste à partir des KPI organisationnels, délai de recouvrement (DSO), taux de conformité, temps moyen de résolution (MTTR), satisfaction client (NPS), pour définir les objectifs des agents, puis seulement choisir les workflows à automatiser. Les "zones grises opérationnelles", ces espaces entre les applications où subsistent encore des validations manuelles, des réconciliations et des transferts humains, représentent le prochain gisement de valeur. C'est là que les agents peuvent éliminer les frictions systémiques sans remplacer intégralement des processus formalisés. Le cadre repose sur quatre piliers : autonomie calibrée selon le niveau de risque (de la simple suggestion à l'exécution avec rollback automatique), gouvernance intégrée dès la conception avec des garde-fous stricts sur les données personnelles et réglementaires, observabilité continue via des évaluations et métriques en temps réel, et flexibilité d'intégration allant bien au-delà des seules API classiques, en incluant les flux événementiels, les connecteurs RAG pour bases documentaires, et des fallbacks RPA là où les API n'existent pas. Le risque central identifié est celui des agents "hallucinant" des actions non vérifiables par l'entreprise, d'où l'insistance sur l'idempotence, les mécanismes de retry et les schémas d'outils standardisés. Dans un contexte où de nombreuses entreprises peinent encore à sortir leurs agents du stade expérimental, ce retour d'expérience chiffré positionne EdgeVerve comme un acteur cherchant à normaliser les déploiements agentiques en environnement critique.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour