Aller au contenu principal
Promptimus : améliorer automatiquement des prompts LLM déjà performants
OutilsAmazon Science1h

Promptimus : améliorer automatiquement des prompts LLM déjà performants

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon Web Services a dévoilé Promptimus, une méthode d'optimisation automatique des prompts pour grands modèles de langage (LLM), destinée aux entreprises qui cherchent à améliorer des prompts déjà bien rodés sans repartir de zéro. La particularité du système repose sur une boucle d'itération en quatre étapes : il prend en entrée un prompt existant, un petit jeu de données JSONL de 20 à 50 exemples, et des métriques de performance définies par l'utilisateur. Trois agents IA spécialisés collaborent en coulisses, un analyseur de métriques, un agent de débogage et un agent de nettoyage de code, pour identifier précisément les points de défaillance, en diagnostiquer les causes profondes, et affiner chirurgicalement le prompt en conséquence. Le système inclut également un mode édition qui permet de modifier uniquement les parties défaillantes d'un prompt complexe, sans toucher à la logique métier qui fonctionne déjà.

L'enjeu est considérable pour les entreprises. Dans les déploiements industriels, les prompts ne sont pas de simples instructions génériques : ils encodent des exigences légales précises, comme la conformité HIPAA pour les systèmes de santé, ou des règles de tolérance au risque pour les plateformes de trading financier. Ces prompts sont construits par des experts métier sur des semaines, voire des mois. Or, chaque fois qu'un fournisseur comme Anthropic, OpenAI, Google, Meta ou Alibaba sort un nouveau modèle, ces prompts soigneusement calibrés perdent en efficacité, les différences de comportement entre modèles suffisent à dégrader les performances. Promptimus est conçu pour être agnostique au modèle : il peut réoptimiser un prompt conçu pour un modèle source et l'adapter rapidement à un modèle cible, en comparant les résultats entre les deux.

La difficulté sous-jacente que Promptimus cherche à résoudre est bien connue des équipes d'ingénierie prompt : les méthodes d'optimisation automatique existantes fonctionnent bien pour créer des prompts depuis zéro, mais peinent à améliorer ceux qui sont déjà excellents. Les suggestions génériques comme « sois plus créatif » ou « ajoute des exemples » n'ont aucun effet sur un prompt déjà optimisé, dont les marges d'amélioration restent très spécifiques et difficiles à cibler. Les scores scalaires comme retour d'information ne donnent aucune indication sur le pourquoi des échecs. Face à la cadence d'évolution des modèles fondamentaux, la reoptimisation manuelle est coûteuse et retarde l'adoption de modèles plus performants. Promptimus vise à industrialiser ce processus de migration, en automatisant entièrement l'analyse des métriques et la génération des points de contrôle de débogage via du code Python importable.

Impact France/UE

Les entreprises européennes déployant des LLMs en production pourraient utiliser Promptimus pour automatiser la migration de leurs prompts lors des mises à jour de modèles fondamentaux, réduisant les coûts de réécriture manuelle.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

AgentCore Optimization : AWS lance une boucle d'amélioration des performances des agents
1AWS ML Blog 

AgentCore Optimization : AWS lance une boucle d'amélioration des performances des agents

Amazon a annoncé le lancement en préversion d'AgentCore Optimization, une nouvelle fonctionnalité intégrée à sa plateforme Amazon Bedrock AgentCore. Cette brique complète ce qu'Amazon appelle la boucle "observer, évaluer, améliorer" pour les agents IA en production. Concrètement, le système analyse automatiquement les traces de production, génère des recommandations d'optimisation pour les prompts système ou les descriptions d'outils, puis propose deux mécanismes de validation : l'évaluation par lot sur des jeux de données prédéfinis, et les tests A/B en conditions réelles via AgentCore Gateway, avec découpage du trafic en production à un pourcentage configurable et résultats assortis d'intervalles de confiance et de signification statistique. NTT DATA, partenaire annoncé lors du lancement, indique que des processus qui nécessitaient auparavant plusieurs semaines d'ajustement manuel de prompts peuvent désormais s'exécuter en cycles rapides et reproductibles. L'enjeu est de taille pour les équipes produit qui déploient des agents IA : la qualité d'un agent se dégrade silencieusement à mesure que les modèles évoluent, que le comportement des utilisateurs change, et que les prompts sont réutilisés dans des contextes imprévus. Jusqu'ici, la remédiation reposait entièrement sur l'intuition du développeur, lire des traces, formuler une hypothèse, réécrire le prompt, tester quelques cas, déployer, un cycle qui introduit souvent de nouveaux problèmes en corrigeant les anciens. AgentCore Optimization remplace cette boucle artisanale par un processus systématique fondé sur les données : les recommandations sont générées à partir des traces réelles et validées avant tout déploiement, éliminant la part de pari inhérente aux corrections en aveugle. Amazon Bedrock AgentCore, déjà utilisé par des milliers de développeurs pour construire des agents capables de raisonner et d'agir dans des workflows complexes, s'enrichit ainsi d'une couche d'amélioration continue qui manquait jusqu'à présent à l'écosystème. Les grandes équipes disposent certes d'équipes scientifiques dédiées et de benchmarks centralisés, mais ces dispositifs fonctionnent sur des cycles hebdomadaires ou mensuels, pendant que les agents dérivent en production chaque jour. En intégrant la traçabilité OpenTelemetry, les évaluateurs built-in (taux de succès, précision de sélection d'outils, sécurité), et la possibilité de simuler des jeux de données via un acteur LLM jouant le rôle de l'utilisateur final, Amazon positionne AgentCore comme une plateforme complète pour industrialiser l'optimisation des agents, une capacité qui pourrait devenir un critère de choix déterminant face à des concurrents comme Google Vertex AI ou Microsoft Azure AI Foundry.

UELes équipes européennes déployant des agents IA sur Amazon Bedrock peuvent désormais automatiser l'optimisation de leurs prompts et outils, réduisant des cycles d'ajustement manuel qui duraient plusieurs semaines à des itérations rapides et reproductibles.

OutilsOutil
1 source
Anthropic dévoile des agents IA pour automatiser les tâches financières
2Le Big Data 

Anthropic dévoile des agents IA pour automatiser les tâches financières

Anthropic a dévoilé le 5 mai 2026 une suite de dix agents IA spécialisés dans l'automatisation des tâches financières complexes. Construits sur Claude Opus 4.7, ces agents ciblent les banques, sociétés de gestion d'actifs et équipes finance d'entreprise. Ils couvrent un spectre large : préparation de pitchs commerciaux, analyse de résultats d'entreprises, suivi de marchés, modélisation financière, rapprochement comptable, clôture mensuelle, audit d'états financiers et vérification KYC. Chaque agent combine des compétences métiers, des connecteurs de données et des sous-agents spécialisés. Sur le benchmark Finance Agent de Vals AI, Anthropic revendique un score de 64,37 % pour Claude Opus 4.7, ce qui en ferait le modèle le plus performant du marché sur les usages financiers selon l'entreprise. En parallèle, Anthropic intègre nativement Claude à Microsoft 365 via des modules complémentaires pour Excel, PowerPoint et Word, avec une extension Outlook annoncée prochainement. Une fonctionnalité appelée Dispatch permet également d'assigner des tâches à distance par message ou commande vocale, l'agent poursuivant alors le travail en arrière-plan sur les fichiers locaux. L'enjeu opérationnel est considérable pour les services financiers, où une part significative du temps des analystes est absorbée par des tâches répétitives à faible valeur ajoutée. L'intégration native avec Microsoft 365 est particulièrement stratégique : Claude peut construire un modèle financier dans Excel, le transférer automatiquement dans PowerPoint et générer une présentation qui se met à jour en temps réel quand les données changent. Dans Word, il peut adapter des notes de crédit aux standards internes d'une institution. La continuité contextuelle entre applications, argument central d'Anthropic, élimine la friction habituelle : les analystes n'ont plus à réexpliquer leur travail lorsqu'ils changent d'outil. Pour les institutions qui souhaiteraient personnaliser les agents, Anthropic permet d'adapter les modèles aux règles de conformité, politiques de risque ou méthodes d'évaluation propres à chaque organisation. Cette offensive s'inscrit dans une compétition féroce entre les grands laboratoires d'IA pour s'implanter durablement dans les workflows des services financiers, secteur perçu comme l'un des plus rentables pour les déploiements à grande échelle. Anthropic s'appuie sur des connecteurs vers les plateformes de données de référence du secteur, FactSet, S&P Capital IQ, PitchBook, Morningstar, LSEG, pour crédibiliser son offre face à des acteurs comme OpenAI ou Microsoft Copilot, déjà bien installés dans les grandes institutions. D'après le Wall Street Journal, la demande des institutions financières pour des outils IA pleinement intégrés dans les processus métiers est en forte croissance, et Anthropic cherche à se positionner non plus comme un fournisseur de modèle, mais comme une véritable plateforme opérationnelle. Le déploiement en quelques jours promis par l'entreprise reste à vérifier à l'échelle, mais le signal envoyé au marché est clair : Claude vise désormais le cœur des opérations financières.

UELes institutions financières européennes (banques, sociétés de gestion d'actifs) peuvent accéder à ces agents via Microsoft 365, mais devront évaluer leur conformité avec l'AI Act et les réglementations sectorielles avant tout déploiement à grande échelle.

💬 C'est le virage qu'on attendait : Anthropic arrête d'être un fournisseur de modèle pour devenir une plateforme métier à part entière. L'intégration dans M365, avec Claude qui garde le fil entre Excel, PowerPoint et Word sans qu'on lui réexplique tout à chaque changement d'outil, c'est là que ça peut vraiment mordre face à Copilot. Le 64,37% sur le benchmark Finance, bon, c'est leur propre terrain de jeu, faut attendre les vrais déploiements pour voir si ça tient.

OutilsOutil
1 source
PromptQL transforme automatiquement vos messages Teams ou Slack en contexte sécurisé pour vos agents IA
3VentureBeat AI 

PromptQL transforme automatiquement vos messages Teams ou Slack en contexte sécurisé pour vos agents IA

PromptQL, une spin-off de la licorne GraphQL Hasura, a annoncé un pivot stratégique majeur : la startup californienne transforme son outil d'analyse de données par IA en un espace de travail entièrement natif pour agents IA. Fondée par le CEO Tanmai Gopal, l'entreprise part d'un constat viral — un fil Hacker News de février 2026 réclamant qu'OpenAI construise sa propre version de Slack pour les agents IA a cumulé 327 commentaires — pour proposer une solution concrète : convertir automatiquement les échanges Slack ou Teams en mémoire persistante et sécurisée pour les workflows agentiques. Concrètement, quand deux collègues discutent d'un bug dans leur messagerie, le système le détecte, le tague, l'assigne et le documente dans un wiki interne en un clic, sans intervention manuelle supplémentaire. "Vous n'avez plus des conversations sur le travail, vous avez des conversations qui font le travail", résume Gopal. L'enjeu est considérable pour les entreprises qui misent sur l'IA agentique. Le problème central des LLM actuels — leur incapacité à retenir le contexte entre les sessions et leur tendance aux hallucinations — est directement adressé par le "Shared Wiki" de PromptQL : une base de connaissance vivante qui s'enrichit organiquement à chaque échange d'équipe, sans nécessiter de "sprints de documentation" ou de mises à jour manuelles de fichiers YAML. Cruciale pour la confiance des entreprises, une couche "human-in-the-loop" exige qu'un humain valide explicitement chaque ajout au wiki, filtrant les informations non pertinentes. Par ailleurs, la plateforme repose sur une couche SQL virtuelle qui interroge les données directement à la source — Snowflake, Clickhouse, Postgres, Stripe, Zendesk, HubSpot — sans jamais les extraire ni les mettre en cache, ce qui répond aux exigences de sécurité et de conformité des grandes organisations. Ce pivot s'inscrit dans une course plus large à l'infrastructure pour agents IA autonomes. Depuis que des plateformes comme Slack et Teams ont montré leurs limites face aux besoins contextuels des agents — accès sécurisé aux données en temps réel, mémoire inter-sessions, exécution d'actions — plusieurs acteurs cherchent à redéfinir l'espace de travail d'entreprise. Hasura, la société mère de PromptQL connue pour avoir popularisé GraphQL et valorisée à plus d'un milliard de dollars, apporte une expertise technique solide en couches d'abstraction de données. PromptQL ambitionne de devenir ce que Gopal appelle "un stagiaire 24h/24, 7j/7 qui exécute réellement le travail" — consultant le code, vérifiant des hypothèses, naviguant entre plusieurs systèmes de façon autonome. La prochaine étape sera de convaincre les DSI que confier la mémoire collective de leur entreprise à une plateforme tierce, même avec des garanties techniques solides, vaut le risque.

OutilsOutil
1 source
Hermes permet aux agents IA de s'améliorer eux-mêmes, propulsés par les PC NVIDIA RTX et le DGX Spark
4NVIDIA AI Blog 

Hermes permet aux agents IA de s'améliorer eux-mêmes, propulsés par les PC NVIDIA RTX et le DGX Spark

Hermes Agent, le nouveau framework d'agents IA développé par Nous Research, a franchi les 140 000 étoiles sur GitHub en moins de trois mois et s'est imposé la semaine dernière comme l'agent le plus utilisé au monde selon OpenRouter. Conçu pour fonctionner en local et en continu, il est optimisé pour tourner sur les GPU NVIDIA RTX, les stations de travail RTX PRO et les machines DGX Spark. Sa particularité principale est sa capacité d'auto-amélioration : à chaque tâche complexe ou retour utilisateur, Hermes enregistre ses apprentissages sous forme de compétences réutilisables, ce qui lui permet de s'améliorer au fil du temps sans intervention humaine. Il intègre également une architecture de sous-agents isolés, chacun dédié à une sous-tâche précise, ce qui réduit la confusion, minimise la taille des fenêtres de contexte nécessaires et rend le système plus fiable sur des modèles de 30 milliards de paramètres. Nous Research teste et valide chaque outil embarqué, ce qui distingue Hermes de la plupart des frameworks concurrents qui exigent un débogage constant. En parallèle, Alibaba a lancé la série Qwen 3.6, dont les modèles de 27 et 35 milliards de paramètres surpassent les versions précédentes de 120 et 400 milliards de paramètres, tout en nécessitant respectivement environ 20 Go de mémoire au lieu de 70 Go ou plus. L'enjeu est considérable : pour la première fois, des agents IA capables de s'auto-améliorer, de planifier des tâches multi-étapes et d'agir de façon autonome en continu deviennent accessibles sur du matériel grand public ou de gamme professionnelle. Un développeur ou une PME peut désormais faire tourner un agent équivalent à ce qui nécessitait autrefois un datacenter, grâce à des GPU comme le RTX 5090 ou une machine compacte comme le DGX Spark, qui offre 128 Go de mémoire unifiée et 1 pétaflop de performance IA. Les Tensor Cores NVIDIA réduisent le temps d'inférence de minutes à secondes, rendant les workflows autonomes viables à l'échelle d'une journée de travail complète. Cette convergence entre frameworks open source matures et modèles locaux ultra-compressés marque une rupture dans la démocratisation de l'IA agentique. Jusqu'ici, les agents performants dependaient de l'API d'OpenAI ou d'Anthropic, avec les coûts et les questions de confidentialité que cela implique. La montée en puissance de modèles open weight comme Qwen 3.6, combinée à des frameworks comme Hermes qui rivalisent avec les solutions propriétaires sur des benchmarks identiques, repositionne le matériel local comme infrastructure stratégique. NVIDIA profite directement de cette tendance en poussant le DGX Spark comme poste de travail dédié à l'IA agentique permanente, un segment encore embryonnaire mais en croissance rapide à mesure que les entreprises cherchent à internaliser leurs pipelines d'IA.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour