Aller au contenu principal
Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents
OutilsAWS ML Blog2h

Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents

1 source couvre ce sujet·Source originale ↗·

Amazon a lancé Nova Act, un service AWS conçu pour automatiser les tests d'assurance qualité (QA) dans les pipelines de livraison logicielle. Contrairement aux frameworks traditionnels qui s'appuient sur des sélecteurs CSS, des identifiants d'éléments ou des références structurelles pour naviguer dans les interfaces, Nova Act utilise un modèle de compréhension visuelle et le langage naturel — exactement comme le ferait un utilisateur humain. La solution s'accompagne de QA Studio, une interface de référence incluant un frontend web, une API et une CLI, construite sur une infrastructure serverless AWS. Les équipes peuvent y créer des suites de tests via un assistant de parcours utilisateur, déclencher des exécutions à la demande, les planifier ou les intégrer directement dans leurs pipelines CI/CD. L'ensemble s'appuie sur Amazon Bedrock AgentCore Browser pour la prévisualisation en direct et AWS Secrets Manager pour la saisie sécurisée des données sensibles.

L'enjeu est considérable pour les équipes produit et engineering. Dans les organisations actuelles, les critères d'acceptance sont définis par les product managers en langage métier, implémentés par les développeurs, puis retranscrits en code d'automatisation — souvent par ces mêmes développeurs. Ce fossé entre ceux qui comprennent les besoins utilisateurs et ceux qui maintiennent les tests crée une dette technique permanente : chaque refactoring d'interface ou ajustement de layout casse des dizaines de tests, même quand les fonctionnalités restent intactes. Nova Act supprime ce goulot d'étranglement en permettant à n'importe quel membre de l'équipe — y compris des non-développeurs — de rédiger et maintenir des tests en langage naturel. Quand un designer déplace un bouton ou qu'un développeur restructure un composant React, les tests s'adaptent automatiquement sans intervention manuelle.

Cette annonce s'inscrit dans une course plus large des grands fournisseurs cloud à proposer des agents capables d'interagir avec des interfaces graphiques. OpenAI avec Operator, Anthropic avec Computer Use, et désormais AWS avec Nova Act ciblent tous le même marché : remplacer les scripts d'automatisation fragiles par des agents visuels autonomes. Pour AWS, l'intégration native dans l'écosystème Bedrock et les services managés représente un avantage compétitif face aux solutions standalone. Le marché du test logiciel automatisé pèse plusieurs milliards de dollars et souffre d'un taux d'échec élevé des projets d'automatisation traditionnels — souvent abandonnés après quelques mois faute de ressources pour maintenir les scripts. Si Nova Act tient ses promesses de résilience aux changements UI, il pourrait redistribuer significativement les cartes dans ce secteur et accélérer l'adoption de l'approche "shift-left" où les tests sont écrits dès la définition des exigences.

Impact France/UE

Les équipes engineering européennes utilisant AWS peuvent intégrer Nova Act dans leurs pipelines CI/CD, mais aucun impact réglementaire ou institutionnel direct sur la France ou l'UE.

À lire aussi

Les patterns d'IA à base d'agents renforcent la rigueur d'ingénierie
1InfoQ AI 

Les patterns d'IA à base d'agents renforcent la rigueur d'ingénierie

Paul Duvall a récemment présenté sa bibliothèque de patterns d'ingénierie conçus pour encadrer le développement assisté par IA. Ces modèles visent à structurer les pratiques autour des agents IA afin de garantir une livraison logicielle de haute qualité. Les réflexions de Paul Stack et Gergely Orosz, publiées dans le même contexte, pointent vers une mutation profonde des méthodes de développement, notamment l'émergence du développement piloté par spécifications et du « remixage » de code existant. Cette évolution marque un tournant pour les équipes d'ingénierie : à mesure que les agents IA prennent en charge des tâches de plus en plus complexes, la rigueur disciplinaire — tests, revues, spécifications claires — devient non pas moins nécessaire, mais davantage critique. Sans cadres solides, l'automatisation amplifie les erreurs autant que les gains de productivité. Le débat s'inscrit dans une tendance plus large où des figures influentes du secteur tech cherchent à codifier les bonnes pratiques autour de l'IA générative appliquée au code. Alors que des outils comme GitHub Copilot, Cursor ou les agents autonomes se répandent dans les entreprises, la question n'est plus de savoir si l'IA peut écrire du code, mais comment encadrer ce processus pour éviter la dette technique et les régressions systémiques.

OutilsOutil
1 source
Créer et faire évoluer un agent OpenAI sur mesure avec A-Evolve : benchmarks, compétences et mémoire
2MarkTechPost 

Créer et faire évoluer un agent OpenAI sur mesure avec A-Evolve : benchmarks, compétences et mémoire

A-Evolve est un framework open source conçu pour faire évoluer automatiquement des agents d'intelligence artificielle en modifiant itérativement leur architecture interne — leurs prompts, leurs compétences, leur mémoire — afin d'améliorer leurs performances sur des tâches définies. Un tutoriel détaillé, exécutable sur Google Colab, montre comment construire de bout en bout un pipeline d'évolution complet en s'appuyant sur GPT-4o-mini d'OpenAI comme moteur de raisonnement. Le processus commence par le clonage du dépôt GitHub A-EVO-Lab/a-evolve, la configuration d'un espace de travail structuré en couches (prompts, skills, memory, tools), et la définition d'un fichier manifeste qui spécifie les parties du système autorisées à évoluer. L'agent démarre avec un prompt système minimaliste, puis est soumis à un benchmark personnalisé comprenant des tâches de transformation de texte — calculs de sommes au format JSON, génération d'acronymes, tri de tokens — pour mesurer objectivement ses progrès à chaque génération. Ce type d'approche représente un changement de paradigme dans la façon dont les équipes construisent et maintiennent des agents IA. Plutôt que d'ajuster manuellement les prompts ou d'affiner un modèle par fine-tuning coûteux, A-Evolve automatise le cycle d'amélioration : l'agent tente des tâches, reçoit un retour structuré sous forme de scores, et un moteur d'évolution applique des mutations ciblées à son espace de travail pour corriger ses failles. Pour les développeurs et les équipes produit, cela signifie des agents qui s'améliorent de façon reproductible et traçable, sans intervention humaine à chaque itération. La philosophie est proche de l'optimisation évolutionnaire appliquée aux systèmes LLM : survivent les configurations qui performent le mieux sur le benchmark défini. A-Evolve s'inscrit dans une tendance plus large autour des agents "auto-améliorants", un sujet qui mobilise plusieurs laboratoires de recherche depuis 2024. Des travaux comme Self-Play Fine-Tuning (SPIN) chez UCLA ou les expériences d'auto-raffinement chez DeepMind ont posé les bases théoriques ; A-Evolve propose ici une implémentation pratique et accessible, orientée ingénierie plutôt que recherche fondamentale. Le framework est publié sous licence ouverte sur GitHub par l'organisation A-EVO-Lab, ce qui laisse la porte ouverte à des contributions communautaires. Les prochaines évolutions attendues concernent l'élargissement des stratégies de mutation (aujourd'hui limitées aux prompts et aux compétences codées) et l'intégration de benchmarks plus complexes, notamment des tâches de raisonnement multi-étapes ou d'interaction avec des APIs externes.

OutilsOutil
1 source
Slack ajoute 30 fonctionnalités IA à Slackbot, sa mise à jour la plus ambitieuse depuis le rachat par Salesforce
3VentureBeat AI 

Slack ajoute 30 fonctionnalités IA à Slackbot, sa mise à jour la plus ambitieuse depuis le rachat par Salesforce

Slack a annoncé mardi plus de 30 nouvelles fonctionnalités pour Slackbot, son assistant IA intégré, lors d'un événement keynote co-animé par le PDG de Salesforce, Marc Benioff. Cette mise à jour, la plus ambitieuse depuis le rachat de Slack par Salesforce pour 27,7 milliards de dollars en 2021, transforme Slackbot en un véritable agent d'entreprise autonome. Parmi les nouveautés : un mode de recherche approfondie capable de mener des investigations multi-étapes en environ quatre minutes, une intégration du protocole MCP (Model Context Protocol) permettant d'interagir avec plus de 2 600 applications du Slack Marketplace et 6 000 applications Salesforce AppExchange, ainsi qu'une intelligence de réunion qui transcrit et résume les appels sur Zoom, Google Meet ou tout autre fournisseur en captant l'audio directement depuis l'application desktop. Slack introduit également les "AI-Skills", des ensembles d'instructions réutilisables que les équipes peuvent créer une fois et déployer à la demande — Slackbot les appliquant automatiquement dès qu'il reconnaît un cas d'usage correspondant. Ces changements ne sont pas anodins : lancé en disponibilité générale le 13 janvier 2026 pour les abonnés Business+ et Enterprise+, Slackbot est en passe de devenir le produit le plus rapidement adopté des 27 ans d'histoire de Salesforce. Certains employés de sociétés clientes déclarent économiser jusqu'à 90 minutes par jour, tandis qu'en interne, les équipes Salesforce revendiquent des gains allant jusqu'à 20 heures par semaine, soit plus de 6,4 millions de dollars de valeur productive estimée. Pour les petites entreprises, Slackbot peut même faire office de CRM léger, sans installation supplémentaire. L'enjeu est donc considérable : Slack veut se positionner comme un "système d'exploitation agentique" — une interface unique par laquelle les travailleurs pilotent leurs agents IA, leurs applications métier et leurs collaborateurs. Ce pivot s'inscrit dans une bataille frontale avec Microsoft, qui intègre depuis deux ans son assistant Copilot à l'ensemble de sa suite de productivité. Salesforce, longtemps perçu comme n'ayant pas pleinement exploité son acquisition de Slack, semble désormais vouloir en faire le point de convergence de sa stratégie IA, portée par la plateforme Agentforce. Rob Seaman, PDG par intérim de Slack et ancien directeur produit, résume l'ambition sans détour : "La limite supérieure des cas d'usage est effectivement illimitée." Avec l'adoption massive du MCP comme standard d'intégration et une architecture pensée pour l'autonomie des agents, Slack parie que l'interface de messagerie d'entreprise deviendra le cockpit central de l'IA au travail — un territoire que Microsoft, Google et d'autres entendent bien ne pas céder facilement.

UELes entreprises européennes abonnées à Slack Business+ ou Enterprise+ ont accès depuis janvier 2026 à ces capacités agentiques, ce qui peut influencer leurs décisions d'outillage face à Microsoft 365 Copilot.

OutilsOutil
1 source
Créer un agent FinOps avec Amazon Bedrock AgentCore
4AWS ML Blog 

Créer un agent FinOps avec Amazon Bedrock AgentCore

Amazon a dévoilé une solution clé en main pour construire un agent FinOps basé sur Amazon Bedrock AgentCore, permettant aux équipes financières de gérer les coûts AWS à travers plusieurs comptes via une interface conversationnelle unique. L'architecture repose sur Claude Sonnet 4.5 d'Anthropic, le Strands Agent SDK et le protocole MCP (Model Context Protocol), déployée via AWS CDK. L'agent consolide les données de trois services AWS — Cost Explorer, Budgets et Compute Optimizer — et propose plus de 20 outils spécialisés couvrant l'intégralité du spectre de la gestion des coûts cloud. La mémoire conversationnelle conserve jusqu'à 30 jours de contexte, permettant des questions de suivi sans répéter les informations préalables. Concrètement, cette solution élimine la nécessité pour les équipes finance et DevOps de naviguer manuellement entre plusieurs consoles AWS pour obtenir une vue consolidée des dépenses. Un responsable peut simplement demander "Quels sont mes principaux postes de dépenses ce mois-ci ?" et obtenir une réponse immédiate, sans requêtes SQL ni exports manuels. L'authentification repose sur Amazon Cognito (gestion des utilisateurs et flux OAuth 2.0 machine-à-machine), tandis qu'AWS Amplify héberge l'interface web. L'accès en langage naturel démocratise la visibilité sur les coûts cloud à l'ensemble de l'organisation, y compris aux profils non techniques — un enjeu majeur dans les entreprises où la facture AWS est souvent opaque pour les décideurs métier. Le FinOps — la pratique de gouvernance financière du cloud — est devenu un domaine à part entière alors que les dépenses cloud des entreprises ont explosé ces cinq dernières années, rendant le suivi des coûts multi-comptes complexe et chronophage. Amazon Bedrock AgentCore, lancé récemment par AWS, est la réponse d'Amazon à la vague d'agents IA d'entreprise : une plateforme d'exécution managée pour déployer des agents LLM avec mémoire, outils et identité gérés nativement. Cette solution illustre parfaitement la stratégie d'AWS de transformer ses propres services (Cost Explorer, Compute Optimizer) en sources de données accessibles via des agents IA, réduisant la friction d'adoption. La concurrence s'intensifie sur ce segment : Microsoft Copilot pour Azure Cost Management et Google Cloud Carbon Footprint poursuivent des ambitions similaires. La prochaine étape logique sera l'automatisation des recommandations d'optimisation, passant d'un agent qui répond à des questions à un agent qui agit directement sur l'infrastructure pour réduire les coûts.

UELes entreprises françaises et européennes utilisant AWS peuvent simplifier leur gestion de coûts cloud multi-comptes via cet agent, sans impact réglementaire ou institutionnel spécifique.

OutilsOutil
1 source