Aller au contenu principal
OutilsVentureBeat AI50min

Claude Code : '/goals' sépare l'agent qui travaille de celui qui décide que c'est fini

Résumé IASource uniqueImpact UE
Source originale ↗·

Anthropic a introduit une nouvelle fonctionnalité dans Claude Code appelée /goals, qui sépare formellement l'exécution d'une tâche de son évaluation. Concrètement, lorsqu'un développeur définit un objectif via cette commande, par exemple /goal all tests in test/auth pass, and the lint step is clean, un second modèle, Claude Haiku par défaut, intervient après chaque étape pour vérifier si la condition est réellement remplie. Si ce n'est pas le cas, l'agent continue à travailler. Ce n'est qu'une fois la condition satisfaite que le système enregistre l'objectif atteint dans la transcription de la conversation et efface l'instruction. Haiku est retenu pour ce rôle d'évaluateur car sa décision est binaire : terminé ou pas terminé.

Le problème que /goals cherche à résoudre est concret et coûteux : un agent de migration de code peut terminer son exécution, afficher un pipeline vert, mais avoir laissé plusieurs composants non compilés, une erreur qui peut prendre plusieurs jours à détecter. Ce n'est pas une défaillance du modèle en tant que tel, c'est l'agent qui décide qu'il a fini avant que ce soit réellement le cas. Pour les entreprises qui déploient des pipelines IA en production, cette confusion entre ce qui a été accompli et ce qui reste à faire représente un risque opérationnel sérieux. Avec ce mécanisme natif, Anthropic affirme qu'il n'est plus nécessaire de s'appuyer sur une plateforme d'observabilité tierce ni sur des journaux personnalisés pour reconstruire après coup ce qui s'est passé.

D'autres acteurs du secteur ont identifié le même obstacle. OpenAI permet aux utilisateurs d'ajouter leurs propres évaluateurs mais laisse au modèle la responsabilité de décider quand s'arrêter. LangGraph et le Google Agent Development Kit (ADK) rendent possible une évaluation indépendante, mais exigent que les développeurs définissent eux-mêmes le nœud critique, la logique de terminaison et la configuration de l'observabilité. Google ADK propose un LoopAgent aux capacités comparables, mais l'architecture reste entièrement à la charge du développeur. Anthropic, en intégrant l'évaluateur directement dans Claude Code avec des paramètres par défaut, mise sur la simplicité de déploiement comme avantage différenciant. Sean Brownell, directeur solutions chez Sprinklr, tempère toutefois l'enthousiasme : la boucle tâche/juge fonctionne, mais l'approche d'Anthropic n'est pas fondamentalement unique. Cette évolution s'inscrit dans une tendance plus large où les systèmes de vérification indépendants deviennent un composant standard des agents à longue durée d'exécution, aux côtés d'outils comme Devin ou SWE-agent.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création
1Latent Space 

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création

OpenAI a déployé cette semaine une mise à jour majeure de Codex, repositionnant l'outil bien au-delà du code pour en faire un agent universel de travail sur ordinateur. Intitulée « Codex for Work », cette évolution introduit un navigateur réactif 42 % plus rapide, de nouvelles commandes comme /chronicle et /goal, une interface de planification inédite et un éditeur de fichiers intégré pour les formats Microsoft Office, avec des connexions directes aux suites Microsoft, Google et Salesforce. Sam Altman a personnellement amplifié le lancement sur X en invitant les utilisateurs à « essayer Codex pour les tâches non-coding ». Dans le même temps, Anthropic a lancé Claude Security, un outil de revue de code axé sur la détection de vulnérabilités, et a annoncé le support de logiciels créatifs majeurs : Blender, Autodesk, Adobe Creative Cloud, Ableton, Splice, Canva et Affinity. Sur le front des évaluations, le UK AI Security Institute a signalé que GPT-5.5 est devenu le deuxième modèle à compléter de bout en bout une simulation d'attaque informatique multi-étapes, avec un taux de réussite moyen de 71,4 % contre 68,6 % pour Claude Mythos Preview. Ces annonces marquent un tournant stratégique dans la compétition entre les deux leaders de l'IA générative. En transformant Codex en agent généraliste, OpenAI cherche à capturer un marché bien plus large que le développement logiciel : les travailleurs du savoir, analystes, juristes, marketeurs et consultants, qui passent leurs journées entre documents, présentations et feuilles de calcul. L'interface dynamique adoptée par Codex, qui laisse l'agent choisir lui-même l'expérience utilisateur selon la nature de la tâche plutôt qu'un simple bouton de bascule, illustre une ambition de « SuperApp » pleinement assumée. Du côté d'Anthropic, l'intégration aux outils créatifs professionnels ouvre Claude à un public radicalement différent : graphistes, musiciens, vidéastes. Quant aux résultats cyber de GPT-5.5, ils remettent en cause l'avantage qu'Anthropic était supposé détenir dans l'automatisation offensive, les performances du modèle continuant de progresser au-delà de 100 millions de tokens d'inférence sans signe de saturation visible. Ces évolutions s'inscrivent dans une dynamique que les observateurs du secteur nomment « la sortie de confinement des agents de coding » : les outils initialement conçus pour les développeurs commencent à coloniser l'ensemble du travail sur ordinateur. OpenAI productise désormais activement l'interface « agent computer-use », tandis qu'Anthropic mise sur la sécurité et la créativité pour différencier Claude. GPT-5.5 Pro envoie également un signal économique notable : selon Artificial Analysis, il améliore légèrement les scores sur le benchmark CritPt par rapport à GPT-5.4 Pro tout en réduisant les coûts d'environ 60 %, suggérant qu'OpenAI parie autant sur l'efficacité que sur la puissance brute. Les prochaines semaines diront si ces repositionnements trouvent un écho réel auprès des utilisateurs non-techniques que les deux entreprises cherchent désormais à conquérir.

UELes nouveaux outils d'OpenAI et Anthropic (Codex for Work, Claude Security, intégrations créatives) sont accessibles aux professionnels européens, mais les résultats du UK AI Security Institute sur les capacités offensives de GPT-5.5 interpellent les régulateurs de l'UE sur les implications de l'AI Act pour les modèles à double usage.

💬 OpenAI fait sortir Codex du code pour aller chercher les consultants et les juristes, et l'interface qui s'adapte toute seule à la tâche sans bascule manuelle, c'est là que le truc est sérieux. Claude dans Blender et Ableton, je l'attendais pas, mais ça a du sens comme différenciation. Et GPT-5.5 qui boucle des simulations d'attaque cyber à 71%, ça, ça va faire causer bien au-delà du secteur IA.

OutilsOutil
1 source
Agent View débarque sur Claude Code : votre armée d’agents IA en une vue
2Le Big Data 

Agent View débarque sur Claude Code : votre armée d’agents IA en une vue

Anthropic a lancé une nouvelle fonctionnalité appelée Agent View pour son outil Claude Code, disponible dès la version 2.1.139 de l'application. Accessible via la commande claude agents dans le terminal, cette interface regroupe l'ensemble des sessions d'agents actives dans un tableau de bord unique intégré directement à l'environnement de développement. Elle est disponible pour tous les abonnements Pro, Max, Team et Enterprise, ainsi que via l'API Claude, dans le respect des limites de débit habituelles. Les administrateurs d'organisation disposent par ailleurs de la possibilité de désactiver la fonctionnalité depuis les paramètres centraux. Chaque ligne du tableau de bord représente une session Claude Code avec son état en temps réel : en cours, en attente de réponse humaine, terminée, inactive, arrêtée ou en échec. Pour les équipes de développeurs qui orchestrent plusieurs tâches simultanées, Agent View change concrètement la façon de travailler. Jusqu'ici, gérer plusieurs agents en parallèle signifiait jongler entre de multiples fenêtres de terminal, sans vue d'ensemble claire sur l'état de chaque processus. Désormais, un développeur peut lancer en parallèle des agents chargés de correctifs, de tests, de revues de code ou de mises à jour, passer de l'un à l'autre sans friction, reprendre une session suspendue à tout moment, et surtout identifier immédiatement les agents qui nécessitent une intervention humaine. Ce gain de visibilité est particulièrement précieux dans les environnements d'intégration continue où le temps perdu à chercher quelle tâche est bloquée peut coûter cher. Cette mise à jour s'inscrit dans une stratégie plus large qu'Anthropic mène depuis plusieurs mois pour transformer Claude Code en véritable plateforme de gestion d'agents IA pour les équipes techniques. L'entreprise avait déjà introduit successivement les sous-agents, les équipes d'agents, les compétences personnalisées, les hooks, les commandes à distance, les tâches programmées et une version web de Claude Code. Agent View est en quelque sorte la pièce qui manquait : elle consolide tous ces blocs épars en une interface cohérente. Anthropic cherche clairement à sortir Claude Code du statut d'assistant à l'écriture de code pour en faire un outil d'orchestration de workflows autonomes, en concurrence directe avec des environnements comme GitHub Copilot Workspace ou les solutions agentiques de Google DeepMind. La question qui reste ouverte est celle de la fiabilité à grande échelle : plus les agents sont nombreux et autonomes, plus la capacité à détecter rapidement les échecs devient critique, et c'est précisément ce que vise Agent View.

OutilsOutil
1 source
Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout
3Le Big Data 

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout

OpenAI a annoncé le 16 avril 2026 une mise à jour majeure de Codex, son assistant de développement intégré à ChatGPT, transformant profondément ce qui était jusqu'alors un outil de génération de code en un agent capable d'interagir avec l'ensemble d'un environnement informatique. La nouveauté la plus spectaculaire est le mode "computer use" : Codex peut désormais s'exécuter en arrière-plan sur macOS, ouvrir des applications, naviguer, cliquer et saisir du texte via son propre curseur, exactement comme le ferait un utilisateur humain. Plusieurs instances peuvent tourner en parallèle sans interférer avec le travail en cours. S'y ajoutent un navigateur intégré permettant d'annoter des pages web pour guider l'agent, la génération et l'amélioration d'images via gpt-image-1, une fonction mémoire qui retient les préférences et habitudes de travail entre les sessions, ainsi que plus de 90 nouveaux plugins incluant Jira via Atlassian Rovo, CircleCI, GitLab Issues et la suite Microsoft. Codex gère également les commentaires GitHub, plusieurs onglets de terminal et les connexions SSH en accès anticipé. Cette mise à jour repositionne Codex comme un véritable agent de travail autonome, et non plus comme un simple copilote de code. Pour les développeurs, la capacité à tester des interfaces sans API, à itérer visuellement sur du front-end ou à orchestrer des tâches répétitives sans intervention manuelle représente un gain de productivité substantiel. La fonction mémoire va plus loin encore : Codex peut analyser des commentaires dans Google Docs, récupérer du contexte depuis Slack ou Notion, et produire une liste d'actions priorisées pour reprendre un projet là où il a été laissé. Sam Altman lui-même a déclaré que le mode computer use s'est révélé "encore plus utile que prévu" lors des démonstrations internes, soulignant l'ampleur du changement par rapport aux attentes initiales. Cette évolution s'inscrit dans une compétition directe avec Anthropic et son assistant Claude, clairement visé par le titre "Claude-Killer" employé dans la presse spécialisée. OpenAI cherche à consolider ChatGPT comme plateforme centrale du travail des développeurs, en absorbant des workflows qui nécessitaient jusqu'ici plusieurs outils distincts. La stratégie des plugins MCP et des intégrations tierces rappelle l'approche d'un système d'exploitation plutôt que d'un simple assistant IA. Le déploiement reste progressif : le mode computer use est limité à macOS dans un premier temps, certaines fonctions de personnalisation et de mémoire seront déployées graduellement pour les entreprises, et les utilisateurs européens et britanniques ainsi que les établissements éducatifs bénéficieront également de ces nouveautés selon un calendrier non précisé.

UELes utilisateurs européens et britanniques sont explicitement mentionnés comme futurs bénéficiaires des nouvelles fonctionnalités de Codex, mais selon un calendrier non encore précisé par OpenAI.

💬 Le "Claude-Killer", ok, le titre fait vendre. Ce qui m'intéresse vraiment, c'est la combinaison computer use plus mémoire persistante, parce que là on a un agent qui reprend le contexte d'une session à l'autre et clique dans tes apps sans passer par une API. Reste à voir si ça tient sur de vrais projets (pas juste des démos internes où Sam dit que c'est "encore mieux que prévu"), et côté Europe on attendra sagement un calendrier "non précisé".

OutilsOutil
1 source
Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud
4Le Big Data 

Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud

Mistral AI a franchi une étape décisive le 29 avril 2026 avec le lancement des agents distants dans sa plateforme Vibe. Jusqu'à présent cantonnés à la machine locale de l'utilisateur, ces agents peuvent désormais s'exécuter entièrement dans le cloud, lancés depuis la ligne de commande ou depuis Le Chat, l'interface conversationnelle de Mistral. Le moteur de cette évolution est Mistral Medium 3.5, un nouveau modèle conçu spécifiquement pour gérer le raisonnement, le suivi d'instructions complexes et la génération de code. Une fois une tâche lancée, l'agent travaille en arrière-plan, peut poser des questions si nécessaire, suit les modifications de fichiers en temps réel et, en fin de session, crée automatiquement une pull request sur GitHub pour validation. Plusieurs agents peuvent fonctionner en parallèle, et une session locale peut être basculée dans le cloud sans interruption. Ce changement modifie profondément la position du développeur dans le cycle de production. L'utilisateur n'est plus un point de blocage : il confie une tâche, reprend ses activités, et n'intervient qu'au moment de la validation finale. Chaque session s'exécute dans un environnement isolé où l'agent peut installer des dépendances, tester des correctifs et modifier du code de façon autonome. La portée dépasse le seul développement logiciel : le mode Travail intégré à Le Chat étend la même logique à la recherche, à l'analyse et à la rédaction, permettant de préparer automatiquement une réunion, de gérer des tickets ou de traiter des e-mails. Vibe s'intègre directement dans les écosystèmes existants, GitHub, Jira, Linear, Slack, Teams, sans remplacer ces outils mais en les activant via l'IA. Cette annonce s'inscrit dans une compétition acharnée autour du "vibe coding" et des agents d'ingénierie autonomes, un segment où Cursor, GitHub Copilot Workspace et Devin se disputent déjà le marché. Mistral, qui a levé 1,1 milliard de dollars fin 2024 et revendique une position d'alternative européenne aux géants américains, accélère sa montée en gamme vers des cas d'usage professionnels à forte valeur ajoutée. La sortie simultanée de Mistral Medium 3.5 comme socle technique des agents Vibe signale une stratégie de verticalisation : contrôler à la fois le modèle et la couche applicative. Les prochaines étapes probables concerneront l'élargissement des intégrations d'outils, la gestion de projets multi-dépôts et une tarification adaptée aux équipes d'ingénierie qui délèguent des workflows entiers à ces agents.

UEMistral, entreprise française, consolide sa position dans la course aux agents de codage autonomes et offre aux équipes européennes une alternative souveraine aux outils américains comme Cursor ou GitHub Copilot Workspace.

💬 Mistral fait enfin le truc qu'on attendait : contrôler à la fois le modèle et la couche applicative, pas juste vendre une API. La PR automatique en fin de session, c'est le petit détail qui change tout dans le quotidien d'une équipe, parce que c'est là que la supervision humaine a encore du sens. Reste à voir si Medium 3.5 tient la comparaison avec ce que Cursor fait tourner depuis des mois.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour