Aller au contenu principal
OutilsBen's Bites7sem

Qu'est-ce qui fait un bon AGENTS.md ?

Résumé IASource uniqueImpact UE
Source originale ↗·

Les fichiers d'instructions comme AGENTS.md et CLAUDE.md sont au cœur de toute stratégie efficace avec les agents IA. Chargés automatiquement avant même le début d'une conversation, ils s'ajoutent au prompt système natif du modèle pour orienter son comportement. CLAUDE.md est spécifique aux produits Anthropic, tandis qu'AGENTS.md fonctionne de manière transversale sur Codex, Droid, Pi et la plupart des autres outils — les deux peuvent d'ailleurs être liés par un simple symlink pour n'en gérer qu'un seul.

Contrairement à ce que l'on pourrait croire, remplir ces fichiers d'informations techniques (stack, arborescence, commandes clés) est contre-productif. Une étude citée dans l'article indique que cette approche nuit aux performances et augmente les coûts de 20 % en consommant des tokens inutiles — les agents étant parfaitement capables de déduire eux-mêmes l'architecture d'un projet. La vraie valeur de ces fichiers réside dans les préférences personnelles et les correctifs comportementaux : tester dans un navigateur avant de renvoyer une URL, utiliser un outil de recherche spécifique, ou expliquer les choses simplement pour un utilisateur non-développeur.

Une technique avancée présentée par l'auteur, inspirée du développeur Dex, consiste à encapsuler des instructions dans des blocs conditionnels (<important if="simple web page">). Cela permet d'adapter dynamiquement le comportement de l'agent selon le type de projet — évitant, par exemple, qu'il rédige inutilement des spécifications pour une simple page web. Par ailleurs, AGENTS.md se charge de manière hiérarchique : un fichier à la racine s'applique globalement, tandis qu'un fichier dans un sous-dossier (/docs/AGENTS.md) n'est activé que lorsque l'agent travaille dans ce répertoire.

Sur le front des actualités mentionnées en marge, Google a lancé Stitch, un outil de design génératif intégrant Gemini avec un canvas IA, un agent de design et un fichier DESIGN.md — un écho direct au sujet principal. Anthropic, de son côté, a déployé Dispatch pour Claude Cowork, permettant d'envoyer des messages depuis mobile vers Claude Desktop et de lancer des sessions Claude Code à distance.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Composants d'un agent de codage
1Ahead of AI 

Composants d'un agent de codage

Les agents de codage comme Claude Code ou le Codex CLI d'OpenAI sont devenus des outils incontournables pour les développeurs, mais leur fonctionnement repose sur une architecture précise que peu d'articles détaillent. Un agent de codage n'est pas simplement un grand modèle de langage (LLM) auquel on pose des questions : c'est un LLM enveloppé dans une couche logicielle appelée "harness" (ou cadre agentique), qui orchestre les appels au modèle, gère les outils disponibles, maintient un état en mémoire et décide quand s'arrêter. Cette distinction est fondamentale : le modèle est le moteur, mais le harness est la transmission, le tableau de bord et les roues réunies. Un agent de codage comprend six composants principaux — la boucle de contrôle, la gestion du contexte, les outils (lecture/écriture de fichiers, exécution de code, recherche), la mémoire, la gestion des prompts et la continuité entre sessions longues. Ce cadre explique pourquoi Claude Code ou Codex semblent nettement plus capables que le même modèle sous-jacent utilisé dans une interface de chat ordinaire. La différence n'est pas dans les paramètres du modèle, mais dans le système qui l'entoure : la stabilité du cache de prompts, l'accès au contexte du dépôt Git, la boucle de feedback itérative après exécution du code, et la gestion de sessions qui peuvent durer des heures. Pour les développeurs et les équipes d'ingénierie, cela signifie que choisir un outil de codage assisté par IA revient autant à évaluer l'architecture du harness qu'à comparer les benchmarks des modèles. Un modèle plus puissant dans un harness médiocre produira des résultats inférieurs à un modèle modeste bien intégré. Il convient également de distinguer trois notions souvent confondues : le LLM classique génère des tokens ; le modèle de raisonnement est un LLM entraîné à produire des traces de réflexion intermédiaires et à s'auto-vérifier (à l'image de o1 ou de QwQ), ce qui le rend plus puissant mais plus coûteux à l'inférence ; l'agent, lui, est une boucle de contrôle qui appelle le modèle répétitivement dans un environnement, en mettant à jour son état à chaque itération. Le harness de codage est un cas spécialisé de harness agentique, orienté vers les tâches de génie logiciel — gestion du contexte de code, exécution, débogage itératif. Des systèmes comme Claude Code d'Anthropic ou Codex CLI d'OpenAI illustrent cette catégorie, et la tendance de fond est claire : les progrès les plus décisifs en IA appliquée ne viennent plus seulement des modèles eux-mêmes, mais de l'ingénierie des systèmes qui les entourent.

OutilsOpinion
1 source
Créer un agent FinOps avec Amazon Bedrock AgentCore
2AWS ML Blog 

Créer un agent FinOps avec Amazon Bedrock AgentCore

Amazon a dévoilé une solution clé en main pour construire un agent FinOps basé sur Amazon Bedrock AgentCore, permettant aux équipes financières de gérer les coûts AWS à travers plusieurs comptes via une interface conversationnelle unique. L'architecture repose sur Claude Sonnet 4.5 d'Anthropic, le Strands Agent SDK et le protocole MCP (Model Context Protocol), déployée via AWS CDK. L'agent consolide les données de trois services AWS — Cost Explorer, Budgets et Compute Optimizer — et propose plus de 20 outils spécialisés couvrant l'intégralité du spectre de la gestion des coûts cloud. La mémoire conversationnelle conserve jusqu'à 30 jours de contexte, permettant des questions de suivi sans répéter les informations préalables. Concrètement, cette solution élimine la nécessité pour les équipes finance et DevOps de naviguer manuellement entre plusieurs consoles AWS pour obtenir une vue consolidée des dépenses. Un responsable peut simplement demander "Quels sont mes principaux postes de dépenses ce mois-ci ?" et obtenir une réponse immédiate, sans requêtes SQL ni exports manuels. L'authentification repose sur Amazon Cognito (gestion des utilisateurs et flux OAuth 2.0 machine-à-machine), tandis qu'AWS Amplify héberge l'interface web. L'accès en langage naturel démocratise la visibilité sur les coûts cloud à l'ensemble de l'organisation, y compris aux profils non techniques — un enjeu majeur dans les entreprises où la facture AWS est souvent opaque pour les décideurs métier. Le FinOps — la pratique de gouvernance financière du cloud — est devenu un domaine à part entière alors que les dépenses cloud des entreprises ont explosé ces cinq dernières années, rendant le suivi des coûts multi-comptes complexe et chronophage. Amazon Bedrock AgentCore, lancé récemment par AWS, est la réponse d'Amazon à la vague d'agents IA d'entreprise : une plateforme d'exécution managée pour déployer des agents LLM avec mémoire, outils et identité gérés nativement. Cette solution illustre parfaitement la stratégie d'AWS de transformer ses propres services (Cost Explorer, Compute Optimizer) en sources de données accessibles via des agents IA, réduisant la friction d'adoption. La concurrence s'intensifie sur ce segment : Microsoft Copilot pour Azure Cost Management et Google Cloud Carbon Footprint poursuivent des ambitions similaires. La prochaine étape logique sera l'automatisation des recommandations d'optimisation, passant d'un agent qui répond à des questions à un agent qui agit directement sur l'infrastructure pour réduire les coûts.

UELes entreprises françaises et européennes utilisant AWS peuvent simplifier leur gestion de coûts cloud multi-comptes via cet agent, sans impact réglementaire ou institutionnel spécifique.

OutilsOutil
1 source
Orchestration d'agents
3MIT Technology Review 

Orchestration d'agents

Les agents IA orchestrés en réseau constituent désormais la prochaine grande rupture technologique. Alors que ChatGPT a rendu les grands modèles de langage accessibles au grand public, les outils multi-agents représentent une étape qualitativement différente : des systèmes capables de déléguer, coordonner et exécuter des tâches complexes en parallèle. Claude Code, lancé par Anthropic l'année dernière, permet par exemple de piloter simultanément plusieurs dizaines de sous-agents, chacun affecté à une portion distincte d'une base de code. Chez OpenAI, Codex joue un rôle similaire. Anthropic affirme avoir développé son application de productivité Claude Cowork en seulement dix jours grâce à Claude Code, là où un projet comparable aurait nécessité plusieurs mois. Perplexity a également lancé Computer, un outil généraliste pour professionnels. Google DeepMind propose de son côté Co-Scientist, une plateforme qui permet aux chercheurs de confier à des équipes d'agents la recherche bibliographique, la génération d'hypothèses et la conception d'expériences. L'enjeu dépasse largement le secteur du logiciel. Ces outils s'adressent désormais à tous les cols blancs : gestion de boîtes mail, suivi d'inventaires, traitement des réclamations clients. La promesse centrale est de transformer le travailleur qualifié en chef de projet capable de superviser une équipe d'agents, multipliant ainsi sa productivité. Les partisans de cette technologie évoquent une rupture comparable à ce que la chaîne d'assemblage de Henry Ford a représenté pour l'industrie manufacturière au siècle dernier : une réorganisation profonde du travail de connaissance, potentiellement synonyme de suppressions massives de postes dans les fonctions tertiaires ou, à l'inverse, d'un bond de productivité sans précédent pour ceux qui sauront maîtriser ces outils. La montée en puissance de ces systèmes s'inscrit dans une dynamique portée par les géants de la tech. Des entreprises comme Nvidia et Tencent ont déjà commencé à développer leurs propres agents en s'appuyant sur des bases open source, comme celles popularisées par OpenClaw, un assistant personnel vocal qui avait capté l'attention malgré des failles de sécurité notoires. La vraie question qui se pose aujourd'hui n'est plus technique mais systémique : jusqu'où peut-on laisser des agents autonomes interagir avec des infrastructures critiques, des systèmes de santé, des plateformes financières ou des réseaux sociaux ? Les grands modèles de langage restent imprévisibles, et ce qui n'est qu'une erreur bénigne dans une interface de chat peut devenir un incident grave lorsque l'agent agit directement dans le monde réel. Le secteur avance vite, mais le cadre de contrôle, lui, peine à suivre.

UELa prolifération d'agents autonomes dans les fonctions tertiaires et les infrastructures critiques interpelle directement le cadre réglementaire européen, notamment l'AI Act qui classe certains usages d'agents autonomes comme systèmes à haut risque nécessitant audit et supervision humaine.

OutilsOutil
1 source
Motorola Project Maxwell : la marque fait un grand bond en avant
4Le Big Data 

Motorola Project Maxwell : la marque fait un grand bond en avant

Motorola a dévoilé le Project Maxwell lors du CES 2026 et du Lenovo Tech World, un prototype de wearable IA développé par ses 312 Labs sous la forme d'une broche magnétique ultra-légère. Ce pendentif intelligent embarque une caméra grand angle et des microphones pour capter en continu l'environnement visuel et sonore de son porteur, sans écran ni boutons physiques. L'interaction se fait uniquement par la voix ou par gestes naturels face à l'optique intégrée. Le dispositif s'appuie sur la plateforme Qira de Lenovo pour traiter les données multimodales en temps réel et fournir des recommandations personnalisées, fonctionnant de façon autonome, sans dépendre d'un smartphone. L'enjeu central de ce projet est de proposer une assistance proactive qui anticipe les besoins avant même qu'ils soient formulés — ce que Motorola appelle une « informatique ambiante ». Là où les wearables IA précédents, notamment les tentatives ratées de 2024 comme l'Humane AI Pin ou le Rabbit R1, ont souffert d'une interface intrusive et d'une autonomie décevante, le Project Maxwell mise sur la discrétion et la légèreté. Pour les utilisateurs professionnels ou les early adopters, cela représente un changement de paradigme : passer d'un outil qu'on consulte à un outil qui observe et agit en arrière-plan. La broche ne cherche pas à capter l'attention visuelle mais à enrichir la perception de manière quasi invisible, ce qui change fondamentalement la relation entre l'humain et sa technologie. Ce prototype s'inscrit dans une réflexion entamée par Motorola dès 2025 sur l'ère post-smartphone, au moment où le marché des écrans pliables commence à stagner et où l'industrie cherche le prochain facteur de forme dominant. La collaboration avec Lenovo, maison mère de Motorola, apporte la puissance de calcul et l'écosystème logiciel nécessaires pour crédibiliser la vision. En choisissant de présenter un proof-of-concept fonctionnel plutôt qu'un produit commercial, Motorola adopte une stratégie prudente, tirée des leçons des lancements précipités de ses concurrents. Aucune date de commercialisation ni prix n'ont été communiqués pour l'instant, ce qui laisse entendre que le projet reste en phase d'exploration active. La vraie question est de savoir si Motorola parviendra à transformer ce concept séduisant en produit grand public viable, dans un segment où les attentes en matière de confidentialité des données — caméra et microphone actifs en permanence — représentent un obstacle majeur à la adoption massive.

UELe dispositif, s'il venait à être commercialisé, se heurterait en Europe à des obstacles réglementaires majeurs liés au RGPD, notamment en raison de la captation continue d'images et de sons dans l'espace public.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour