Aller au contenu principal
OutilsAhead of AI3h

Composants d'un agent de codage

1 source couvre ce sujet·Source originale ↗·

Les agents de codage comme Claude Code ou le Codex CLI d'OpenAI sont devenus des outils incontournables pour les développeurs, mais leur fonctionnement repose sur une architecture précise que peu d'articles détaillent. Un agent de codage n'est pas simplement un grand modèle de langage (LLM) auquel on pose des questions : c'est un LLM enveloppé dans une couche logicielle appelée "harness" (ou cadre agentique), qui orchestre les appels au modèle, gère les outils disponibles, maintient un état en mémoire et décide quand s'arrêter. Cette distinction est fondamentale : le modèle est le moteur, mais le harness est la transmission, le tableau de bord et les roues réunies. Un agent de codage comprend six composants principaux — la boucle de contrôle, la gestion du contexte, les outils (lecture/écriture de fichiers, exécution de code, recherche), la mémoire, la gestion des prompts et la continuité entre sessions longues.

Ce cadre explique pourquoi Claude Code ou Codex semblent nettement plus capables que le même modèle sous-jacent utilisé dans une interface de chat ordinaire. La différence n'est pas dans les paramètres du modèle, mais dans le système qui l'entoure : la stabilité du cache de prompts, l'accès au contexte du dépôt Git, la boucle de feedback itérative après exécution du code, et la gestion de sessions qui peuvent durer des heures. Pour les développeurs et les équipes d'ingénierie, cela signifie que choisir un outil de codage assisté par IA revient autant à évaluer l'architecture du harness qu'à comparer les benchmarks des modèles. Un modèle plus puissant dans un harness médiocre produira des résultats inférieurs à un modèle modeste bien intégré.

Il convient également de distinguer trois notions souvent confondues : le LLM classique génère des tokens ; le modèle de raisonnement est un LLM entraîné à produire des traces de réflexion intermédiaires et à s'auto-vérifier (à l'image de o1 ou de QwQ), ce qui le rend plus puissant mais plus coûteux à l'inférence ; l'agent, lui, est une boucle de contrôle qui appelle le modèle répétitivement dans un environnement, en mettant à jour son état à chaque itération. Le harness de codage est un cas spécialisé de harness agentique, orienté vers les tâches de génie logiciel — gestion du contexte de code, exécution, débogage itératif. Des systèmes comme Claude Code d'Anthropic ou Codex CLI d'OpenAI illustrent cette catégorie, et la tendance de fond est claire : les progrès les plus décisifs en IA appliquée ne viennent plus seulement des modèles eux-mêmes, mais de l'ingénierie des systèmes qui les entourent.

À lire aussi

1InfoQ AI 

Anthropic conçoit un système à trois agents pour le développement full-stack de longue durée

Anthropic a présenté une architecture expérimentale baptisée "three-agent harness", un dispositif en trois agents distincts conçu pour améliorer les workflows de développement logiciel autonome sur de longues durées. Le système dissocie trois fonctions jusqu'alors souvent mélangées dans un seul agent : la planification, la génération de code et l'évaluation des résultats. Chaque rôle est confié à un agent spécialisé, ce qui permet d'orchestrer des sessions de développement frontend et full-stack pouvant s'étendre sur plusieurs heures sans perte de cohérence. L'enjeu est considérable pour les équipes qui misent sur l'IA pour accélérer leur cycle de développement. En isolant l'évaluation dans un agent dédié, le système introduit une boucle de rétroaction itérative qui maintient la qualité du code généré même lorsque la tâche devient complexe ou que le contexte s'allonge. C'est précisément ce point de rupture, la dégradation des performances sur des tâches longues et multi-fichiers, qui freine l'adoption de l'IA en développement professionnel. Cette approche s'inscrit dans une réflexion plus large de l'industrie sur les "multi-agent systems", où la spécialisation des rôles permet de dépasser les limites d'un agent unique. Anthropic n'est pas seul sur ce terrain : OpenAI, Google DeepMind et des startups comme Cognition (Devin) explorent des architectures similaires. La publication de ce harness, accompagnée de commentaires techniques de l'industrie, suggère qu'Anthropic cherche à poser un standard méthodologique autant qu'à démontrer une capacité technique.

UELes équipes de développement européennes pourraient à terme bénéficier de cette architecture pour des workflows de codage assisté de longue durée, mais l'impact reste indirect et non immédiat.

💬 Le vrai problème sur les tâches longues, c'est que l'agent finit par se perdre entre ce qu'il planifie, ce qu'il génère et ce qu'il valide. Trois agents spécialisés avec une boucle d'évaluation dédiée, c'est la bonne architecture pour tenir sur plusieurs heures sans perdre le fil sur un projet multi-fichiers. Anthropic cherche clairement à poser un standard ici, pas juste à montrer une démo.

OutilsOutil
1 source
201net 

On a testé Perplexity Computer : c’est révolutionnaire, mais ça coute cher

Perplexity a lancé Perplexity Computer, un agent IA capable de prendre le contrôle d'un PC Windows pour exécuter des tâches complexes de façon autonome, sans intervention humaine. Pour évaluer ses capacités réelles, les testeurs ont tenté une expérience concrète : créer intégralement une boutique Shopify en laissant l'IA tout faire, de la configuration initiale à la mise en ligne des produits. Le résultat est mitigé : l'outil est techniquement impressionnant, mais les coûts d'utilisation s'envolent rapidement, bien avant que le projet ne soit abouti. L'enjeu est significatif pour quiconque envisage de déléguer des tâches administratives ou e-commerce à une IA. Perplexity Computer représente une nouvelle génération d'agents dits "computer use", capables de naviguer dans des interfaces graphiques, remplir des formulaires et enchaîner des actions comme le ferait un humain. Mais le modèle économique repose sur un usage à la session ou au crédit, ce qui rend les opérations longues et répétitives particulièrement onéreuses pour des résultats encore incomplets. Cette publication s'inscrit dans une course intense entre Anthropic, OpenAI et désormais Perplexity pour imposer des agents capables d'automatiser le travail sur ordinateur. Anthropic a son propre "computer use" via Claude, Microsoft intègre Copilot dans Windows, et OpenAI pousse ses Operators. Perplexity, connu pour son moteur de recherche génératif, cherche à élargir son positionnement bien au-delà de la simple réponse aux requêtes. La question centrale reste la même pour tous : à quel prix l'automatisation devient-elle vraiment rentable ?

💬 Le "computer use", ça fait deux ans qu'on attend que ça soit vraiment utilisable, et le test Shopify est exactement le bon filtre : si l'IA ne finit pas la tâche et que la note s'emballe avant, le modèle économique est cassé. Pas la techno, le modèle. Facturer à la session des tâches qui peuvent durer des heures, c'est juste pas viable pour des workflows réels. Reste à voir qui va trouver la bonne structure tarifaire en premier, parce que la course est lancée.

OutilsOutil
1 source
3VentureBeat AI 

Les LLMs de connaissance selon Karpathy : une bibliothèque markdown évolutive gérée par IA, en alternative au RAG

Andrej Karpathy, ancien directeur de l'IA chez Tesla et co-fondateur d'OpenAI, a publié sur X une description détaillée de son architecture personnelle qu'il nomme "LLM Knowledge Bases". Le principe : confier à un LLM le rôle de bibliothécaire permanent, chargé de compiler, organiser et maintenir une bibliothèque de fichiers Markdown (.md) représentant ses projets et sujets de recherche. Le système fonctionne en trois étapes : les matières brutes (articles, dépôts GitHub, papers de recherche) sont déposées dans un répertoire raw/, converties en Markdown via l'outil Obsidian Web Clipper ; le LLM "compile" ensuite ces données en rédigeant des articles encyclopédiques, des résumés et des liens croisés entre concepts ; enfin, des passes de "linting" régulières permettent au modèle de détecter les incohérences et les connexions manquantes, rendant la base auto-réparatrice. Cette approche s'attaque à un problème concret que tout développeur utilisant des LLMs connaît bien : la réinitialisation du contexte à chaque nouvelle session. Reconstruire l'état d'un projet complexe consomme des tokens précieux et du temps. En maintenant une base de connaissances structurée, lisible par l'humain et directement exploitable par le modèle, Karpathy élimine ce "reset lobotomisant". Par rapport au RAG classique — où les documents sont découpés en fragments arbitraires, transformés en vecteurs mathématiques et stockés dans une base spécialisée — son système évite la boîte noire des embeddings : chaque information est traçable jusqu'à un fichier Markdown qu'un humain peut lire, modifier ou supprimer. Pour les datasets de taille intermédiaire, la complexité opérationnelle d'une infrastructure vectorielle n'est tout simplement plus justifiée. Le RAG domine la scène enterprise depuis trois ans, mais les limites de l'approche par chunks sont de plus en plus visibles à mesure que les fenêtres de contexte des LLMs s'élargissent. Karpathy reconnaît lui-même que son système reste "une collection hacky de scripts", mais la réaction de la communauté a immédiatement pointé vers le potentiel commercial : comme l'a formulé l'entrepreneur Vamshi Reddy, "chaque entreprise possède déjà un répertoire raw/ — personne ne l'a jamais compilé". Karpathy a acquiescé, évoquant une "incroyable nouvelle catégorie de produits". La plupart des organisations se noient dans des données non structurées — logs Slack, wikis internes, rapports PDF — sans jamais avoir les moyens de les synthétiser. Une couche enterprise inspirée de cette architecture pourrait transformer ces silos en bases de connaissances vivantes, auditables et maintenues en continu par l'IA elle-même.

OutilsOutil
1 source
4VentureBeat AI 

Nvidia lance une plateforme d'agents IA pour entreprises avec Adobe, Salesforce et SAP parmi 17 adopteurs à GTC 2026

Lors de la conférence GTC 2026, Jensen Huang a présenté lundi l'Agent Toolkit de Nvidia, une plateforme open source destinée à la création d'agents d'IA autonomes en entreprise. Dix-sept géants du logiciel ont immédiatement annoncé leur adoption : Adobe, Salesforce, SAP, ServiceNow, Siemens, CrowdStrike, Atlassian, Cadence, Synopsys, IQVIA, Palantir, Box, Cohesity, Dassault Systèmes, Red Hat, Cisco et Amdocs. La plateforme regroupe quatre composants clés : Nemotron, une famille de modèles ouverts optimisés pour le raisonnement agentique ; AI-Q, un blueprint permettant aux agents de percevoir, raisonner et agir sur les données d'entreprise ; OpenShell, un environnement d'exécution open source imposant des garde-fous de sécurité, de réseau et de confidentialité ; et cuOpt, une bibliothèque d'optimisation. Ces agents peuvent traiter des tickets de support client, concevoir des semi-conducteurs, gérer des essais cliniques ou piloter des campagnes marketing, le tout de façon autonome. L'enjeu commercial est considérable. En faisant adopter cette pile logicielle par des entreprises présentes dans pratiquement chaque secteur du Fortune 500, Nvidia ne vend pas directement ses GPU — il conçoit un écosystème logiciel qui les rend indispensables. Le composant AI-Q promet par ailleurs de réduire les coûts de traitement de plus de 50 % en routant les tâches complexes vers des modèles frontier et les tâches de recherche vers les modèles Nemotron moins coûteux. Nvidia revendique également que son agent basé sur AI-Q se classe en tête des benchmarks DeepResearch Bench et DeepResearch Bench II, ce qui, si validé indépendamment, rendrait la plateforme non seulement pratique mais compétitivement incontournable. La confiance des entreprises, obstacle historique au déploiement d'agents autonomes, est adressée via OpenShell, développé en collaboration avec Cisco, CrowdStrike, Google, Microsoft Security et TrendAI. Cette annonce s'inscrit dans une stratégie plus large de Nvidia pour étendre son emprise au-delà du matériel. Jusqu'ici, construire un agent d'IA d'entreprise nécessitait d'assembler des briques disparates — modèle de langage, système de récupération d'information, couche de sécurité, orchestrateur — issues de fournisseurs différents jamais conçus pour fonctionner ensemble. Nvidia résout ce problème de fragmentation en proposant une fondation unifiée, open source dans sa licence mais optimisée pour ses propres puces. La stratégie rappelle celle d'une infrastructure de péage : ouverte à tous, mais dont Nvidia contrôle l'architecture. Alors que les entreprises s'apprêtent à déployer massivement des agents autonomes dans leurs systèmes informatiques, la question n'est plus tant de savoir si elles adopteront ces outils, mais si une alternative crédible à l'écosystème Nvidia pourra émerger avant que la dépendance ne soit totale.

UESAP, Siemens et Dassault Systèmes figurent parmi les 17 premiers adopteurs, exposant les grandes entreprises européennes à une dépendance croissante envers l'écosystème logiciel et matériel de Nvidia pour leurs déploiements d'agents IA.

OutilsOpinion
1 source