Aller au contenu principal
OutilsMarkTechPost2sem

L'équipe d'Andrew Ng présente Context Hub : un outil open source qui fournit à votre agent de codage la documentation d'API à jour dont il a besoin

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Andrew Ng et son équipe chez DeepLearning.AI ont lancé Context Hub, un outil open source conçu pour fournir aux agents de codage (comme Claude Code) une documentation d'API toujours à jour, via un CLI appelé `chub`. L'outil résout le problème de l'"Agent Drift" — quand un LLM s'appuie sur des paramètres dépréciés ou des endpoints obsolètes issus de ses données d'entraînement figées. Une fonctionnalité clé, `chub annotate`, permet aux agents de sauvegarder des notes techniques (ex. contournements de bugs) dans un registre local, rendant la connaissance persistante entre les sessions.

In the fast-moving world of agentic workflows, the most powerful AI model is still only as good as its documentation. Today, Andrew Ng and his team at DeepLearning.AI officially launched Context Hub , an open-source tool designed to bridge the gap between an agent’s static training data and the rapidly evolving reality of modern APIs. You ask an agent like Claude Code to build a feature, but it hallucinates a parameter that was deprecated six months ago or fails to utilize a more efficient, newer endpoint. Context Hub provides a simple CLI-based solution to ensure your coding agent always has the ‘ground truth’ it needs to perform. The Problem: When LLMs Live in the Past Large Language Models (LLMs) are frozen in time the moment their training ends. While Retrieval-Augmented Generation (RAG) has helped ground models in private data, the ‘public’ documentation they rely on is often a mess of outdated blog posts, legacy SDK examples, and deprecated StackOverflow threads. The result is what developers are calling ‘Agent Drift.’ Consider a hypothetical but highly plausible scenario: a dev asks an agent to call OpenAI’s GPT-5.2 . Even if the newer responses API has been the industry standard for a year, the agent—relying on its core training—might stubbornly stick to the older chat completions API . This leads to broken code, wasted tokens, and hours of manual debugging. Coding agents often use outdated APIs and hallucinate parameters. Context Hub is designed to intervene at the exact moment an agent starts guessing. chub : The CLI for Agent Context At its core, Context Hub is built around a lightweight CLI tool called chub . It functions as a curated registry of up-to-date, versioned documentation, served in a format optimized for LLM consumption. Instead of an agent scraping the web and getting lost in noisy HTML, it uses chub to fetch precise markdown docs. The workflow is straightforward: you install the tool and then prompt your agent to use it. The standard chub toolset includes: chub search : Allows the agent to find the specific API or skill it needs. chub get : Fetches the curated documentation, often supporting specific language variants (e.g., --lang py or --lang js ) to minimize token waste. chub annotate : This is where the tool begins to differentiate itself from a standard search engine. The Self-Improving Agent: Annotations and Workarounds One of the most compelling features is the ability for agents to ‘remember’ technical hurdles. Historically, if an agent discovered a specific workaround for a bug in a beta library, that knowledge would vanish the moment the session ended. With Context Hub, an agent can use the chub annotate command to save a note to the local documentation registry. For example, if an agent realizes that a specific webhook verification requires a raw body rather than a parsed JSON object, it can run: chub annotate stripe/api "Needs raw body for webhook verification" In the next session, when the agent (or any agent on that machine) runs chub get stripe/api , that note is automatically appended to the documentation. This effectively gives coding agents a “long-term memory” for technical nuances, preventing them from rediscovering the same wheel every morning. Crowdsourcing the ‘Ground Truth ‘ While annotations remain local to the developer’s machine, Context Hub also introduces a feedback loop designed to benefit the entire community. Through the chub feedback command, agents can rate documentation with up or down votes and apply specific labels like accurate , outdated , or wrong-examples . This feedback flows back to the maintainers of the Context Hub registry. Over time, the most reliable documentation surfaces to the top, while outdated entries are flagged and updated by the community. It’s a decentralized approach to maintaining documentation that evolves as fast as the code it describes. Key Takeaways Solves ‘Agent Drift’: Context Hub addresses the critical issue where AI agents rely on their static training data, causing them to use outdated APIs or hallucinate parameters that no longer exist. CLI-Driven Ground Truth: Through the chub CLI, agents can instantly fetch curated, LLM-optimized markdown documentation for specific APIs, ensuring they build with the most modern standards (e.g., using the newer OpenAI Responses API instead of Chat Completions). Persistent Agent Memory: The chub annotate feature allows agents to save specific technical workarounds or notes to a local registry. This prevents the agent from having to ‘rediscover’ the same solution in future sessions. Collaborative Intelligence: By using chub feedback , agents can vote on the accuracy of documentation. This creates a crowdsourced ‘ground truth’ where the most reliable and up-to-date resources surface for the entire developer community. Language-Specific Precision: The tool minimizes ‘token waste’ by allowing agents to request documentation specifically tailored to their current stack (using flags

À lire aussi

1The Verge AI1h

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
2Blog du Modérateur1h

ChatGPT enrichit son expérience shopping et abandonne Instant Checkout

OpenAI a mis à jour l'interface shopping de ChatGPT, la rendant plus visuelle et intuitive. La nouvelle version permet de comparer les produits plus facilement et introduit une recherche par image. En parallèle, la fonctionnalité Instant Checkout, qui permettait d'acheter directement depuis le chatbot, a été abandonnée. Ce repositionnement transforme ChatGPT en outil de découverte et de comparaison plutôt qu'en canal de vente directe. Cela redirige les utilisateurs vers les marchands pour finaliser leurs achats, ce qui soulage les tensions avec les retailers tout en conservant ChatGPT comme point d'entrée dans le parcours d'achat. Cette évolution s'inscrit dans la montée en puissance des assistants IA comme moteurs de recherche commerciale, en concurrence directe avec Google Shopping et Amazon.

OutilsOutil
1 source
3NVIDIA AI Blog1h

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
4InfoQ AI1h

Podcast : [Vidéo] Systèmes agentiques sans chaos : premiers modèles opérationnels pour agents autonomes

Shweta Vohra et Joseph Stein consacrent un épisode de podcast à la question des systèmes agentiques — ces logiciels capables de planifier, d'agir et de prendre des décisions de manière autonome. Les deux experts y examinent ce qui distingue véritablement un agent IA d'une simple automatisation traditionnelle, et comment concevoir ces systèmes sans perdre le contrôle. La discussion porte sur les défis concrets pour les architectes et ingénieurs : comment définir les limites d'action d'un agent, comment orchestrer plusieurs agents entre eux, et quels modèles organisationnels adopter dès les premières phases de déploiement. L'enjeu est de tirer parti de l'autonomie de ces systèmes tout en évitant le chaos opérationnel. Le sujet s'inscrit dans une réflexion plus large sur la maturité croissante des agents IA, qui passent progressivement du statut d'assistants réactifs à celui d'acteurs autonomes dans les infrastructures logicielles.

OutilsOpinion
1 source