Aller au contenu principal
Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
OutilsMarkTechPost6sem

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

Résumé IASource uniqueImpact UE
Source originale ↗·

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et read_document, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale.

L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prune_chunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production.

Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les meilleures API de recherche et récupération de données pour construire des agents IA en 2026 : outils, compromis et offres gratuites
1MarkTechPost 

Les meilleures API de recherche et récupération de données pour construire des agents IA en 2026 : outils, compromis et offres gratuites

La recherche web et la récupération de contenu sont devenues en 2026 des infrastructures critiques pour tout développeur construisant des agents IA. Un panorama des principales API Search et Fetch disponibles ce printemps révèle deux acteurs à retenir : TinyFish et Tavily. TinyFish propose des points d'accès dédiés aux agents, disponibles gratuitement avec des limites généreuses : 5 requêtes par minute pour la recherche (api.search.tinyfish.ai) et 25 requêtes par minute pour la récupération de pages (api.fetch.tinyfish.ai), sans carte bancaire requise. Sa latence médiane pour la recherche est inférieure à 0,5 seconde, ce qui le rend compatible avec les boucles d'outils en temps réel. La plateforme déploie sa propre flotte Chromium pour effectuer un rendu complet de chaque URL, y compris les applications JavaScript dynamiques et les pages protégées contre les robots, retournant ensuite du contenu propre en Markdown, JSON ou HTML. Tavily, de son côté, propose un plan gratuit incluant 1 000 crédits API par mois, avec des offres payantes à partir de 30 dollars par mois (4 000 crédits) jusqu'à 220 dollars par mois (38 000 crédits), ainsi qu'une option à la demande à 0,008 dollar par crédit. Ce qui distingue ces outils de la génération précédente tient à leur conception orientée agents : là où les solutions classiques injectaient du HTML brut, avec scripts, publicités et bannières de cookies, dans les fenêtres de contexte des LLM, TinyFish filtre tout ce bruit en amont. Le résultat est une consommation de tokens par page nettement inférieure, et donc un coût par appel LLM réduit. Pour les entreprises utilisant des agents à grande échelle, cet écart n'est pas marginal. TinyFish s'intègre directement dans les environnements que les développeurs utilisent déjà : Claude Code, Cursor, Codex, LangChain, CrewAI, n8n, Dify et Vercel Skills. Une configuration MCP s'installe en un seul fichier JSON ; une CLI (npm install -g @tiny-fish/cli) écrit les résultats directement sur le système de fichiers sans passer par la fenêtre de contexte du modèle, limitant ainsi l'utilisation des tokens. Tavily, quant à lui, est reconnu pour ses intégrations profondes avec LangChain et LlamaIndex, les frameworks les plus répandus dans l'écosystème RAG. Ces évolutions s'inscrivent dans un mouvement plus large : la maturation rapide de l'outillage autour des agents IA en production. En 2024, la pratique dominante consistait à envelopper les données brutes des SERP Google et à les passer directement à un modèle de langage. En 2026, cette approche est dépassée, remplacée par des API conçues dès le départ pour les contraintes spécifiques des agents : latence, efficacité des tokens, stabilité du rendu et compatibilité avec les frameworks d'orchestration. TinyFish et Tavily illustrent une tendance dans laquelle l'infrastructure de récupération d'information devient aussi déterminante que le choix du modèle LLM lui-même. Les prochaines lignes de différenciation porteront probablement sur la fraîcheur des index, la gestion des contenus derrière authentification et l'intégration native avec les standards d'agents émergents comme le protocole MCP.

OutilsOutil
1 source
Construire un assistant de recherche à base d'agents avec Groq, LangGraph, sous-agents et mémoire
2MarkTechPost 

Construire un assistant de recherche à base d'agents avec Groq, LangGraph, sous-agents et mémoire

Un tutoriel publié récemment détaille la construction d'un assistant de recherche agentique fonctionnant sur l'infrastructure d'inférence de Groq, en combinant LangGraph, LangChain et le modèle open source Llama 3.3 70B Versatile de Meta. L'architecture repose sur l'endpoint compatible OpenAI de Groq, disponible gratuitement via console.groq.com, ce qui permet d'utiliser l'interface ChatOpenAI de LangChain sans modifier le code en profondeur, simplement en redirigeant la clé API et l'URL de base. L'agent ainsi construit dispose d'un ensemble d'outils concrets: recherche web via DuckDuckGo, récupération de pages, lecture et écriture de fichiers, exécution de code Python, délégation à des sous-agents spécialisés, et une mémoire persistante entre les sessions. Le tout s'appuie sur des bibliothèques comme BeautifulSoup4 pour le parsing HTML et Pydantic pour la validation des données. Ce qui rend cette approche notable, c'est la combinaison d'une infrastructure gratuite et d'une architecture capable de raisonnement multi-étapes. L'agent ne se contente pas de répondre à une question: il décompose un sujet de recherche en sous-questions, interroge plusieurs sources, croise les informations pour identifier les consensus et les divergences, puis génère des rapports structurés sauvegardés dans un répertoire de sortie. La mémoire à long terme lui permet de réutiliser des connaissances acquises lors d'exécutions précédentes, évitant de recommencer from scratch à chaque session. Pour les développeurs et chercheurs qui cherchent à automatiser des workflows de veille ou d'analyse documentaire, cette architecture offre un point de départ fonctionnel sans coût d'inférence immédiat. Ce tutoriel s'inscrit dans une tendance de fond qui voit LangGraph s'imposer comme framework de référence pour les systèmes agentiques en Python, face à des alternatives comme AutoGen ou CrewAI. Groq, de son côté, mise sur la vitesse d'inférence permise par ses puces LPU propriétaires pour attirer les développeurs avec un tier gratuit généreux, dans l'espoir de les convertir en clients payants à l'échelle. L'utilisation de Llama 3.3 70B, modèle open source de Meta, illustre également la montée en puissance des modèles non propriétaires capables d'exécuter du tool calling fiable, compétence longtemps réservée aux modèles fermés comme GPT-4. La prochaine étape naturelle pour ce type de système serait l'intégration de sources structurées, une mémoire vectorielle plus sophistiquée, ou le déploiement dans des environnements de production avec contrôle des coûts.

OutilsTuto
1 source
Google lance des agents Deep Research et Deep Research Max pour automatiser la recherche complexe
3The Decoder 

Google lance des agents Deep Research et Deep Research Max pour automatiser la recherche complexe

Google DeepMind a lancé Deep Research Max, un nouvel agent IA reposant sur Gemini 2.5 Pro, capable de mener des recherches autonomes sur le web et dans des sources de données propriétaires. Pour la première fois, les développeurs peuvent connecter des flux financiers et d'autres sources spécialisées via le Model Context Protocol (MCP). L'agent accompagne une version standard, Deep Research, déjà disponible dans les produits Google, tandis que la variante Max vise davantage les usages professionnels et techniques. L'enjeu est considérable pour les secteurs où l'analyse de données complexes est chronophage : finance, droit, recherche académique, conseil stratégique. En automatisant la collecte et la synthèse d'informations issues de sources hétérogènes, y compris des bases propriétaires inaccessibles au grand public, ces agents pourraient transformer le travail d'analyste ou de chercheur. La possibilité de brancher des flux financiers en temps réel via MCP représente une ouverture concrète vers des cas d'usage enterprise jusqu'ici difficiles à couvrir avec des LLM généralistes. Google s'inscrit ici dans une course intense aux agents de recherche autonomes : OpenAI a lancé son propre Deep Research début 2025, et Perplexity propose des fonctionnalités similaires. Le Model Context Protocol, initialement développé par Anthropic, s'impose progressivement comme standard d'interopérabilité entre agents IA et sources de données tierces, ce qui explique l'adoption par Google. Les benchmarks avancés restent peu transparents sur leur méthodologie, un point de vigilance récurrent dans ce secteur où les annonces marketing précèdent souvent les preuves indépendantes.

UELes entreprises européennes des secteurs finance, droit et conseil stratégique peuvent tester cet agent pour automatiser l'analyse de sources propriétaires via MCP.

OutilsOutil
1 source
AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud
4AWS ML Blog 

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud

Amazon Web Services a annoncé la disponibilité générale de deux agents autonomes d'intelligence artificielle lors de son événement re:Invent : AWS Security Agent, dédié aux tests d'intrusion, et AWS DevOps Agent, spécialisé dans les opérations cloud. Ces systèmes appartiennent à une nouvelle catégorie baptisée « frontier agents » — des IA capables de travailler de façon autonome pendant des heures, voire des jours, sans supervision humaine continue. Selon AWS, les retours des clients en phase de préversion sont significatifs : AWS Security Agent réduit les délais de tests de pénétration de plusieurs semaines à quelques heures, tandis qu'AWS DevOps Agent accélère la résolution d'incidents de 3 à 5 fois. Des entreprises comme Bamboo Health et HENNGE K.K. témoignent de résultats concrets, cette dernière affirmant avoir réduit la durée de ses cycles de sécurité de plus de 90 %. L'enjeu pour les équipes de sécurité et d'exploitation est majeur. La plupart des organisations ne peuvent aujourd'hui faire réaliser des tests de pénétration manuels que sur leurs applications les plus critiques, faute de temps et de budget — laissant la majorité de leur portefeuille logiciel vulnérable entre deux cycles d'audit. AWS Security Agent change cette équation en analysant le code source, les diagrammes d'architecture et la documentation pour reconstituer des chaînes d'attaque complexes que les scanners traditionnels ne détectent pas. Côté opérations, AWS DevOps Agent s'intègre avec les principaux outils du marché — CloudWatch, Datadog, Dynatrace, Splunk, Grafana, GitHub, GitLab — et corrèle télémétrie, code et données de déploiement pour identifier la cause racine d'un incident, qu'il s'agisse d'infrastructures AWS, Azure, hybrides ou on-premise. Pour les équipes SRE débordées, c'est la promesse d'un coéquipier disponible en permanence. Ces annonces s'inscrivent dans une course à l'automatisation des opérations IT qui s'intensifie depuis l'essor des grands modèles de langage. Les hyperscalers — AWS, Microsoft Azure, Google Cloud — cherchent tous à proposer des agents capables de gérer des tâches complexes et durables, au-delà des simples assistants conversationnels. AWS positionne explicitement ces outils non comme des aides ponctuelles, mais comme de véritables extensions de l'équipe humaine, capables de prendre des décisions en plusieurs étapes sans intervention constante. Amy Herzog, vice-présidente et RSSI d'AWS, indique que l'entreprise utilise elle-même AWS Security Agent en interne. La question qui se posera à mesure de l'adoption est celle de la gouvernance : jusqu'où déléguer à une IA des décisions critiques sur la sécurité ou la stabilité des systèmes de production ?

UELes entreprises européennes utilisant AWS peuvent adopter ces agents pour réduire leurs coûts et délais de tests de sécurité, mais la délégation de décisions critiques à une IA soulève des questions de conformité avec le RGPD et l'AI Act.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour