Aller au contenu principal
Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
OutilsMarkTechPost1h

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

1 source couvre ce sujet·Source originale ↗·

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et read_document, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale.

L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prune_chunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production.

Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

À lire aussi

Microsoft lance un agent Azure Copilot pour accélérer la planification des migrations cloud
1InfoQ AI 

Microsoft lance un agent Azure Copilot pour accélérer la planification des migrations cloud

Microsoft a lancé l'Azure Copilot Migration Agent, un assistant IA intégré directement au portail Azure, destiné à accélérer la planification des migrations vers le cloud. L'outil automatise trois tâches clés : la découverte sans agent des environnements VMware, la planification de migration et la création de zones d'atterrissage (landing zones). Présenté comme disponible en général (GA), le service est en réalité toujours en préversion publique — une nuance importante que Microsoft n'a pas mise en avant. La promesse est de réduire significativement le temps consacré à la phase d'évaluation et de préparation, souvent la plus fastidieuse des projets de migration cloud. Pour les équipes IT gérant des parcs VMware importants, la découverte automatique des machines virtuelles sans installation d'agent représente un gain opérationnel réel. Cependant, l'outil ne peut pas exécuter les migrations lui-même : la réplication des données et le basculement (cutover) restent des opérations manuelles dans Azure Migrate, ce qui limite son périmètre à la planification seule. Ce lancement s'inscrit dans un contexte favorable à Microsoft : depuis le rachat de VMware par Broadcom en 2023 et la hausse brutale des licences qui a suivi, de nombreuses entreprises cherchent à migrer leurs workloads vers des alternatives cloud. Azure est l'un des principaux bénéficiaires de cet exode, aux côtés d'AWS et Google Cloud. En automatisant la phase de planification, Microsoft cherche à abaisser la barrière d'entrée et à accélérer les décisions de migration — tout en restant prudent sur ce qu'il promet réellement livrer à ce stade.

UELes entreprises françaises et européennes contraintes de quitter VMware suite aux hausses de licences Broadcom peuvent utiliser cet outil pour accélérer leur planification de migration vers Azure.

OutilsActu
1 source
Google-Agent et Googlebot : Google trace la frontière technique entre accès IA déclenché par l'utilisateur et exploration pour la recherche
2MarkTechPost 

Google-Agent et Googlebot : Google trace la frontière technique entre accès IA déclenché par l'utilisateur et exploration pour la recherche

Google a officiellement documenté un nouvel agent technique qui apparaît dans les logs des serveurs web : Google-Agent. Contrairement à Googlebot, le crawler historique qui parcourt le web de façon autonome pour alimenter l'index de recherche, Google-Agent est déclenché uniquement lorsqu'un utilisateur interagit avec un produit IA de Google — comme AI Overviews ou Gemini — et demande à accéder à un contenu spécifique. Ce fetcher ne suit pas les liens, ne découvre pas de nouvelles pages de son propre chef : il se comporte comme un proxy humain, récupérant une URL précise à la demande. Son User-Agent se présente sous la forme d'une chaîne mobile Chrome standard avec la mention (compatible; Google-Agent) en suffixe, et dans certains cas simplement le token Google-Agent. La distinction technique la plus importante concerne le fichier robots.txt : Google-Agent l'ignore délibérément. La logique avancée par Google est que la requête étant initiée par un humain, le fetcher se rapproche davantage d'un navigateur que d'un crawler automatisé. Concrètement, cela signifie que les développeurs ne peuvent plus compter sur robots.txt pour protéger du contenu sensible ou restreindre l'accès aux outils IA de Google. Seuls des mécanismes d'authentification classiques ou des permissions serveur côté back-end permettent de contrôler ces accès. Par ailleurs, les adresses IP sources de Google-Agent ne suivent pas les plages prévisibles des crawlers de recherche — Google recommande de croiser les requêtes avec ses plages IP publiées en JSON pour valider leur légitimité et éviter des faux positifs dans les WAF ou systèmes de rate-limiting. Cette évolution s'inscrit dans la transformation profonde de la façon dont Google consomme le web. Pendant des décennies, la relation entre les sites et Google reposait sur un modèle d'indexation périodique, géré via robots.txt et les budgets de crawl. L'essor des produits IA conversationnels change cette dynamique : le trafic de Google-Agent sera désormais corrélé à la popularité du contenu auprès des utilisateurs IA, et non aux cycles d'indexation. Pour les équipes infra, cela implique de revoir les règles de traitement des bots dans les firewalls applicatifs, sous peine de bloquer involontairement des utilisateurs Google. Pour les éditeurs, cela pose une question de fond sur le contrôle de l'accès au contenu à l'ère des agents IA, alors que le modèle économique du web — basé sur les clics et les visites directes — est déjà fragilisé par les réponses générées directement dans les interfaces Google.

UELes éditeurs web français et européens doivent revoir leurs dispositifs de contrôle d'accès (authentification, permissions serveur) car robots.txt ne protège plus contre les agents IA de Google, soulevant des questions de souveraineté sur le contenu à l'heure de l'AI Act.

💬 Google vient de rendre le robots.txt officiellement obsolète pour ses outils IA, et c'est un changement de règle en plein match. La logique est cohérente de leur point de vue (un humain déclenche la requête, donc c'est "comme un navigateur"), mais pour les éditeurs qui comptaient sur ce fichier pour garder la main sur leur contenu, ça fait mal. Faut maintenant gérer ça côté auth ou pare-feu, ce qui n'est pas du tout le même niveau de complexité.

OutilsOpinion
1 source
Adieu Safari sur l’iPhone : on l’a remplacé par Comet, le navigateur IA de Perplexity
301net 

Adieu Safari sur l’iPhone : on l’a remplacé par Comet, le navigateur IA de Perplexity

Perplexity a lancé Comet, son navigateur dopé à l'intelligence artificielle, sur iPhone, étendant ainsi une offre jusqu'ici réservée aux ordinateurs de bureau. Le navigateur intègre directement le moteur de recherche conversationnel de Perplexity au cœur de l'expérience de navigation, permettant de poser des questions sur n'importe quelle page web sans quitter le navigateur ni ouvrir un onglet séparé. L'enjeu est de taille : Comet cible directement Safari, le navigateur par défaut d'Apple qui domine massivement l'usage sur iPhone. En proposant une alternative où l'IA répond aux questions contextuelles en temps réel, Perplexity parie que les utilisateurs sont prêts à abandonner un outil qu'ils n'ont jamais vraiment choisi. Sur mobile, la promesse prend un sens particulier : chercher de l'information en déplacement est un cas d'usage quotidien pour des centaines de millions de personnes. Perplexity s'inscrit dans une course plus large où plusieurs acteurs — dont OpenAI avec son propre navigateur annoncé, et Google avec Chrome intégrant Gemini — tentent de faire du navigateur le nouveau point d'entrée de l'IA générative. Pour la startup valorisée à plusieurs milliards de dollars, conquérir l'iPhone représente un test grandeur nature de sa capacité à s'imposer face aux géants déjà installés sur ce territoire.

💬 Perplexity joue un coup audacieux, mais je reste sceptique sur l'adoption : changer de navigateur sur iPhone, c'est un effort que peu de gens font vraiment. L'intégration IA dans le flux de navigation, c'est genuinement utile, surtout en mobilité, et c'est un angle que Safari ne couvre pas encore bien. Reste qu'OpenAI et Google arrivent avec les mêmes ambitions et dix fois plus de distribution.

OutilsOutil
1 source
Guide complet du pipeline d'agents nanobot : outils, mémoire, sous-agents et planification cron
4MarkTechPost 

Guide complet du pipeline d'agents nanobot : outils, mémoire, sous-agents et planification cron

Le framework nanobot, développé par le laboratoire HKUDS de l'Université de Hong Kong, s'impose comme l'une des solutions les plus légères pour construire des agents IA personnels complets. Rédigé en environ 4 000 lignes de Python, il embarque l'ensemble du pipeline agent : boucle de raisonnement, exécution d'outils, persistance mémoire, chargement de compétences (skills), gestion de sessions, délégation à des sous-agents et planification via cron. Un tutoriel publié récemment propose d'en reconstruire chaque sous-système à la main, en utilisant le modèle gpt-4o-mini d'OpenAI comme moteur LLM, afin de comprendre précisément leur fonctionnement plutôt que de simplement les utiliser en boîte noire. Le tutoriel progresse étape par étape : depuis une simple boucle d'appel d'outil jusqu'à un pipeline de recherche multi-étapes capable de lire et d'écrire des fichiers, de stocker des mémoires à long terme, et de déléguer des tâches à des agents parallèles fonctionnant en arrière-plan. Ce type de ressource pédagogique a une valeur pratique immédiate pour les développeurs qui souhaitent construire des agents IA sans dépendre de frameworks lourds comme LangChain ou AutoGen, dont la complexité et l'opacité sont souvent citées comme obstacles à la maintenance et à la compréhension. Nanobot mise sur la lisibilité du code source pour permettre aux équipes techniques de personnaliser chaque composant : outils sur mesure, architectures d'agents propres, logiques de scheduling adaptées. Pour un développeur solo ou une petite équipe, pouvoir déployer un agent personnel — capable d'effectuer des recherches, de mémoriser des contextes entre sessions et de lancer des tâches planifiées — en s'appuyant sur moins de 5 000 lignes de code auditables représente un changement d'échelle significatif. Nanobot s'inscrit dans une tendance plus large de miniaturisation des frameworks agentiques, portée par la maturité croissante des API LLM et la volonté de réduire la dette technique dans les projets IA. Alors que les grandes plateformes comme OpenAI ou Anthropic poussent leurs propres solutions d'orchestration, des projets open source légers comme nanobot, smolagents (HuggingFace) ou DSPy cherchent à garder le contrôle dans les mains des développeurs. HKUDS, connu pour ses travaux sur les systèmes de recommandation et les graphes de connaissances, confirme ici une diversification vers l'ingénierie agentique appliquée. Les prochaines évolutions du framework pourraient intégrer une compatibilité multi-modèles élargie, notamment vers les LLM open source via Ollama, et un système de partage de skills entre utilisateurs.

OutilsTuto
1 source