Aller au contenu principal
RAG sans vecteurs : PageIndex récupère l'information par raisonnement
OutilsMarkTechPost3h

RAG sans vecteurs : PageIndex récupère l'information par raisonnement

1 source couvre ce sujet·Source originale ↗·

PageIndex propose une alternative radicale aux systèmes de RAG (Retrieval-Augmented Generation) traditionnels : plutôt que de découper les documents en fragments et de rechercher les plus similaires par calcul vectoriel, la plateforme construit un index hiérarchique en forme d'arbre, modélisant la structure du document telle qu'elle existe, chapitres, sous-sections et titres imbriqués compris. Un modèle de langage comme GPT-5.4 raisonne ensuite sur cet arbre, navigue entre les noeuds et identifie les sections pertinentes avant même de lire le texte complet. La démonstration proposée porte sur le célèbre article scientifique "Attention Is All You Need", publié en 2017, qui a fondé l'architecture Transformer aujourd'hui omniprésente dans l'IA. Deux requêtes croisées sont posées sur ce document sans qu'un seul vecteur ou embedding ne soit calculé. Les performances de PageIndex ont été mesurées notamment sur FinanceBench, un benchmark spécialisé dans les documents financiers complexes, où l'approche surpasse significativement les pipelines vectoriels classiques.

L'enjeu dépasse la simple optimisation technique. Dans les rapports financiers, les textes juridiques ou les articles de recherche, la réponse à une question ne se trouve pas toujours dans le paragraphe "le plus proche" sémantiquement : elle exige de relier des informations dispersées sur plusieurs sections, de comprendre la structure du document et d'effectuer un raisonnement en plusieurs étapes. Les systèmes RAG classiques échouent silencieusement sur ce type de requêtes, en retournant des résultats plausibles mais inexacts. PageIndex rend le processus de récupération interprétable et traçable, ce qui est crucial pour les applications professionnelles où une hallucination ou une approximation peut avoir des conséquences réelles, que ce soit dans un cabinet d'avocats, une salle d'analyse financière ou un laboratoire de recherche.

Le RAG vectoriel s'est imposé comme l'architecture de référence pour connecter les LLM à des bases de connaissances externes depuis 2022-2023, porté par des bibliothèques comme LangChain ou LlamaIndex. Mais les limites de la recherche par similarité sémantique sont connues et documentées : les chunks perdent le contexte, les distances cosinus ne capturent pas la logique, et les documents longs déjouent systématiquement les pipelines standards. Plusieurs équipes cherchent des alternatives, comme GraphRAG de Microsoft, qui s'appuie sur des graphes de connaissances, ou les approches à base d'agents orchestrant plusieurs appels LLM. PageIndex s'inscrit dans cette tendance en pariant sur le raisonnement structuré plutôt que sur la puissance brute des embeddings. Avec l'arrivée de modèles toujours plus capables comme GPT-5.4, cette approche devient viable à grande échelle et pourrait redéfinir la manière dont les systèmes d'IA extraient l'information de documents complexes.

💬 Le point de vue du dev

Le problème avec le RAG par chunks, c'est que tu perds la structure du document avant même d'avoir posé ta question. PageIndex fait le pari inverse : construire un arbre qui reflète l'organisation réelle du document, puis laisser le LLM naviguer dedans plutôt que de faire des calculs de distance cosinus à l'aveugle. Ça marche visiblement bien sur les docs financiers complexes, et pour les usages pro où une hallucination coûte cher, c'est exactement le bon angle d'attaque.

À lire aussi

GitNexus : un moteur de graphe de connaissances open source compatible MCP qui donne à Claude Code et Cursor une vision structurelle complète du code
1MarkTechPost 

GitNexus : un moteur de graphe de connaissances open source compatible MCP qui donne à Claude Code et Cursor une vision structurelle complète du code

Un étudiant en informatique indien a publié GitNexus, un moteur open source de graphe de connaissances conçu pour donner aux agents de codage IA une vision structurelle complète d'un dépôt de code. Le projet compte déjà plus de 28 000 étoiles et 3 000 forks sur GitHub, avec 45 contributeurs actifs. Son fonctionnement repose sur une commande unique, npx gitnexus analyze, qui lance un pipeline d'indexation en plusieurs phases : parcours de l'arborescence de fichiers, extraction de chaque fonction, classe, méthode et interface via des arbres syntaxiques Tree-sitter, puis résolution croisée des imports et des appels entre fichiers. Le résultat est un graphe complet des dépendances, stocké localement dans LadybugDB, une base de données graphe embarquée avec support vectoriel natif. Ce graphe est ensuite exposé aux agents IA via un serveur MCP (Model Context Protocol), permettant des recherches hybrides combinant BM25, embeddings sémantiques et RRF. L'option --skills génère en plus des fichiers SKILL.md ciblés pour chaque zone fonctionnelle détectée dans le code, déposés sous .claude/skills/generated/. Le problème que GitNexus cherche à résoudre est bien réel et coûteux : les agents IA comme Claude Code, Cursor ou Windsurf opèrent aujourd'hui essentiellement à l'aveugle. Ils lisent les fichiers proches du contexte ouvert et espèrent ne rien manquer. Résultat classique : un agent modifie le type de retour d'une fonction sans savoir que 47 autres fonctions en dépendent, les tests explosent, et le développeur passe deux heures à démêler ce que l'outil aurait dû savoir avant d'agir. GitNexus pré-calcule la structure complète des dépendances à l'indexation, de sorte que quand un agent interroge "qu'est-ce qui dépend de cette fonction ?", il obtient une réponse complète en une seule requête, sans enchaîner dix appels successifs à risque. Le tout tourne entièrement en local, sans qu'une seule ligne de code quitte la machine. La publication de GitNexus s'inscrit dans une dynamique plus large autour du Model Context Protocol, le standard lancé par Anthropic fin 2024 pour unifier la façon dont les agents IA accèdent à des sources de contexte externes. L'écosystème MCP s'est développé rapidement, mais la plupart des serveurs existants exposent des documents ou des APIs, pas la structure interne d'une base de code. GitNexus comble ce vide spécifique en s'appuyant sur Tree-sitter, le parseur incrémental développé à l'origine par GitHub, et sur la détection de communautés de Leiden pour regrouper les symboles par zones fonctionnelles cohérentes. La prochaine étape logique pour ce type d'outil est l'intégration dans les IDE et les pipelines CI, où une connaissance structurelle précise du code pourrait non seulement guider les agents en temps réel, mais aussi prévenir automatiquement les régressions avant qu'elles ne soient committées.

💬 C'est exactement le problème que je vis en ce moment avec Claude Code : l'agent touche une fonction, casse 5 trucs en aval, et toi tu passes l'heure suivante à réparer ce que l'outil aurait dû anticiper. GitNexus s'attaque à ça à la source, en pré-calculant tout le graphe de dépendances avant que l'agent commence à bricoler, et le tout tourne en local sans qu'une seule ligne de code parte ailleurs. 28 000 étoiles en quelques semaines, c'est pas du hasard.

OutilsOutil
1 source
Surveiller le comportement des LLM : dérives, nouvelles tentatives et patterns de refus
2VentureBeat AI 

Surveiller le comportement des LLM : dérives, nouvelles tentatives et patterns de refus

Les systèmes d'intelligence artificielle générative posent un défi fondamental aux équipes d'ingénierie : contrairement aux logiciels traditionnels, où une entrée A combinée à une fonction B produit toujours un résultat C, les modèles de langage sont stochastiques. Le même prompt peut retourner des réponses différentes d'un lundi à un mardi, rendant caducs les tests unitaires classiques. Pour répondre à ce problème, des équipes spécialisées dans le déploiement d'IA pour des clients Fortune 500 dans des secteurs à hauts risques, où une hallucination n'est pas anecdotique mais constitue un risque de conformité majeur, ont formalisé un cadre structuré : l'AI Evaluation Stack. Ce pipeline d'assertions remplace les simples "vibe checks" subjectifs par une infrastructure d'évaluation rigoureuse organisée en couches distinctes. La première couche repose sur des assertions déterministes, qui traitent en priorité les pannes les plus fréquentes en production : non pas les hallucinations sémantiques, mais les erreurs de syntaxe et de routage. Ces vérifications binaires posent des questions strictes, le modèle a-t-il généré le bon schéma JSON ? A-t-il invoqué le bon appel d'API avec les bons paramètres ? A-t-il correctement renseigné un identifiant GUID ou une adresse email ? Ce principe "fail-fast" est délibérément placé en amont pour éviter de déclencher des évaluations coûteuses sur des sorties déjà mal formées. La seconde couche intervient lorsque la syntaxe est validée : elle évalue la qualité sémantique via ce qu'on appelle le LLM-as-a-Judge, c'est-à-dire un modèle frontier (plus puissant que le modèle de production) chargé d'évaluer la nuance, la politesse ou le caractère actionnable d'une réponse, des dimensions qu'aucune regex ne peut capturer de façon fiable. Ce juge artificiel devient ainsi un proxy scalable de la relecture humaine, capable de traiter des dizaines de milliers de cas de test dans un pipeline CI/CD. Cette architecture répond à une maturité croissante du secteur face aux risques de dérive comportementale des LLMs en production. Dans les industries réglementées, finance, santé, juridique, un modèle qui dévie de ses instructions, refuse des requêtes légitimes ou produit des sorties mal structurées peut engendrer des conséquences opérationnelles et légales sérieuses. Les grandes entreprises technologiques et les startups d'observabilité IA, comme Braintrust, Langfuse ou Weights & Biases, investissent massivement dans ces outils d'évaluation. L'enjeu est de faire passer l'IA générative du statut de prototype impressionnant à celui de composant industriel fiable, soumis aux mêmes exigences de qualité que n'importe quel service critique en production.

UEL'AI Act européen impose une surveillance rigoureuse des systèmes IA à haut risque dans les secteurs réglementés (finance, santé, juridique), ce cadre d'évaluation structuré répond directement aux exigences de traçabilité et de conformité que devront démontrer les entreprises européennes déployant des LLMs en production.

OutilsOutil
1 source
Revenium AI Outcomes : les CFOs enfin armés contre l’Agent Debt
3Le Big Data 

Revenium AI Outcomes : les CFOs enfin armés contre l’Agent Debt

Revenium, une startup spécialisée dans l'observabilité économique de l'IA, vient de lancer AI Outcomes, une fonctionnalité qui relie chaque dollar dépensé en agents IA à un résultat business mesurable. Portée par une levée de 13,5 millions de dollars auprès de Two Bear Capital, la plateforme s'attaque au problème que son CEO John Rowell appelle l'"Agent Debt" : l'accumulation de coûts techniques, tokens et appels API, qui s'envolent sans générer de valeur concrète pour l'entreprise. Le cas concret mis en avant est frappant : une fintech traitait auparavant 1 000 dossiers de prêts en 200 heures pour 7 000 dollars. Avec les agents IA supervisés par Revenium, le même volume est traité en trois minutes pour 2 950 dollars, avec un taux d'approbation en hausse de 95 %, soit un ROI annoncé de 13 000 % et un coût par conversion de 3,78 dollars. L'enjeu est directement financier et organisationnel. Jusqu'ici, les directions techniques pouvaient difficilement justifier leurs budgets IA face aux CFOs : les métriques disponibles étaient des indicateurs de performance technique (latence, taux d'erreur, tokens consommés) sans lien clair avec le chiffre d'affaires. Revenium comble ce fossé en séparant l'état technique d'un agent de son résultat métier réel, une conversion aboutie, un transfert vers un humain, un prêt validé à 500 dollars, et en affichant dans un tableau de bord unique ce qu'a coûté l'IA versus ce qu'elle a rapporté. Pour les équipes financières, c'est la différence entre un rapport flou et une ligne comptable vérifiable : 2 950 dollars investis, 390 000 dollars de revenus générés. La plateforme s'inscrit dans un mouvement plus large de maturité autour de l'IA en entreprise, à mi-chemin entre le FinOps, la discipline de contrôle des coûts cloud, et ce que certains appellent déjà le GreenOps, l'optimisation de l'empreinte énergétique des modèles. À mesure que les entreprises déploient des agents autonomes en production, la question n'est plus "l'IA fonctionne-t-elle ?" mais "l'IA est-elle rentable ?". Revenium parie que les agents IA, traités comme de véritables employés devant justifier leur coût, deviendront la norme dans les grandes organisations. Avec un premier outil de "Tool Registry" déjà en place et cette deuxième brique centrée sur les résultats économiques, la startup cherche à s'imposer comme la couche de gouvernance financière incontournable pour tout déploiement d'IA à l'échelle.

OutilsOutil
1 source
Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick
4AWS ML Blog 

Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick

Visier, plateforme d'intelligence des ressources humaines basée dans le cloud, et Amazon Quick, l'espace de travail agentique d'IA d'Amazon, ont annoncé une intégration technique permettant à leurs systèmes de fonctionner de concert via le Model Context Protocol (MCP), un standard ouvert d'interopérabilité pour agents IA. Concrètement, Visier centralise les données RH d'une organisation, SIRH, paie, gestion des talents, suivi des candidatures, et les rend accessibles en temps réel à travers son assistant IA interne appelé Vee. Amazon Quick, de son côté, sert d'interface unifiée où les collaborateurs posent leurs questions, automatisent des processus et construisent des agents travaillant en leur nom. Le MCP joue le rôle d'adaptateur universel entre les deux systèmes, sans nécessiter d'intégration personnalisée. L'intérêt concret de cette connexion est illustré par deux profils types : Maya, Business Partner RH qui prépare un bilan de santé organisationnel pour un comité de direction, et David, responsable financier qui suit l'évolution des effectifs par rapport aux budgets prévisionnels. Avant cette intégration, chacun devait interroger plusieurs outils séparément, recouper manuellement des données issues de sources hétérogènes, et passer d'un tableau de bord à l'autre. Désormais, depuis Amazon Quick, ils peuvent poser une question en langage naturel et obtenir une réponse qui croise simultanément les données live de Visier, les politiques internes de recrutement, les objectifs financiers et le contexte historique, sans changer d'outil. Pour Maya, cela signifie accéder instantanément aux taux d'attrition, aux performances moyennes par département ou à la durée de tenure. Pour David, obtenir les chiffres d'effectifs en temps réel mesurés contre les cibles budgétaires. Cette intégration s'inscrit dans une tendance de fond : la multiplication des architectures dites "multi-agents", où des plateformes spécialisées exposent leurs capacités via des protocoles standardisés plutôt que des connecteurs ad hoc. Le MCP, popularisé depuis fin 2024, est devenu le langage commun qui permet à des outils comme Visier de s'insérer dans des écosystèmes IA plus larges sans friction technique. Visier, qui s'appuie sur des données anonymisées de millions de salariés pour ses benchmarks sectoriels, cherche ainsi à étendre sa portée au-delà des équipes RH vers l'ensemble des décideurs de l'entreprise. Amazon Quick, en agrégeant ces sources d'intelligence métier dans un seul espace conversationnel, parie sur le fait que la valeur de l'IA en entreprise réside moins dans les modèles eux-mêmes que dans leur capacité à connecter des silos de données jusqu'ici cloisonnés.

OutilsOutil
1 source