
La couche d'orchestration IA s'effondre : le PDG de LlamaIndex explique ce qui survit

La couche d'outillage qui permettait aux développeurs de construire des applications LLM, moteurs d'indexation, pipelines de récupération, boucles d'orchestration d'agents, est en train de s'effondrer. C'est le constat que dresse Jerry Liu, co-fondateur et PDG de LlamaIndex, l'un des principaux frameworks RAG (retrieval-augmented generation) du marché, dans un épisode récent du podcast VentureBeat Beyond the Pilot. Liu reconnaît lui-même que les frameworks comme le sien deviennent moins indispensables : les modèles actuels raisonnent sur de vastes quantités de données non structurées avec une précision croissante, se corrigent d'eux-mêmes, planifient sur plusieurs étapes, et des protocoles comme MCP (Model Context Protocol) permettent désormais aux agents de découvrir et utiliser des outils sans intégrations manuelles. Résultat : environ 95 % du code de LlamaIndex lui-même est aujourd'hui généré par l'IA. "Les ingénieurs n'écrivent plus vraiment de code", dit Liu. "Ils tapent tous en langage naturel."
Ce bouleversement redéfinit ce qui constitue un avantage concurrentiel dans l'écosystème IA. Quand la pile technique se simplifie et que les frameworks d'orchestration perdent de leur valeur, ce qui reste est le contexte, la capacité à extraire les bonnes informations depuis les bons formats de fichiers, avec précision et à moindre coût. LlamaIndex mise sur ce créneau via le traitement documentaire agentique par OCR, ciblant les données "enfermées dans des conteneurs de formats de fichiers". Pour Liu, le choix entre OpenAI Codex ou Claude Code importe peu : "ce dont ils ont tous besoin, c'est du contexte." Cette logique pousse aussi les entreprises verticales spécialisées à prendre de l'avance sur les généralistes, car elles maîtrisent mieux les données et les workflows spécifiques à leur secteur.
LlamaIndex est né comme un projet expérimental avec initialement seulement 40 % de précision, avant de devenir une référence de l'écosystème RAG. Mais Liu prend soin d'avertir les entreprises contre la tentation de sur-construire : les stacks doivent rester modulaires et agnostiques vis-à-vis des modèles frontière, car chaque nouvelle version de modèle redistribue les cartes. "Vous voulez garder la flexibilité d'en tirer parti", dit-il. La récupération de données a évolué vers un modèle "agent + sandbox", et les bases de code doivent pouvoir être adaptées sans dette technique excessive. Dans ce contexte, la question "construire ou acheter" reste entièrement valide, en particulier pour les workflows complexes que les entreprises SaaS cherchent à standardiser pour des travailleurs du savoir non techniques. La prochaine bataille ne se joue pas sur l'orchestration, mais sur qui contrôle le contexte.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



