Aller au contenu principal
Plongée dans le code : UI à base d'agents, UI générative, synchronisation d'état et validation par interruption
OutilsMarkTechPost2h

Plongée dans le code : UI à base d'agents, UI générative, synchronisation d'état et validation par interruption

Résumé IASource uniqueImpact UE
Source originale ↗·

Un tutoriel récemment publié propose de construire une pile complète d'interfaces utilisateur agentiques (Agentic UI) en Python pur, sans recourir à des frameworks externes. L'implémentation couvre le protocole AG-UI, un flux d'événements composé d'environ 16 types diffusés en temps réel via Server-Sent Events (SSE), parmi lesquels des événements de démarrage et fin de session, de messages texte, d'appels d'outils et de synchronisation d'état. Le tutoriel intègre également A2UI, une couche déclarative permettant de définir des interfaces graphiques sous forme de JSON structuré plutôt que de code exécutable. L'ensemble est connecté à un modèle de langage (GPT-4o-mini d'OpenAI dans les exemples de code) capable de générer des interfaces complètes à partir de descriptions en langage naturel.

L'enjeu central de cette approche réside dans la synchronisation entre l'état de l'agent et celui de l'interface utilisateur, assurée via JSON Patch, une norme RFC permettant des mises à jour incrémentales et précises de structures de données. Le tutoriel aborde aussi les flux d'approbation interrompus, un mécanisme qui impose une validation humaine pour les actions critiques avant qu'un agent ne les exécute, principe connu sous le nom de "human-in-the-loop". Pour les développeurs, cette architecture ouvre la voie à des interfaces capables de s'adapter dynamiquement au raisonnement d'un agent IA, sans rechargement ni recompilation manuelle. C'est une rupture avec les interfaces statiques traditionnelles : l'UI devient un artefact vivant, piloté par l'état cognitif du modèle.

Cet article s'inscrit dans une effervescence croissante autour des systèmes multi-agents et des protocoles qui leur sont associés. AG-UI émerge comme une tentative de standardisation, à l'image du Model Context Protocol (MCP) d'Anthropic pour la gestion du contexte, ou d'Agent2Agent de Google pour la communication inter-agents. L'objectif commun est de fournir une couche d'interopérabilité entre agents et interfaces, indépendamment du modèle sous-jacent. En construisant cet outillage depuis zéro, le tutoriel cherche à démystifier ces protocoles souvent masqués par des abstractions de haut niveau comme LangGraph ou CrewAI. À mesure que les agents IA passent du laboratoire à la production, la question de leur observabilité et de leur contrôlabilité devient critique, et des ressources pédagogiques de ce type jouent un rôle de formation essentiel pour les ingénieurs qui bâtissent ces systèmes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Des alertes isolées à l'intelligence contextuelle : analyse d'anomalies maritimes par agents autonomes et IA générative
1AWS ML Blog 

Des alertes isolées à l'intelligence contextuelle : analyse d'anomalies maritimes par agents autonomes et IA générative

Windward, spécialiste de l'intelligence maritime par IA, a développé en partenariat avec l'AWS Generative AI Innovation Center un système baptisé MAI Expert, présenté comme le premier agent IA génératif dédié à l'analyse maritime. Ce système automatise l'investigation des anomalies de comportement de navires en croisant des données AIS (Automatic Identification System), des signaux de télédétection, des flux d'actualités en temps réel et des modèles propriétaires. Concrètement, dès qu'une anomalie est détectée par le module Windward Early Detection -- pic d'activité inhabituel, mouvement inattendu, déviation de route -- le pipeline IA extrait les métadonnées de l'événement (horodatage, coordonnées, type d'anomalie, classe du navire) puis interroge automatiquement des sources externes diversifiées pour produire une évaluation de risque textuelle et contextualisée. L'architecture repose sur Amazon Bedrock pour les modèles de langage et AWS Step Functions pour l'orchestration des étapes d'analyse. Avant ce système, les analystes maritimes passaient des heures à collecter et corréler manuellement des données complexes pour comprendre chaque anomalie -- un travail qui exigeait une expertise pointue et ralentissait considérablement la prise de décision. MAI Expert réduit ce délai en automatisant la collecte de contexte: météo, actualités, alertes croisées, données propriétaires. Les agences de défense, services de renseignement, forces de l'ordre et acteurs commerciaux qui utilisent la plateforme Windward peuvent ainsi concentrer leur énergie sur l'interprétation stratégique plutôt que sur la recherche d'information. L'enjeu est direct: dans le domaine maritime, une réponse rapide à une menace peut conditionner la protection d'infrastructures critiques ou l'interception d'activités illicites. Windward s'inscrit dans une tendance de fond qui voit l'IA générative dépasser le simple rôle de résumé pour devenir un véritable agent d'investigation autonome. La coopération avec AWS illustre comment les acteurs spécialisés dans des domaines à forte contrainte opérationnelle -- sécurité maritime, défense, logistique -- cherchent à intégrer les grands modèles de langage dans des workflows métier complexes, sans sacrifier la précision ni la traçabilité des sources. La suite logique de ce développement sera d'élargir le nombre de sources interrogées, d'améliorer la fiabilité des évaluations de risque en contexte ambigu, et potentiellement d'étendre le modèle à d'autres domaines où la surveillance multi-sources est critique, comme la gestion des frontières ou la surveillance environnementale.

UELes agences européennes de surveillance maritime, gardes-côtes et services de renseignement pourraient s'appuyer sur ce type de système pour renforcer la surveillance des frontières maritimes de l'UE et la lutte contre les trafics illicites en mer.

OutilsOutil
1 source
Le Context Bridge d'IWE : graphe de connaissances IA avec RAG à base d'agents et appels de fonctions OpenAI
2MarkTechPost 

Le Context Bridge d'IWE : graphe de connaissances IA avec RAG à base d'agents et appels de fonctions OpenAI

Un tutoriel publié récemment sur la plateforme analytique Towards Data Science détaille l'implémentation d'IWE, un système open-source de gestion des connaissances personnelles écrit en Rust, transformé en graphe de connaissances piloté par intelligence artificielle. Le projet s'appuie sur l'API OpenAI, la bibliothèque Python Graphviz et un pipeline RAG agentique (Retrieval-Augmented Generation) pour permettre à un agent IA de naviguer dans des notes Markdown interconnectées. Concrètement, le tutoriel guide le développeur dans la construction d'une base de connaissances complète à partir de zéro : chaque note devient un nœud dans un graphe orienté, les liens wiki ([[note]]) et les liens Markdown standard constituent les arêtes, et IWE expose ses opérations clés via une interface CLI — recherche floue (find), récupération contextuelle (retrieve), affichage de hiérarchie (tree), consolidation de documents (squash), statistiques (stats) et export au format DOT pour visualisation. L'intérêt concret de cette architecture réside dans la capacité d'un agent à effectuer un raisonnement multi-sauts entre documents reliés, à identifier des lacunes dans la base de connaissances et à générer automatiquement de nouvelles notes qui s'intègrent dans la structure existante. Pour les développeurs et les équipes techniques, cela représente un changement significatif dans la façon d'exploiter la documentation interne : au lieu de chercher manuellement dans des dossiers de notes, un agent invoque des outils de function calling OpenAI pour traverser le graphe, extraire des résumés, suggérer des liens manquants et isoler les tâches à accomplir (todo extraction). La précision du graphe de rétroliens — chaque document connaît ses documents référents — permet un contexte réellement pertinent transmis au modèle de langage, contrairement aux approches RAG classiques basées sur la similarité vectorielle seule. IWE s'inscrit dans un mouvement plus large autour des systèmes de gestion des connaissances personnelles (PKM) popularisés par des outils comme Obsidian ou Roam Research, mais avec une philosophie orientée développeur : tout est fichier texte, tout est scriptable, et le LSP (Language Server Protocol) permet une intégration directe dans les éditeurs de code comme Neovim ou VS Code. En greffant OpenAI par-dessus cette infrastructure légère, le tutoriel illustre une tendance croissante dans l'outillage IA : plutôt que de recourir à des plateformes centralisées et coûteuses, construire des pipelines agentiques sur des bases de connaissances locales, contrôlées, versionnées sous Git. La prochaine étape logique pour ce type de système serait l'intégration de modèles locaux via Ollama, afin de s'affranchir totalement des API externes pour les cas d'usage sensibles ou hors-ligne.

OutilsOutil
1 source
Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
3MarkTechPost 

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et readdocument, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale. L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prunechunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production. Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

OutilsOpinion
1 source
Vercel lance JSON-Render : un framework d'interface générative pour la composition pilotée par l'IA
4InfoQ AI 

Vercel lance JSON-Render : un framework d'interface générative pour la composition pilotée par l'IA

Vercel a mis en open source json-render, un nouveau framework de génération d'interfaces utilisateur piloté par l'intelligence artificielle. Publié sous licence Apache 2.0, cet outil permet à des modèles de langage de composer des interfaces graphiques structurées à partir d'instructions en langage naturel. Concrètement, un développeur définit un catalogue de composants — boutons, formulaires, cartes, listes — et le modèle d'IA sélectionne et assemble ces blocs selon le contexte de la requête. Le framework est compatible avec plusieurs environnements frontend, ce qui lui confère une portée technique large dès sa sortie. L'enjeu principal est de permettre aux applications d'IA de ne plus se limiter à du texte brut, mais de produire des interfaces dynamiques et contextuelles sans intervention manuelle d'un développeur à chaque étape. Pour les équipes qui construisent des agents ou des assistants intégrés à des produits web, cela ouvre la voie à des expériences utilisateurs generatives : l'interface s'adapte à la demande en temps réel, réduisant le besoin de coder chaque scénario à l'avance. La sortie de json-render intervient dans un contexte de foisonnement autour des « generative UI », un concept popularisé notamment par Vercel lui-même avec sa bibliothèque AI SDK et les React Server Components. La communauté accueille l'initiative avec un mélange d'enthousiasme et de réserve : certains saluent la simplicité de l'approche, d'autres pointent ses divergences avec des standards existants comme les spécifications de composants structurés déjà portées par d'autres acteurs. La question de la compatibilité et de la standardisation dans l'écosystème reste ouverte.

OutilsOutil
1 source