Aller au contenu principal
AMES : Recherche multimodale approximative en entreprise par extraction à interaction tardive
OutilsApple Machine Learning7sem

AMES : Recherche multimodale approximative en entreprise par extraction à interaction tardive

Résumé IASource uniqueImpact UE
Source originale ↗·

AMES (Approximate Multimodal Enterprise Search) marque une avancée significative dans le domaine de la recherche d'information en entreprise : cette nouvelle architecture unifiée permet d'interroger simultanément des textes, des images et des vidéos au sein d'un même moteur de recherche, sans nécessiter de refonte technique majeure des systèmes existants.

L'enjeu est considérable pour les organisations qui gèrent des volumes croissants de contenus hétérogènes. Jusqu'ici, la recherche multimodale exigeait généralement des pipelines distincts selon la nature du contenu — un pour le texte, un autre pour les images, etc. AMES brise cette logique en proposant une architecture agnostique du backend, compatible avec les infrastructures de recherche d'entreprise déjà en place, ce qui réduit drastiquement le coût et la complexité de déploiement.

Au cœur du système, une approche dite d'interaction tardive (late interaction) : les tokens textuels, les patches d'image et les frames vidéo sont encodés dans un espace de représentation partagé via des encodeurs multi-vecteurs. La récupération inter-modalités s'effectue sans logique spécifique à chaque modalité. Le pipeline repose sur deux étapes : une recherche ANN (Approximate Nearest Neighbor) parallèle au niveau token, suivie d'une phase de reclassement fin — garantissant ainsi précision et passage à l'échelle en environnement de production.

Cette approche s'inscrit dans la tendance de fond des systèmes RAG (Retrieval-Augmented Generation) multimodaux, où la qualité de la récupération conditionne directement la pertinence des réponses générées par les LLM. En rendant l'interaction tardive accessible sans redesign architectural, AMES pourrait accélérer l'adoption de la recherche multimodale dans les entreprises qui hésitaient encore à franchir le pas.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Zhipu AI présente GLM-OCR : un modèle multimodal OCR de 0,9 milliard pour le traitement de documents et l'extraction d'informations clés (KIE)
1MarkTechPost 

Zhipu AI présente GLM-OCR : un modèle multimodal OCR de 0,9 milliard pour le traitement de documents et l'extraction d'informations clés (KIE)

Zhipu AI présente GLM-OCR, un modèle multimodal compact de 0.9 milliards de paramètres pour la compréhension des documents, qui combine un encodeur visuel CogViT de 0.4 milliard, un connecteur léger intermodal et un décodeur linguistique GLM de 0.5 milliard. Le modèle utilise la prédiction de multi-token (MTP) pour améliorer le traitement (50%), adapté aux contraintes des déploiements sur le bord, et adopte une architecture en deux étapes pour analyser la structure documentaire avant la reconnaissance. GLM-OCR traite les tâches de parse document et d'extraction des informations clés (KIE) via des chemins d'output distincts, optimisant ainsi l'efficacité et la robustesse sur des documents complexes.

OutilsActu
1 source
Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
2MarkTechPost 

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et readdocument, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale. L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prunechunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production. Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

OutilsOpinion
1 source
3AWS ML Blog 

Recherche sémantique vidéo avec Amazon Nova Multimodal Embeddings

Amazon a lancé Nova Multimodal Embeddings, un modèle d'embedding unifié disponible sur Amazon Bedrock, capable de traiter simultanément du texte, des images, de la vidéo et de l'audio dans un espace vectoriel sémantique commun. L'objectif est de résoudre un problème concret qui freine l'industrie audiovisuelle : permettre de rechercher dans des vidéos par le sens, et non par des mots-clés exacts. Concrètement, le modèle génère des vecteurs de 1 024 dimensions qui encodent à la fois les signaux visuels et audio d'un segment vidéo, stockés ensuite dans Amazon S3. L'architecture de référence publiée par Amazon combine une phase d'ingestion en six étapes, upload dans S3, découpage en plans via FFmpeg sur AWS Fargate, traitement parallèle avec embeddings visuels/audio, transcription via Amazon Transcribe, et détection de célébrités via Amazon Rekognition, et une phase de recherche hybride qui fusionne recherche sémantique et lexicale pour produire une liste de résultats classés. L'enjeu est majeur pour tous les secteurs qui gèrent des bibliothèques vidéo volumineuses. Une chaîne sportive peut désormais retrouver instantanément le moment précis où un joueur marque, un studio peut identifier chaque scène d'un acteur dans des milliers d'heures d'archives, et une rédaction peut extraire des images par ambiance, lieu ou événement pour publier plus vite que ses concurrents. Ce qui change fondamentalement, c'est que la recherche n'est plus limitée au dialogue ou aux métadonnées textuelles : une requête comme "une course-poursuite tendue avec des sirènes" retrouve à la fois l'événement visuel et l'événement sonore sans que l'un ou l'autre ait besoin d'être transcrit. La précision de recherche s'améliore donc sur les contenus riches en action, en musique ou en sons d'ambiance, là où les approches textuelles échouaient systématiquement. L'approche dominante jusqu'ici consistait à convertir toute la vidéo en texte, transcription automatique, sous-titrage, tags manuels, puis à appliquer des embeddings textuels classiques. Cette méthode souffre de deux limites structurelles : la dimension temporelle disparaît dans la conversion, et les erreurs de transcription se propagent dès que la qualité audio ou visuelle est insuffisante. Amazon positionne Nova Multimodal Embeddings comme une rupture avec ce paradigme, en traitant nativement toutes les modalités sans passer par le texte comme pivot. Le modèle s'inscrit dans une compétition directe avec les offres multimodales de Google et OpenAI sur le segment des embeddings haute précision. Amazon met à disposition une implémentation de référence déployable, signalant une volonté de s'imposer rapidement comme infrastructure de référence pour la recherche vidéo à grande échelle.

UELes entreprises et médias européens gérant de grandes bibliothèques vidéo sur AWS peuvent désormais implémenter une recherche sémantique multimodale native sans infrastructure supplémentaire.

OutilsOpinion
1 source
RAG d'entreprise : pourquoi la recherche hybride a triplé face aux limites de passage à l'échelle
4VentureBeat AI 

RAG d'entreprise : pourquoi la recherche hybride a triplé face aux limites de passage à l'échelle

Au premier trimestre 2026, les entreprises ont cessé d'empiler de nouvelles couches techniques dans leurs systèmes de RAG (génération augmentée par récupération) pour se concentrer sur la réparation de celles qu'elles avaient déjà construites. C'est ce que révèlent les données VB Pulse collectées entre janvier et mars auprès d'organisations de plus de 100 employés, avec 45 à 58 répondants qualifiés par mois. Le chiffre le plus frappant : l'intention d'adopter la récupération hybride a triplé en un seul trimestre, passant de 10,3 % à 33,3 %. Parallèlement, les priorités budgétaires se sont inversées : les dépenses consacrées aux tests d'évaluation ont chuté de 32,8 % à 15,6 %, tandis que l'optimisation de la récupération progressait de 19 % à 28,9 %, dépassant pour la première fois l'évaluation comme premier poste d'investissement. Les bases de données vectorielles standalone, Weaviate, Milvus, Pinecone, Qdrant, ont toutes perdu des parts d'adoption, au profit de stacks maison qui atteignent désormais 35,6 % du marché. Ce basculement traduit un problème structurel que les entreprises ayant déployé massivement le RAG en 2025 rencontrent au même stade : l'architecture conçue pour la recherche documentaire simple ne tient pas à l'échelle des agents autonomes. La récupération hybride, qui combine embeddings denses, recherche lexicale sparse et couches de reranking, s'impose comme réponse de consensus car elle offre la précision et le contrôle d'accès que les workloads agentiques exigent en production. Steven Dickens, vice-président chez HyperFRAME Research, résume la situation vécue par les équipes data : gérer simultanément un store vectoriel, une base graphe et un système relationnel pour alimenter un seul agent représente un cauchemar opérationnel. La montée des stacks personnalisés n'est pas un rejet des solutions managées, mais une réponse à la fatigue de fragmentation. Ce tableau d'ensemble comporte pourtant des angles morts importants. Selon les données VB Pulse, 22,2 % des répondants qualifiés déclaraient en mars n'avoir aucun système RAG en production, contre 8,6 % en janvier, un signal que le rapport attribue à des organisations ayant suspendu ou jamais engagé leurs programmes, concentrées dans la santé, l'éducation et le secteur public. Ces secteurs affichent aussi les taux les plus élevés de budgets stagnants. À l'autre extrémité du spectre, certaines entreprises continuent de miser sur l'infrastructure vectorielle dédiée pour des cas d'usage exigeants : la société &AI fait tourner une recherche sémantique sur des centaines de millions de documents de contentieux en propriété intellectuelle, où l'ancrage de chaque résultat dans un document source réel n'est pas facultatif. Le marché du RAG en 2026 n'est donc pas uniforme : il se divise entre ceux qui reconstruisent ce qu'ils ont précipitamment déployé, ceux qui n'ont pas encore commencé, et ceux qui ont trouvé des cas d'usage suffisamment critiques pour justifier une infrastructure de précision.

OutilsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour