Aller au contenu principal
Recherche sémantique vidéo avec Amazon Nova Multimodal Embeddings
OutilsAWS ML Blog55min

Recherche sémantique vidéo avec Amazon Nova Multimodal Embeddings

1 source couvre ce sujet·Source originale ↗·

Amazon a lancé Nova Multimodal Embeddings, un modèle d'embedding unifié disponible sur Amazon Bedrock, capable de traiter simultanément du texte, des images, de la vidéo et de l'audio dans un espace vectoriel sémantique commun. L'objectif est de résoudre un problème concret qui freine l'industrie audiovisuelle : permettre de rechercher dans des vidéos par le sens, et non par des mots-clés exacts. Concrètement, le modèle génère des vecteurs de 1 024 dimensions qui encodent à la fois les signaux visuels et audio d'un segment vidéo, stockés ensuite dans Amazon S3. L'architecture de référence publiée par Amazon combine une phase d'ingestion en six étapes, upload dans S3, découpage en plans via FFmpeg sur AWS Fargate, traitement parallèle avec embeddings visuels/audio, transcription via Amazon Transcribe, et détection de célébrités via Amazon Rekognition, et une phase de recherche hybride qui fusionne recherche sémantique et lexicale pour produire une liste de résultats classés.

L'enjeu est majeur pour tous les secteurs qui gèrent des bibliothèques vidéo volumineuses. Une chaîne sportive peut désormais retrouver instantanément le moment précis où un joueur marque, un studio peut identifier chaque scène d'un acteur dans des milliers d'heures d'archives, et une rédaction peut extraire des images par ambiance, lieu ou événement pour publier plus vite que ses concurrents. Ce qui change fondamentalement, c'est que la recherche n'est plus limitée au dialogue ou aux métadonnées textuelles : une requête comme "une course-poursuite tendue avec des sirènes" retrouve à la fois l'événement visuel et l'événement sonore sans que l'un ou l'autre ait besoin d'être transcrit. La précision de recherche s'améliore donc sur les contenus riches en action, en musique ou en sons d'ambiance, là où les approches textuelles échouaient systématiquement.

L'approche dominante jusqu'ici consistait à convertir toute la vidéo en texte, transcription automatique, sous-titrage, tags manuels, puis à appliquer des embeddings textuels classiques. Cette méthode souffre de deux limites structurelles : la dimension temporelle disparaît dans la conversion, et les erreurs de transcription se propagent dès que la qualité audio ou visuelle est insuffisante. Amazon positionne Nova Multimodal Embeddings comme une rupture avec ce paradigme, en traitant nativement toutes les modalités sans passer par le texte comme pivot. Le modèle s'inscrit dans une compétition directe avec les offres multimodales de Google et OpenAI sur le segment des embeddings haute précision. Amazon met à disposition une implémentation de référence déployable, signalant une volonté de s'imposer rapidement comme infrastructure de référence pour la recherche vidéo à grande échelle.

Impact France/UE

Les entreprises et médias européens gérant de grandes bibliothèques vidéo sur AWS peuvent désormais implémenter une recherche sémantique multimodale native sans infrastructure supplémentaire.

À lire aussi

Optimiser la recherche sémantique vidéo avec la distillation de modèles Amazon Nova sur Amazon Bedrock
1AWS ML Blog 

Optimiser la recherche sémantique vidéo avec la distillation de modèles Amazon Nova sur Amazon Bedrock

Amazon Web Services a publié un tutoriel détaillé expliquant comment utiliser la technique de distillation de modèles sur Amazon Bedrock pour optimiser les systèmes de recherche sémantique vidéo. Le cœur du problème : les modèles de grande taille comme Claude Haiku d'Anthropic offrent une excellente précision pour interpréter l'intention de recherche des utilisateurs, mais ils allongent le temps de réponse à 2 à 4 secondes, représentant à eux seuls 75 % de la latence totale. La solution proposée consiste à transférer l'intelligence de routage d'un grand modèle dit "enseignant", Amazon Nova Premier, vers un modèle beaucoup plus léger dit "étudiant", Amazon Nova Micro. Le résultat : une réduction des coûts d'inférence de plus de 95 % et une baisse de la latence de 50 %, sans sacrifier la qualité de routage. L'enjeu est considérable pour les entreprises qui gèrent de larges catalogues vidéo. Lorsqu'un utilisateur tape "Olivia qui parle de son enfance dans la pauvreté", le système doit décider automatiquement quels aspects de la vidéo interroger en priorité : les métadonnées textuelles, la transcription audio, les données visuelles ou les informations structurées. Cette logique de routage devient rapidement complexe à l'échelle enterprise, où les attributs peuvent inclure les angles de caméra, le sentiment, les droits de diffusion ou des taxonomies métier propriétaires. Un modèle plus petit et distillé qui maîtrise cette tâche précise permet de traiter davantage de requêtes simultanément, à un coût marginal quasi nul, ce qui change fondamentalement l'équation économique des moteurs de recherche multimodaux. La distillation de modèles se distingue du fine-tuning supervisé classique par un avantage pratique majeur : elle ne nécessite pas de dataset entièrement étiqueté par des humains. Amazon Bedrock génère automatiquement jusqu'à 15 000 paires prompt-réponse en interrogeant le modèle enseignant, en appliquant des techniques de synthèse et d'augmentation de données. Dans ce pipeline, 10 000 exemples synthétiques ont été produits via Nova Premier, chargés sur Amazon S3, puis utilisés pour entraîner Nova Micro. Le modèle résultant est ensuite évalué via Amazon Bedrock Model Evaluation, comparé à la base Nova Micro et au Claude Haiku original. AWS a publié l'intégralité du notebook Jupyter, le script de génération des données et les utilitaires d'évaluation sur GitHub, rendant cette approche reproductible pour toute équipe souhaitant industrialiser la recherche vidéo à grande échelle.

OutilsTuto
1 source
Des heures aux minutes : comment les agents IA ont redonné du temps aux marketeurs pour l'essentiel
2AWS ML Blog 

Des heures aux minutes : comment les agents IA ont redonné du temps aux marketeurs pour l'essentiel

L'équipe Technology, AI, and Analytics (TAA) d'AWS Marketing a développé, en partenariat avec la startup Gradial, une solution d'IA agentique capable de réduire le temps de publication d'une page web de quatre heures à environ dix minutes, soit une diminution de plus de 95 %. Déployée sur Amazon Bedrock, cette solution s'appuie sur les modèles Anthropic Claude et Amazon Nova pour orchestrer l'ensemble du workflow de création de contenu : interprétation des briefs en langage naturel, assemblage des composants de page, validation des standards d'accessibilité et de conformité, jusqu'au lancement effectif sur les canaux digitaux. Le système intègre un serveur Model Context Protocol (MCP) pour la validation en temps réel et se connecte directement aux systèmes de gestion de contenu (CMS) d'entreprise. Cette accélération libère les équipes marketing, Digital Marketing Managers et Product Marketing Managers chez AWS, des tâches de coordination et d'assemblage répétitives qui monopolisaient leur temps. Auparavant, la publication d'une seule page nécessitait un appel de lancement, une file d'attente de priorisation, plusieurs allers-retours entre équipes, puis des cycles de révision successifs pour valider les textes, les visuels, les liens et la conformité technique. Un seul problème d'accessibilité sur une image suffisait à relancer un nouveau cycle complet. En automatisant cette orchestration, les équipes peuvent désormais se concentrer sur les tâches à plus forte valeur ajoutée : identifier les problèmes clients, affiner les messages et concevoir des campagnes plus efficaces. Ce projet s'inscrit dans une tendance de fond où les grandes entreprises tech cherchent à industrialiser leurs workflows marketing grâce à l'IA agentique. AWS, qui opère l'une des infrastructures digitales les plus complexes au monde, fait face à des exigences particulièrement élevées en matière de cohérence de marque, d'accessibilité et de conformité réglementaire à grande échelle. Le recours à Gradial, une startup spécialisée dans la modernisation des organisations marketing, illustre la montée en puissance des solutions verticales construites sur des plateformes d'IA fondationnelles comme Bedrock. L'enjeu dépasse AWS : toute organisation publiant du contenu web en volume est confrontée aux mêmes goulots d'étranglement. La généralisation de ce type d'agent autonome capable de piloter des CMS d'entreprise pourrait profondément transformer les métiers du marketing digital, en faisant de la coordination humaine l'exception plutôt que la règle.

OutilsOutil
1 source
Claude Design : la nouvelle arme d’Anthropic pour générer des interfaces et des slides en un clic
3Le Big Data 

Claude Design : la nouvelle arme d’Anthropic pour générer des interfaces et des slides en un clic

Anthropic a lancé le 17 avril 2026 Claude Design, un outil de création visuelle intégré directement à Claude et propulsé par Claude Opus 4.7, le modèle de vision le plus avancé de la société. Disponible en prévisualisation pour les abonnés Pro, Max, Team et Enterprise, l'outil permet de générer des interfaces, des présentations, des maquettes et des pages marketing à partir d'une simple description en langage naturel. L'utilisateur décrit son besoin, Claude produit une première version exploitable, puis des ajustements peuvent être demandés en temps réel, y compris via des curseurs générés automatiquement. Lors de la configuration initiale, Claude Design analyse les ressources visuelles de l'entreprise pour en extraire un système de design interne, couleurs, typographies, composants, garantissant que chaque création reste cohérente avec l'identité de marque. L'accès est inclus dans les abonnements existants sans coût supplémentaire, bien que les entreprises doivent l'activer manuellement depuis les paramètres d'administration avant de pouvoir l'utiliser via claude.ai/design. L'outil s'adresse explicitement à un public bien plus large que les seuls designers. Les chefs de produit peuvent transformer une intuition fonctionnelle en maquette partageable sans toucher à Figma ou PowerPoint ; les équipes marketing peuvent produire des pages de campagne ou des visuels pour les réseaux sociaux sans jongler entre plusieurs logiciels. La collaboration est native : les projets sont partageables au sein d'une organisation avec des niveaux d'accès différenciés, certains membres pouvant consulter, d'autres modifier et interagir directement avec Claude. Cette approche réduit concrètement le temps de cycle entre l'idée et le prototype, supprime les dépendances inter-équipes et diminue le besoin de compétences techniques spécialisées pour produire des livrables visuels professionnels. Claude Design s'inscrit dans une compétition intense autour des outils de génération d'interfaces, où des acteurs comme Vercel avec v0, ou Figma avec ses propres fonctions IA, occupent déjà une place significative. Anthropic choisit ici de capitaliser sur la force de frappe de son modèle phare Opus 4.7, en particulier ses capacités de vision avancées, pour proposer une alternative directement intégrée à l'écosystème Claude déjà adopté en entreprise. La décision de désactiver l'outil par défaut pour les organisations reflète une prudence face aux questions de gouvernance et de contrôle des contenus générés en contexte professionnel. La prochaine étape décisive sera l'évaluation de la qualité et de la cohérence des créations produites dans des conditions réelles d'utilisation, notamment pour des identités de marque complexes ou des interfaces à forte contrainte d'accessibilité.

UELes entreprises européennes abonnées aux plans Pro, Max, Team ou Enterprise peuvent activer Claude Design dès maintenant pour accélérer leurs cycles de création visuelle sans coût supplémentaire.

OutilsOutil
1 source
Claude Design d'Anthropic transforme les conversations en prototypes, présentations et supports marketing
4The Decoder 

Claude Design d'Anthropic transforme les conversations en prototypes, présentations et supports marketing

Anthropic vient de lancer Claude Design, un nouvel outil intégré directement à son assistant Claude, permettant de créer des prototypes interactifs, des présentations, des visuels marketing et des documents synthétiques en dialoguant simplement avec le modèle. Contrairement aux outils de design traditionnels, la création se fait entièrement par conversation : l'utilisateur décrit ce qu'il souhaite, affine itérativement, et Claude génère ou ajuste le résultat en temps réel. L'outil peut ingérer des bases de code existantes, des fichiers de design et des sites web en production pour respecter automatiquement l'identité visuelle d'une marque. Pour les équipes produit, marketing et design, cette annonce représente un raccourci significatif dans le cycle de création. Des tâches qui nécessitaient plusieurs outils spécialisés, Figma pour les maquettes, PowerPoint pour les slides, des développeurs pour les prototypes, pourraient désormais être réalisées dans une seule interface conversationnelle, sans compétences techniques avancées. C'est la promesse d'une accélération concrète du travail créatif, particulièrement pour les petites équipes ou les indépendants. Cette initiative s'inscrit dans une course intense entre les grands laboratoires d'IA pour transformer leurs modèles en environnements de travail complets. OpenAI pousse dans la même direction avec des fonctionnalités similaires dans ChatGPT, tandis que Google intègre Gemini dans sa suite Workspace. Anthropic, qui positionne Claude comme un assistant orienté productivité professionnelle, cherche à démontrer que la qualité de raisonnement de son modèle se traduit aussi en capacités créatives concrètes et utilisables au quotidien.

UELes équipes françaises et européennes peuvent utiliser cet outil directement via Claude, sans impact réglementaire ou institutionnel spécifique à l'UE.

OutilsOutil
1 source