Aller au contenu principal
OutilsAWS ML Blog7sem

Utiliser RAG pour la génération vidéo avec Amazon Bedrock et Amazon Nova Reel

Résumé IASource uniqueImpact UE
Source originale ↗·

La génération vidéo par intelligence artificielle franchit un nouveau cap avec l'introduction d'un pipeline Video Retrieval Augmented Generation (VRAG) développé sur les services cloud d'Amazon Web Services. Cette approche combine la récupération d'images pertinentes et la génération vidéo automatisée pour produire des contenus visuels personnalisés à partir de simples descriptions textuelles — surmontant ainsi la principale limite des modèles génératifs actuels, cantonnés à leurs données d'entraînement.

L'enjeu est considérable pour des secteurs entiers. La publicité, la production médiatique, l'éducation et le jeu vidéo peinent aujourd'hui à exploiter la génération vidéo IA faute de contrôle suffisant sur le contenu produit. En ancrant la génération dans une bibliothèque d'images réelles indexées, le pipeline VRAG permet une personnalisation précise, transformant un simple prompt comme "une agence de voyage veut illustrer une destination" en séquences vidéo cohérentes et fidèles à l'univers visuel de la marque.

Techniquement, la solution repose sur quatre composants AWS : Amazon Bedrock comme socle d'orchestration, Amazon Nova Reel pour la génération vidéo, le moteur vectoriel d'Amazon OpenSearch Service pour la recherche sémantique d'images, et Amazon S3 pour le stockage. Le workflow est entièrement automatisé : l'utilisateur fournit un objet d'intérêt (ex. : "ciel bleu") et un prompt d'action (ex. : "la caméra pivote dans le sens horaire"), le système récupère l'image la plus pertinente, génère la vidéo en mode asynchrone, puis stocke et télécharge automatiquement le résultat. Le traitement par lots via un fichier prompts.txt permet de produire plusieurs vidéos en une seule exécution.

Le potentiel applicatif est immédiat : création de vidéos pédagogiques puisant dans une base de connaissances illustrées, spots publicitaires ciblés alignés sur des profils démographiques précis, ou contenus personnalisés adaptés aux centres d'intérêt de chaque utilisateur. Cette approche VRAG représente une évolution structurelle dans la production vidéo assistée par IA, en faisant du contexte documentaire — et non plus du seul modèle — le véritable moteur de la personnalisation.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1AWS ML Blog 

Optimiser la recherche sémantique vidéo avec la distillation de modèles Amazon Nova sur Amazon Bedrock

Amazon Web Services a publié un tutoriel détaillé expliquant comment utiliser la technique de distillation de modèles sur Amazon Bedrock pour optimiser les systèmes de recherche sémantique vidéo. Le cœur du problème : les modèles de grande taille comme Claude Haiku d'Anthropic offrent une excellente précision pour interpréter l'intention de recherche des utilisateurs, mais ils allongent le temps de réponse à 2 à 4 secondes, représentant à eux seuls 75 % de la latence totale. La solution proposée consiste à transférer l'intelligence de routage d'un grand modèle dit "enseignant", Amazon Nova Premier, vers un modèle beaucoup plus léger dit "étudiant", Amazon Nova Micro. Le résultat : une réduction des coûts d'inférence de plus de 95 % et une baisse de la latence de 50 %, sans sacrifier la qualité de routage. L'enjeu est considérable pour les entreprises qui gèrent de larges catalogues vidéo. Lorsqu'un utilisateur tape "Olivia qui parle de son enfance dans la pauvreté", le système doit décider automatiquement quels aspects de la vidéo interroger en priorité : les métadonnées textuelles, la transcription audio, les données visuelles ou les informations structurées. Cette logique de routage devient rapidement complexe à l'échelle enterprise, où les attributs peuvent inclure les angles de caméra, le sentiment, les droits de diffusion ou des taxonomies métier propriétaires. Un modèle plus petit et distillé qui maîtrise cette tâche précise permet de traiter davantage de requêtes simultanément, à un coût marginal quasi nul, ce qui change fondamentalement l'équation économique des moteurs de recherche multimodaux. La distillation de modèles se distingue du fine-tuning supervisé classique par un avantage pratique majeur : elle ne nécessite pas de dataset entièrement étiqueté par des humains. Amazon Bedrock génère automatiquement jusqu'à 15 000 paires prompt-réponse en interrogeant le modèle enseignant, en appliquant des techniques de synthèse et d'augmentation de données. Dans ce pipeline, 10 000 exemples synthétiques ont été produits via Nova Premier, chargés sur Amazon S3, puis utilisés pour entraîner Nova Micro. Le modèle résultant est ensuite évalué via Amazon Bedrock Model Evaluation, comparé à la base Nova Micro et au Claude Haiku original. AWS a publié l'intégralité du notebook Jupyter, le script de génération des données et les utilitaires d'évaluation sur GitHub, rendant cette approche reproductible pour toute équipe souhaitant industrialiser la recherche vidéo à grande échelle.

OutilsTuto
1 source
2AWS ML Blog 

Génération SQL à partir de texte : une approche économique avec Amazon Nova Micro et Bedrock

Amazon Web Services propose une nouvelle approche pour déployer des modèles de langage spécialisés dans la génération de requêtes SQL à partir du langage naturel, en combinant l'optimisation LoRA (Low-Rank Adaptation) avec l'inférence serverless d'Amazon Bedrock. Le modèle ciblé est Amazon Nova Micro, un modèle fondation léger disponible sur Bedrock. La solution a été testée sur un volume de 22 000 requêtes mensuelles pour un coût de seulement 0,80 dollar par mois, contre des dépenses bien supérieures avec une infrastructure hébergée en permanence. Deux chemins d'implémentation distincts sont proposés : l'un via la personnalisation gérée d'Amazon Bedrock, l'autre via des jobs d'entraînement Amazon SageMaker AI pour un contrôle plus fin des hyperparamètres. Les deux options convergent vers le même pipeline de déploiement sur Bedrock en inférence à la demande. Le jeu de données utilisé pour la démonstration est sql-create-context, une combinaison des datasets WikiSQL et Spider comprenant plus de 78 000 exemples de questions en langage naturel associées à des requêtes SQL de complexité variable. L'enjeu principal est économique : les modèles fine-tunés nécessitent traditionnellement une infrastructure dédiée tournant en continu, même en l'absence de trafic, ce qui génère des coûts fixes importants. Le modèle pay-per-token d'Amazon Bedrock élimine ce gaspillage en ne facturant que les tokens réellement traités. Pour les entreprises avec des dialectes SQL maison ou des schémas métier très spécifiques, cette combinaison rend accessible la personnalisation des LLMs sans engager de budget infrastructure significatif. Les équipes techniques gagnent également en simplicité opérationnelle : pas de gestion de serveurs, pas de scaling manuel, pas de surveillance d'infrastructure GPU. La génération SQL par IA est un cas d'usage critique en entreprise, car elle permet à des utilisateurs non-techniques d'interroger des bases de données en langage naturel. Les modèles généralistes gèrent bien le SQL standard, mais échouent sur les dialectes propriétaires ou les schémas complexes propres à chaque organisation. Le fine-tuning résout ce problème, mais introduisait jusqu'ici un compromis coûteux. AWS positionne ici Bedrock comme une infrastructure mutualisée capable d'héberger des adaptateurs LoRA à la demande, une approche qui pourrait devenir un standard pour les déploiements d'IA spécialisée à faible volume. La maturité croissante des outils de personnalisation cloud laisse entrevoir une généralisation de ce modèle économique à d'autres tâches NLP d'entreprise.

UELes entreprises européennes hébergées sur AWS peuvent adopter cette architecture serverless pour réduire leurs coûts de déploiement de modèles SQL spécialisés, Bedrock étant disponible dans les régions EU.

OutilsOutil
1 source
Halliburton améliore la création de workflows sismiques avec Amazon Bedrock et l'IA générative
3AWS ML Blog 

Halliburton améliore la création de workflows sismiques avec Amazon Bedrock et l'IA générative

Halliburton, l'un des plus grands groupes de services pétroliers au monde, a développé en partenariat avec l'AWS Generative AI Innovation Center un assistant intelligent intégré à son logiciel Seismic Engine, une application cloud dédiée au traitement des données sismiques. Concrètement, la configuration d'un workflow de traitement nécessitait jusqu'ici la sélection et le paramétrage manuel d'environ 100 outils spécialisés, un processus long et exigeant une expertise pointue. Désormais, les géoscientifiques et data scientists peuvent décrire leurs besoins en langage naturel, et le système génère automatiquement les workflows exécutables correspondants. La solution repose sur Amazon Bedrock, Amazon Bedrock Knowledge Bases, le modèle Amazon Nova et Amazon DynamoDB. Techniquement, une application FastAPI déployée sur AWS App Runner reçoit les requêtes utilisateurs via une interface en streaming ; un routeur d'intention alimenté par Amazon Nova Lite détermine si la demande concerne la génération d'un workflow ou une question documentaire, puis redirige vers l'agent approprié. Pour la création de workflows, le modèle Claude d'Anthropic, accessible via Amazon Bedrock, sélectionne parmi 82 outils disponibles et produit des fichiers YAML directement exploitables. Les résultats du proof-of-concept font état d'une accélération allant jusqu'à 95 % du temps de création des workflows. Cet outil change fondamentalement le rapport des ingénieurs à un logiciel jusqu'ici réservé aux experts maîtrisant des dizaines de paramètres techniques. En rendant Seismic Engine accessible via une conversation, Halliburton élargit le cercle des utilisateurs capables de configurer des traitements sismiques complexes sans formation approfondie sur chaque outil. Pour l'industrie pétrolière et gazière, où l'interprétation des données de subsurface conditionne directement les décisions d'exploration et les investissements en milliards de dollars, réduire d'un ordre de grandeur le temps consacré à ces tâches représente un gain opérationnel considérable. La gestion du contexte conversationnel via DynamoDB permet en outre des échanges multi-tours, rendant possible l'ajustement itératif des workflows sans repartir de zéro à chaque interaction. Cette initiative s'inscrit dans un mouvement plus large d'adoption de l'IA générative dans les industries à forte intensité de données techniques, où les workflows complexes freinent depuis longtemps la productivité. Halliburton, qui opère dans plus de 70 pays, dispose d'une base d'utilisateurs pour laquelle chaque gain de temps sur l'analyse sismique se traduit directement en avantage concurrentiel. Le choix d'AWS comme partenaire reflète la domination du cloud américain dans les déploiements d'IA en entreprise, Amazon Bedrock servant de couche d'abstraction pour accéder à plusieurs modèles fondateurs, dont ceux d'Anthropic. La prochaine étape probable est le passage de ce proof-of-concept à une intégration production dans la suite Landmark DS365, potentiellement étendue à d'autres modules d'analyse de subsurface.

OutilsOutil
1 source
Hapag-Lloyd utilise Amazon Bedrock pour transformer les retours clients en informations exploitables
4AWS ML Blog 

Hapag-Lloyd utilise Amazon Bedrock pour transformer les retours clients en informations exploitables

Hapag-Lloyd, l'un des leaders mondiaux du transport maritime de conteneurs, a déployé une solution d'analyse automatisée des retours clients basée sur Amazon Bedrock, le service d'IA générative d'AWS. L'armateur allemand, qui exploite une flotte de 313 porte-conteneurs représentant 2,5 millions d'EVP de capacité de transport, emploie environ 14 000 personnes dans son segment de lignes régulières et gère plus de 400 bureaux dans 140 pays. Son équipe d'ingénierie produit, répartie entre Hambourg et Gdańsk, pilote cette initiative dans le cadre d'une ambition plus large de devenir une entreprise dite "AI-native". Le système s'appuie sur Amazon Bedrock, LangChain et LangGraph, ainsi qu'Elasticsearch pour collecter les commentaires clients, en extraire le sentiment, identifier des thèmes récurrents et produire des synthèses exploitables. L'enjeu est d'abord opérationnel : avant cette solution, les chefs de produit exportaient manuellement des fichiers CSV toutes les deux semaines, parcouraient des centaines de commentaires et les catégorisaient à la main, un travail qui pouvait mobiliser plusieurs heures, parfois plusieurs jours, avant chaque réunion de revue produit. Désormais, l'ensemble de ce flux est automatisé, de l'ingestion des données à la production d'insights. Les équipes peuvent ainsi se concentrer sur la stratégie et l'innovation plutôt que sur l'analyse répétitive. Pour une entreprise qui relie plus de 600 ports via 133 lignes régulières mondiales et traite un volume massif d'interactions clients, la capacité à lire rapidement les signaux du terrain constitue un avantage concurrentiel direct sur la qualité de service et la réactivité produit. Cette transformation s'inscrit dans une dynamique plus large de l'industrie du shipping, où la digitalisation s'accélère sous la pression de la concurrence et des attentes croissantes des chargeurs. Hapag-Lloyd a construit sa capacité sur une stack technologique qu'il maîtrise en propre, ce qui lui a permis d'itérer rapidement vers des usages d'IA générative sans dépendance contraignante. Le choix d'Amazon Bedrock est également révélateur : le service donne accès via une API unifiée aux modèles d'Anthropic, Meta, Mistral, DeepSeek et d'autres, avec des garanties de sécurité et de confidentialité adaptées aux exigences d'un groupe coté en bourse. À mesure que d'autres armateurs et acteurs logistiques adoptent des approches similaires, la capacité à transformer le feedback client en décisions produit en temps quasi réel pourrait devenir un standard du secteur plutôt qu'un avantage différenciant.

UEHapag-Lloyd, armateur allemand coté en bourse avec ses équipes à Hambourg et Gdańsk, automatise l'analyse de ses retours clients via Amazon Bedrock, signalant l'accélération de l'IA générative dans la logistique maritime européenne.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour