Aller au contenu principal
Popsa utilise Amazon Nova pour suggérer des titres personnalisés à ses clients
OutilsAWS ML Blog1h

Popsa utilise Amazon Nova pour suggérer des titres personnalisés à ses clients

1 source couvre ce sujet·Source originale ↗·

La société britannique Popsa, spécialisée dans la création automatisée de livres photo et présente dans plus de 50 pays en 12 langues, a refondu en profondeur sa fonctionnalité de suggestion de titres en intégrant les modèles d'Amazon Bedrock. Lancée en 2021, cette fonction génère automatiquement des titres et sous-titres pour la couverture des livres photo à partir des métadonnées des images (horodatage, géolocalisation) et d'une analyse visuelle par réseaux neuronaux convolutifs embarqués sur mobile. Dès juin 2024, l'équipe a identifié l'opportunité d'y injecter de l'IA générative pour dépasser les suggestions rigides issues de règles algorithmiques. La solution déployée combine Amazon Nova Lite, Amazon Nova Pro et Claude 3 Haiku d'Anthropic via l'API unifiée d'Amazon Bedrock, avec une approche de génération augmentée par récupération (RAG). Les contraintes techniques étaient strictes : titres et sous-titres limités à 36 caractères chacun pour s'adapter à la mise en page, catégorie valide parmi une liste prédéfinie pour déclencher l'affichage de l'icône correspondante, et réponse obligatoirement formatée en JSON avec les clés title, subtitle et category. En 2025, le système a produit plus de 5,5 millions de titres personnalisés.

L'impact est concret et mesurable : Popsa enregistre une hausse de la satisfaction client, une amélioration du taux d'engagement et une progression du taux d'achat depuis le déploiement. La qualité des suggestions a augmenté, les coûts d'inférence ont diminué et les temps de réponse ont été réduits. Pour l'utilisateur, la différence est tangible : plutôt que de se contenter d'un générique "Photos France 2024", il reçoit des propositions créatives, personnalisées selon le contenu réel des photos, disponibles dans les 12 langues de l'application. Le tout sans aucune complexité supplémentaire côté interface, conformément à la philosophie fondatrice de Popsa : laisser la technologie faire le travail à la place de l'utilisateur.

Popsa s'appuie sur une culture d'automatisation installée depuis 2016 avec son algorithme PrintAI, capable de concevoir un livre photo à l'aspect professionnel en moins de cinq minutes. Cette évolution vers l'IA générative s'inscrit dans une trajectoire naturelle pour une entreprise dont le modèle repose sur la réduction de la friction créative. Le choix d'Amazon Bedrock comme infrastructure centralisée permet de switcher entre modèles selon les besoins de coût, de vitesse ou de qualité, un avantage décisif pour un produit grand public à fort volume. La construction d'un pipeline d'évaluation rigoureux, avec plus de 100 livres photo de référence et des métriques vérifiables en code, illustre une approche industrielle sérieuse de l'intégration de l'IA générative, loin des expérimentations superficielles qui caractérisent encore beaucoup de déploiements dans le secteur.

Impact France/UE

Les utilisateurs européens et francophones de Popsa bénéficient de suggestions de titres personnalisés dans leur langue, avec une amélioration mesurable de l'expérience produit.

Dans nos dossiers

À lire aussi

Créer des fonctions de récompense efficaces avec AWS Lambda pour personnaliser Amazon Nova
1AWS ML Blog 

Créer des fonctions de récompense efficaces avec AWS Lambda pour personnaliser Amazon Nova

Amazon Web Services propose une méthode concrète pour personnaliser ses modèles de langage Amazon Nova grâce à AWS Lambda comme moteur d'évaluation. L'approche repose sur le Reinforcement Fine-tuning (RFT), une technique d'apprentissage par renforcement qui se distingue du traditionnel Supervised Fine-tuning (SFT) : là où le SFT exige des milliers d'exemples annotés avec des raisonnements détaillés, le RFT apprend à partir de signaux d'évaluation appliqués aux réponses finales du modèle. Concrètement, une fonction Lambda reçoit les réponses générées par Nova lors de l'entraînement, les évalue selon plusieurs critères (exactitude, sécurité, formatage, concision) et retourne un score numérique, généralement compris entre -1 et 1. Les scores élevés renforcent les comportements positifs ; les scores faibles les découragent. Ce cycle se répète des milliers de fois pour affiner progressivement le modèle, avec Amazon CloudWatch qui surveille la distribution des scores en temps réel. L'intérêt de cette architecture est double, technique et économique. Sur le plan technique, elle permet de définir des systèmes de récompense multi-dimensionnels qui capturent des critères de qualité nuancés, réduisant ainsi le risque de "reward hacking", ces situations où un modèle exploite des raccourcis pour maximiser son score sans réellement progresser sur les objectifs visés. Un cas typique serait une réponse de service client qui doit simultanément être précise, empathique, concise et conforme à l'identité de la marque : autant de critères difficiles à couvrir avec des exemples annotés. Sur le plan économique, Lambda s'adapte automatiquement à la charge d'entraînement sans qu'une équipe ait à gérer une infrastructure dédiée, rendant la personnalisation de modèles fondamentaux accessible à des développeurs sans expertise approfondie en machine learning. Cette publication s'inscrit dans une concurrence intense entre les grands fournisseurs cloud pour démocratiser la personnalisation des grands modèles de langage. Google, Microsoft et AWS se disputent les entreprises qui souhaitent adapter des modèles fondamentaux à leurs cas d'usage métier sans repartir de zéro. Amazon Nova, lancé fin 2024, représente l'offensive d'AWS sur ce marché avec une gamme de modèles positionnés sur le rapport performance/coût. En proposant une intégration native entre RFT, Lambda et CloudWatch, AWS cherche à réduire la friction technique qui freine encore l'adoption en entreprise. Deux variantes coexistent selon les besoins : RLVR (Reinforcement Learning via Verifiable Rewards) pour les tâches à réponses objectivement vérifiables comme du code ou des calculs, et RLAIF (Reinforcement Learning via AI Feedback) pour des évaluations plus subjectives. Les prochaines étapes logiques seront l'extension de ces outils à d'autres modèles Nova et une intégration plus poussée avec les pipelines MLOps existants sur AWS.

OutilsOutil
1 source
Personnaliser l'expérience spectateur avec un assistant cinéma IA à base d'agents — Amazon Bedrock AgentCore et Nova Sonic 2.0
2AWS ML Blog 

Personnaliser l'expérience spectateur avec un assistant cinéma IA à base d'agents — Amazon Bedrock AgentCore et Nova Sonic 2.0

Amazon a dévoilé une architecture d'assistant IA conversationnel pour les plateformes de streaming vidéo, combinant Amazon Bedrock AgentCore et le nouveau modèle vocal Amazon Nova Sonic 2.0. Le système permet deux cas d'usage principaux : des recommandations de films personnalisées en temps réel selon l'humeur et le contexte de l'utilisateur, et une assistance contextuelle en cours de visionnage — permettant par exemple de demander à voix haute « qui est cet acteur ? » ou « résume ce qui vient de se passer » sans quitter le film. L'infrastructure repose sur AWS Fargate pour le traitement serveur, Amazon CloudFront et S3 pour le frontend, Amazon Cognito pour l'authentification, et OpenSearch combiné à S3 Vector pour la recherche sémantique. La communication entre le client et le serveur s'effectue via WebSocket avec validation de token JWT, tandis que le modèle vocal Nova Sonic 2.0 gère le streaming bidirectionnel en temps réel via un protocole RPC Smithy. Ce type de système représente un changement de paradigme pour les services de streaming : là où les moteurs de recommandation classiques — basés sur le filtrage collaboratif ou par contenu — se contentent de prolonger les habitudes passées, l'approche agentique intègre le contexte immédiat. Un utilisateur qui vient de regarder « Les Évadés » et veut se détendre ne se verra pas proposer un autre drame carcéral, mais quelque chose d'adapté à son état d'esprit exprimé en langage naturel. Pour les plateformes, cela ouvre la voie à une réduction du taux de désabonnement lié à la friction de découverte, l'une des principales causes d'attrition dans le secteur. Pour les utilisateurs, c'est l'équivalent d'un programmateur culturel personnel disponible en permanence. Le projet s'inscrit dans la montée en puissance des architectures dites « agentiques », où les modèles de langage ne se contentent plus de répondre à des requêtes isolées mais orchestrent des chaînes d'outils complexes. Amazon positionne ici son écosystème — Bedrock AgentCore, le protocole MCP (Model Context Protocol) pour exposer des fonctions Lambda comme outils d'agent, et Nova Sonic pour la voix — comme une pile verticale intégrée pour ce type d'application. C'est une réponse directe aux initiatives similaires de Google (avec Gemini Live) et d'OpenAI (avec les capacités vocales temps réel de GPT-4o). Le code source de la démonstration est disponible sur GitHub, signalant une stratégie d'adoption par les développeurs avant un déploiement commercial plus large. La bataille pour devenir l'infrastructure standard des expériences média augmentées par l'IA ne fait que commencer.

UELes plateformes de streaming européennes disposant d'une infrastructure AWS peuvent expérimenter cette architecture, mais aucune adoption ou réglementation spécifique à la France ou à l'UE n'est mentionnée.

OutilsOutil
1 source
Amazon Nova 2 Sonic : créer des podcasts conversationnels en temps réel
3AWS ML Blog 

Amazon Nova 2 Sonic : créer des podcasts conversationnels en temps réel

Amazon a lancé Nova Sonic 2, un modèle de compréhension et de génération vocale intégré à sa plateforme Bedrock, capable de produire des conversations audio naturelles en temps réel avec une latence très faible. Le modèle prend en charge sept langues dont le français, l'allemand, l'espagnol et l'hindi, et dispose d'une fenêtre de contexte pouvant atteindre un million de tokens. Nova Sonic 2 offre une API de streaming pour les conversations multi-tours, avec des capacités d'instruction complexe, d'appel d'outils externes et de bascule fluide entre voix et texte. Amazon illustre ses usages avec un générateur de podcasts automatisé : deux hôtes IA conversent en temps réel sur n'importe quel sujet, sans intervention humaine, depuis la recherche jusqu'à la diffusion audio finale. L'enjeu est direct pour les créateurs de contenu et les organisations médias. Produire un podcast traditionnel mobilise studio, matériel, talents vocaux, montage et coordination de planning, des contraintes qui limitent la cadence de publication et le volume de sujets couverts. Nova Sonic 2 supprime la plupart de ces frictions : pas de conflits d'agenda, pas d'irrégularités liées à la disponibilité humaine, et une personnalisation potentielle en temps réel selon le profil de l'auditeur. Pour les entreprises qui cherchent à déployer du contenu audio à grande échelle, formation interne, support client vocal, newsletters audio, le rapport coût-performance revendiqué par Amazon représente un changement structurel dans l'économie de la production audio. Le marché du podcast a connu une croissance explosive ces dernières années, porté par son avantage d'accessibilité unique : il se consomme en faisant autre chose, là où le contenu visuel exige l'attention totale. Plusieurs acteurs technologiques cherchent à capter cette dynamique avec de l'IA générative vocale. OpenAI avec ses voix dans ChatGPT, Google avec NotebookLM Audio Overviews, qui génère déjà des podcasts synthétiques à partir de documents, et ElevenLabs avec ses outils de clonage vocal se positionnent sur ce segment. Amazon entre dans la compétition avec l'avantage de l'intégration native à Bedrock, ses Guardrails de sécurité, ses Agents et ses bases de connaissances, ce qui facilite l'adoption en entreprise. La prochaine étape logique sera la personnalisation dynamique du contenu par auditeur, un terrain encore peu défriché mais que Nova Sonic 2, avec sa fenêtre de contexte d'un million de tokens, semble techniquement en mesure d'adresser.

UELe support natif du français et l'intégration à AWS Bedrock facilitent l'adoption par les médias et entreprises européennes souhaitant automatiser leur production audio.

OutilsOpinion
1 source
OpenAI dévoile Workspace Agents, successeur des GPTs personnalisés pour entreprises, intégrable à Slack, Salesforce et d'autres services
4VentureBeat AI 

OpenAI dévoile Workspace Agents, successeur des GPTs personnalisés pour entreprises, intégrable à Slack, Salesforce et d'autres services

OpenAI a lancé ce jeudi une nouvelle offre baptisée « Workspace Agents », destinée aux entreprises utilisant ChatGPT dans un cadre professionnel. Disponible dès maintenant pour les abonnés ChatGPT Business à 20 dollars par utilisateur par mois, ainsi que pour les plans Enterprise, Edu et Teachers, cette fonctionnalité permet de créer ou de sélectionner des agents depuis une bibliothèque de modèles préconfigurés, capables d'agir directement dans des outils tiers comme Slack, Google Drive, Salesforce, Notion, Microsoft 365, Atlassian Rovo et d'autres applications courantes en entreprise. Concrètement, un agent peut rédiger un email à toute une équipe, extraire des données pour générer une présentation, ou exécuter des tâches complexes en plusieurs étapes, sans que l'utilisateur à l'origine de la demande ait besoin de rester connecté. OpenAI précise que la fonctionnalité sera gratuite jusqu'au 6 mai 2026, date à laquelle une tarification basée sur des crédits entrera en vigueur. De nouvelles capacités sont annoncées : déclencheurs automatiques, tableaux de bord avancés, et intégration dans Codex, l'outil de génération de code de l'entreprise. L'enjeu principal n'est pas simplement d'avoir des assistants IA plus puissants, mais de transformer l'IA en ressource organisationnelle partagée plutôt qu'en outil de productivité individuelle. L'onglet « Agents » dans la barre latérale de ChatGPT fonctionne comme un annuaire d'équipe : les agents créés par des collègues sont accessibles et réutilisables par toute l'organisation. Ce modèle s'attaque directement à l'un des problèmes chroniques du travail en entreprise, la transmission entre personnes, systèmes et étapes d'un processus, en permettant à un agent de gérer cette complexité de bout en bout. Pour les directions informatiques et les responsables métiers, cela représente un nouveau paradigme de déploiement de l'IA : non plus des outils ponctuels, mais des workflows autonomes pilotés par des agents paramétrés selon des règles et des permissions définies par l'entreprise. La différence technique fondamentale avec les anciens « custom GPTs » réside dans l'architecture sous-jacente : ces agents sont propulsés par Codex, la plateforme cloud de développement assisté par IA qu'OpenAI a considérablement enrichie en 2026, notamment il y a six jours à peine avec l'ajout de plus de 90 plugins, de la mémoire persistante, de l'utilisation d'ordinateur en arrière-plan et de la capacité à planifier des tâches futures. Un agent Workspace n'est donc pas un simple modèle de langage qui répond à une invite : c'est une session Codex qui écrit du code, exécute des requêtes, produit des graphiques et retient ce qu'elle a appris pour la prochaine occurrence. Cette architecture d'exécution de code est ce qui distingue ces agents des solutions concurrentes reposant sur des boucles d'appels LLM classiques. À mesure qu'OpenAI annonce de nouveaux déclencheurs et une intégration plus profonde dans son écosystème, la concurrence avec Microsoft Copilot, Google Workspace AI et les plateformes d'agents comme Salesforce Agentforce s'intensifie sur le terrain stratégique des grandes entreprises.

UELes entreprises françaises et européennes abonnées à ChatGPT Business peuvent tester gratuitement ces agents intégrés à Slack, Notion, Microsoft 365 et Salesforce avant l'entrée en vigueur de la tarification le 6 mai 2026.

OutilsOutil
1 source