Aller au contenu principal
Adobe déploie des agents IA autonomes à grande échelle avec NVIDIA et WPP pour booster la créativité
OutilsNVIDIA AI Blog1h

Adobe déploie des agents IA autonomes à grande échelle avec NVIDIA et WPP pour booster la créativité

1 source couvre ce sujet·Source originale ↗·

Adobe, NVIDIA et WPP ont annoncé un renforcement de leur collaboration stratégique pour déployer des agents IA au cœur des opérations marketing d'entreprise, une annonce faite à l'occasion de l'Adobe Summit, dont la keynote du deuxième jour est prévue le 21 avril 2026. Le dispositif repose sur trois briques complémentaires : les plateformes créatives d'Adobe, dont le nouvel Adobe CX Enterprise Coworker, le runtime sécurisé NVIDIA OpenShell combiné aux modèles ouverts Nemotron et au NVIDIA Agent Toolkit, et l'expertise mondiale de WPP en conseil marketing. Concrètement, ces agents sont capables de générer, adapter et versionner des visuels, du texte et des offres commerciales à travers des millions de combinaisons de produits, d'audiences et de canaux, en quelques minutes plutôt qu'en plusieurs mois.

L'enjeu central de cette collaboration est le contrôle. Quand des agents IA orchestrent des flux de travail en plusieurs étapes, accèdent à des données sensibles et déclenchent des actions automatisées à grande échelle, la question de la gouvernance devient critique pour les grandes entreprises. NVIDIA OpenShell répond à ce problème en faisant tourner chaque agent dans un environnement conteneurisé, isolé et auditable, avec une gestion de politiques vérifiable qui définit précisément ce que l'agent est autorisé à faire, et pas seulement quelles règles sont théoriquement en place. Adobe Firefly Foundry, accéléré par l'infrastructure NVIDIA, permet par ailleurs aux organisations d'entraîner des modèles personnalisés sur leurs propres actifs pour produire du contenu commercialement sûr, aligné sur l'identité de marque.

Cette annonce s'inscrit dans une course industrielle à l'automatisation du marketing de masse personnalisé, portée par la demande explosive d'expériences client sur mesure à travers tous les canaux numériques. Adobe complète son offre avec une solution de jumeaux numériques 3D désormais disponible en général, construite sur les bibliothèques NVIDIA Omniverse et le standard OpenUSD : ces répliques virtuelles de produits servent d'identités persistantes que les agents exploitent pour automatiser la production de contenus haute fidélité dans différents formats et marchés. La convergence entre Adobe, spécialiste du creative cloud et de l'expérience client, NVIDIA, fournisseur d'infrastructure d'accélération et de couches logicielles agentiques, et WPP, premier groupe mondial de communication, dessine un modèle où les grandes marques pourraient déléguer l'essentiel de leur production créative à des systèmes autonomes, tout en conservant un contrôle granulaire sur chaque action déclenchée.

Impact France/UE

WPP, premier groupe mondial de communication avec une forte présence en Europe, est au cœur de ce déploiement, ce qui pourrait accélérer l'adoption d'agents IA dans les agences marketing européennes travaillant sur des campagnes multicanal à grande échelle.

À lire aussi

Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic
1AWS ML Blog 

Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic

Amazon a présenté une architecture complète pour construire des systèmes de commande vocale omnicanaux en s'appuyant sur deux de ses services cloud : Amazon Bedrock AgentCore, une plateforme dédiée au déploiement d'agents IA en production, et Amazon Nova 2 Sonic, un modèle de fondation speech-to-speech disponible via Amazon Bedrock. La solution permet à une application de traiter des commandes vocales en temps réel sur plusieurs points de contact simultanément, application mobile, site web et interface vocale, tout en maintenant le contexte conversationnel entre les échanges. L'infrastructure s'appuie sur AWS CDK pour le déploiement, le protocole MCP (Model Context Protocol) pour connecter l'agent IA aux services métier, et une série de services managés : Amazon Cognito pour l'authentification OAuth 2.0, API Gateway pour exposer les endpoints REST, AWS Lambda pour la logique métier, DynamoDB pour le stockage des profils et commandes, et AWS Location Services pour les recommandations géolocalisées de points de retrait. L'intérêt principal de cette architecture réside dans sa capacité à isoler chaque composant pour les faire évoluer indépendamment. AgentCore Runtime exécute chaque session utilisateur dans une microVM isolée, ce qui garantit qu'un pic de charge sur une session n'affecte pas les autres, un problème classique des systèmes vocaux en production. Le MCP standardise la communication entre l'agent et les services backend, ce qui permet de modifier ou d'étendre la logique métier sans réécrire le code d'intégration. Pour les équipes qui construisent des expériences de commande vocale à grande échelle, restauration rapide, retail, logistique, cette séparation claire entre la couche IA, le frontend et le backend réduit significativement la complexité opérationnelle et les risques de régression lors des mises à jour. La publication de cette solution s'inscrit dans une compétition intense autour des agents IA en production. Google, Microsoft et des acteurs comme Anthropic proposent leurs propres infrastructures agentiques, mais AWS mise sur l'intégration native avec son écosystème de services cloud existants comme différenciateur clé. Nova 2 Sonic, le modèle speech-to-speech au coeur du système, représente l'entrée d'Amazon dans les interfaces vocales conversationnelles en temps réel, un segment où OpenAI s'est imposé avec GPT-4o Voice. En publiant ce tutoriel complet avec une architecture de restaurant fictive comme backend d'exemple, Amazon cherche à accélérer l'adoption par les développeurs et à établir AgentCore comme standard de fait pour le déploiement d'agents IA sur AWS. Les prochaines étapes logiques incluront probablement l'extension à d'autres modalités et l'intégration avec des systèmes de caisse et d'inventaire existants.

OutilsOutil
1 source
LinkedIn présente son agent de mémoire cognitive pour les agents IA
2InfoQ AI 

LinkedIn présente son agent de mémoire cognitive pour les agents IA

LinkedIn a dévoilé le Cognitive Memory Agent (CMA), une couche d'infrastructure d'IA générative destinée à rendre les systèmes d'intelligence artificielle persistants et conscients du contexte dans lequel ils opèrent. Ce framework fournit une mémoire durable organisée en trois couches distinctes : épisodique, qui retient les interactions passées ; sémantique, qui stocke les connaissances générales ; et procédurale, qui encode les comportements appris. Le CMA prend également en charge la coordination entre plusieurs agents, la récupération d'informations et la gestion complète du cycle de vie des mémoires. Cette initiative s'attaque à une limitation fondamentale des grands modèles de langage : leur absence d'état entre les sessions. Sans mémoire externe, chaque interaction repart de zéro, rendant impossible toute personnalisation durable. En déployant le CMA dans ses propres applications, LinkedIn ouvre la voie à des assistants IA capables de se souvenir des préférences professionnelles d'un utilisateur, de ses recherches d'emploi passées ou de ses habitudes de networking, transformant ainsi l'expérience sur une plateforme de plus d'un milliard d'utilisateurs. La mémoire des agents est devenue l'un des chantiers prioritaires de l'industrie, alors que les entreprises cherchent à faire passer leurs systèmes d'IA du mode réactif au mode autonome et continu. OpenAI, Google DeepMind et Anthropic développent des architectures comparables, mais LinkedIn dispose d'un avantage singulier : une base de données professionnelles sans équivalent. Le CMA positionne l'entreprise pour intégrer ces capacités directement dans ses outils de recrutement, de formation et de recommandation, avec des implications profondes sur la façon dont les professionnels interagiront avec l'IA au quotidien.

UELes millions de professionnels français inscrits sur LinkedIn pourraient voir leurs interactions avec les outils de recrutement et de formation de la plateforme profondément transformées par cette couche de mémoire persistante.

OutilsOpinion
1 source
Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée
3Le Big Data 

Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée

Mozilla a officialisé le 16 avril 2026 le lancement de Thunderbolt, une interface d'IA conçue pour un déploiement entièrement auto-hébergé en entreprise. Développé par MZLA Technologies, la filiale responsable de Thunderbird, l'outil se positionne comme un "client d'IA souverain" capable de se connecter à des modèles existants, Claude, Codex, DeepSeek ou tout modèle open source, via des API compatibles OpenAI ou ACP. Il repose sur Haystack, un framework open source reconnu pour la construction de pipelines d'IA modulaires. Thunderbolt est disponible en applications natives sur Windows, macOS, Linux, iOS, Android et en version web, avec le code source React accessible sur GitHub. Un audit de sécurité est actuellement en cours avant une mise en production à grande échelle, et Mozilla encourage déjà les entreprises à explorer des déploiements sur site avec des licences adaptées. L'argument central de Thunderbolt est son architecture entièrement locale : les données restent sur l'infrastructure de l'entreprise, notamment via une base SQLite hors ligne, sans transit vers des services cloud externes. Le système intègre un chiffrement de bout en bout et des contrôles d'accès au niveau des appareils. Pour les organisations soumises au RGPD, aux réglementations sectorielles strictes, santé, finance, défense, ou qui manipulent des données sensibles, c'est un différenciateur décisif face aux offres de Microsoft, Google ou OpenAI qui centralisent tout. Thunderbolt prend en charge les usages devenus standards : chat, recherche, automatisation et workflows multi-appareils, ce qui limite la friction à l'adoption pour des équipes habituées aux outils IA grand public. Ce lancement s'inscrit dans une stratégie plus large que Mozilla a formulée dès novembre 2025 : "faire pour l'IA ce que nous avons fait pour le web", c'est-à-dire construire un écosystème ouvert et décentralisé face aux géants de la Big AI. Mozilla.ai, sa branche dédiée à l'IA open source, soutient en parallèle le développement d'outils et de modèles ouverts. Le pari de Mozilla est celui de l'interopérabilité contre l'enfermement propriétaire, la même philosophie qui a fondé Firefox contre Internet Explorer à l'époque. La demande pour des solutions souveraines ne cesse de croître en Europe notamment, portée par des impératifs réglementaires et une méfiance croissante envers la dépendance aux hyperscalers américains. Thunderbolt arrive donc au bon moment sur un marché B2B où la souveraineté technologique est devenue un critère d'achat à part entière, et non plus un simple argument marketing.

UEThunderbolt offre aux entreprises européennes soumises au RGPD et aux réglementations sectorielles (santé, finance, défense) une solution concrète pour déployer des workflows IA en conservant leurs données sur leur propre infrastructure, sans dépendance aux hyperscalers américains.

💬 Mozilla qui sort l'artillerie lourde sur la souveraineté IA, ça fait plaisir à voir. L'architecture tout-local avec SQLite hors ligne, l'audit sécu avant le lancement, la compatibilité OpenAI API pour brancher ses propres modèles, bon, sur le papier c'est exactement ce que les DSI européens réclamaient. Reste à voir si ça tient face aux besoins réels des grandes boîtes, parce qu'entre une démo GitHub propre et un déploiement santé à 5 000 users, il y a souvent un gouffre.

OutilsOutil
1 source
Algorithmes de recommandation dans l’iGaming : comment les plateformes utilisent les données pour personnaliser le contenu
4Le Big Data 

Algorithmes de recommandation dans l’iGaming : comment les plateformes utilisent les données pour personnaliser le contenu

Les plateformes de jeux en ligne (iGaming) déploient depuis plusieurs années des algorithmes de recommandation sophistiqués pour guider les joueurs vers des jeux, des bonus et des fonctionnalités adaptés à leur profil. Ces systèmes reposent sur trois grandes catégories de données : comportementales (clics, temps de session, navigation), transactionnelles (montants misés, historique des dépôts) et contextuelles (type d'appareil, heure de connexion). À partir de ces signaux, les plateformes construisent des indicateurs individuels, fréquence de jeu, jeux préférés, taille moyenne des mises, qui alimentent des modèles d'apprentissage automatique capables de proposer des suggestions de plus en plus précises au fil du temps. Trois familles d'algorithmes dominent le secteur : le filtrage basé sur le contenu, qui recommande des titres similaires à ceux déjà appréciés ; le filtrage collaboratif, qui s'appuie sur les comportements d'utilisateurs aux profils proches pour introduire de la diversité ; et les systèmes hybrides, qui combinent les deux approches et intègrent parfois des règles manuelles pour mettre en avant des nouveautés ou des promotions actives. L'impact de ces systèmes est direct et mesurable : en réduisant le temps que le joueur passe à chercher un jeu adapté, les plateformes augmentent l'engagement et la rétention. Les utilisateurs voient des recommandations cohérentes avec leurs habitudes dès leur connexion, sans avoir à parcourir un catalogue de plusieurs centaines de titres. Certaines plateformes ont poussé la logique plus loin en adoptant des systèmes adaptatifs en temps réel, capables d'ajuster les suggestions en cours de session selon les signaux immédiats. Cette personnalisation fine génère un avantage concurrentiel significatif, mais elle soulève aussi des questions sur l'équilibre à trouver entre pertinence commerciale et responsabilité vis-à-vis des joueurs, notamment ceux présentant des comportements à risque. Le développement de ces technologies dans l'iGaming suit la trajectoire déjà tracée par le e-commerce et les plateformes de streaming, qui ont démontré depuis longtemps l'efficacité de la recommandation personnalisée pour augmenter le temps passé et les conversions. Pour les opérateurs de jeux en ligne, l'enjeu est double : affiner continuellement leurs modèles pour rester compétitifs face à des marchés très saturés, et gérer la conformité réglementaire dans des juridictions qui encadrent de plus en plus strictement l'usage des données personnelles dans ce secteur. En parallèle, des acteurs externes comme les comparateurs de bonus continuent d'exister en complément, répondant au besoin des joueurs de disposer d'un regard indépendant avant de s'engager sur une plateforme donnée.

UELes opérateurs de jeux en ligne actifs en France sont soumis à la réglementation de l'ANJ et au RGPD, qui encadrent strictement l'usage des données personnelles à des fins de personnalisation comportementale.

OutilsOutil
1 source