Aller au contenu principal
LinkedIn présente son agent de mémoire cognitive pour les agents IA
OutilsInfoQ AI58min

LinkedIn présente son agent de mémoire cognitive pour les agents IA

1 source couvre ce sujet·Source originale ↗·

LinkedIn a dévoilé le Cognitive Memory Agent (CMA), une couche d'infrastructure d'IA générative destinée à rendre les systèmes d'intelligence artificielle persistants et conscients du contexte dans lequel ils opèrent. Ce framework fournit une mémoire durable organisée en trois couches distinctes : épisodique, qui retient les interactions passées ; sémantique, qui stocke les connaissances générales ; et procédurale, qui encode les comportements appris. Le CMA prend également en charge la coordination entre plusieurs agents, la récupération d'informations et la gestion complète du cycle de vie des mémoires.

Cette initiative s'attaque à une limitation fondamentale des grands modèles de langage : leur absence d'état entre les sessions. Sans mémoire externe, chaque interaction repart de zéro, rendant impossible toute personnalisation durable. En déployant le CMA dans ses propres applications, LinkedIn ouvre la voie à des assistants IA capables de se souvenir des préférences professionnelles d'un utilisateur, de ses recherches d'emploi passées ou de ses habitudes de networking, transformant ainsi l'expérience sur une plateforme de plus d'un milliard d'utilisateurs.

La mémoire des agents est devenue l'un des chantiers prioritaires de l'industrie, alors que les entreprises cherchent à faire passer leurs systèmes d'IA du mode réactif au mode autonome et continu. OpenAI, Google DeepMind et Anthropic développent des architectures comparables, mais LinkedIn dispose d'un avantage singulier : une base de données professionnelles sans équivalent. Le CMA positionne l'entreprise pour intégrer ces capacités directement dans ses outils de recrutement, de formation et de recommandation, avec des implications profondes sur la façon dont les professionnels interagiront avec l'IA au quotidien.

Impact France/UE

Les millions de professionnels français inscrits sur LinkedIn pourraient voir leurs interactions avec les outils de recrutement et de formation de la plateforme profondément transformées par cette couche de mémoire persistante.

À lire aussi

Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic
1AWS ML Blog 

Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic

Amazon a présenté une architecture complète pour construire des systèmes de commande vocale omnicanaux en s'appuyant sur deux de ses services cloud : Amazon Bedrock AgentCore, une plateforme dédiée au déploiement d'agents IA en production, et Amazon Nova 2 Sonic, un modèle de fondation speech-to-speech disponible via Amazon Bedrock. La solution permet à une application de traiter des commandes vocales en temps réel sur plusieurs points de contact simultanément, application mobile, site web et interface vocale, tout en maintenant le contexte conversationnel entre les échanges. L'infrastructure s'appuie sur AWS CDK pour le déploiement, le protocole MCP (Model Context Protocol) pour connecter l'agent IA aux services métier, et une série de services managés : Amazon Cognito pour l'authentification OAuth 2.0, API Gateway pour exposer les endpoints REST, AWS Lambda pour la logique métier, DynamoDB pour le stockage des profils et commandes, et AWS Location Services pour les recommandations géolocalisées de points de retrait. L'intérêt principal de cette architecture réside dans sa capacité à isoler chaque composant pour les faire évoluer indépendamment. AgentCore Runtime exécute chaque session utilisateur dans une microVM isolée, ce qui garantit qu'un pic de charge sur une session n'affecte pas les autres, un problème classique des systèmes vocaux en production. Le MCP standardise la communication entre l'agent et les services backend, ce qui permet de modifier ou d'étendre la logique métier sans réécrire le code d'intégration. Pour les équipes qui construisent des expériences de commande vocale à grande échelle, restauration rapide, retail, logistique, cette séparation claire entre la couche IA, le frontend et le backend réduit significativement la complexité opérationnelle et les risques de régression lors des mises à jour. La publication de cette solution s'inscrit dans une compétition intense autour des agents IA en production. Google, Microsoft et des acteurs comme Anthropic proposent leurs propres infrastructures agentiques, mais AWS mise sur l'intégration native avec son écosystème de services cloud existants comme différenciateur clé. Nova 2 Sonic, le modèle speech-to-speech au coeur du système, représente l'entrée d'Amazon dans les interfaces vocales conversationnelles en temps réel, un segment où OpenAI s'est imposé avec GPT-4o Voice. En publiant ce tutoriel complet avec une architecture de restaurant fictive comme backend d'exemple, Amazon cherche à accélérer l'adoption par les développeurs et à établir AgentCore comme standard de fait pour le déploiement d'agents IA sur AWS. Les prochaines étapes logiques incluront probablement l'extension à d'autres modalités et l'intégration avec des systèmes de caisse et d'inventaire existants.

OutilsOutil
1 source
Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée
2Le Big Data 

Thunderbolt de Mozilla : vers une IA d’entreprise 100 % auto-hébergée et privée

Mozilla a officialisé le 16 avril 2026 le lancement de Thunderbolt, une interface d'IA conçue pour un déploiement entièrement auto-hébergé en entreprise. Développé par MZLA Technologies, la filiale responsable de Thunderbird, l'outil se positionne comme un "client d'IA souverain" capable de se connecter à des modèles existants, Claude, Codex, DeepSeek ou tout modèle open source, via des API compatibles OpenAI ou ACP. Il repose sur Haystack, un framework open source reconnu pour la construction de pipelines d'IA modulaires. Thunderbolt est disponible en applications natives sur Windows, macOS, Linux, iOS, Android et en version web, avec le code source React accessible sur GitHub. Un audit de sécurité est actuellement en cours avant une mise en production à grande échelle, et Mozilla encourage déjà les entreprises à explorer des déploiements sur site avec des licences adaptées. L'argument central de Thunderbolt est son architecture entièrement locale : les données restent sur l'infrastructure de l'entreprise, notamment via une base SQLite hors ligne, sans transit vers des services cloud externes. Le système intègre un chiffrement de bout en bout et des contrôles d'accès au niveau des appareils. Pour les organisations soumises au RGPD, aux réglementations sectorielles strictes, santé, finance, défense, ou qui manipulent des données sensibles, c'est un différenciateur décisif face aux offres de Microsoft, Google ou OpenAI qui centralisent tout. Thunderbolt prend en charge les usages devenus standards : chat, recherche, automatisation et workflows multi-appareils, ce qui limite la friction à l'adoption pour des équipes habituées aux outils IA grand public. Ce lancement s'inscrit dans une stratégie plus large que Mozilla a formulée dès novembre 2025 : "faire pour l'IA ce que nous avons fait pour le web", c'est-à-dire construire un écosystème ouvert et décentralisé face aux géants de la Big AI. Mozilla.ai, sa branche dédiée à l'IA open source, soutient en parallèle le développement d'outils et de modèles ouverts. Le pari de Mozilla est celui de l'interopérabilité contre l'enfermement propriétaire, la même philosophie qui a fondé Firefox contre Internet Explorer à l'époque. La demande pour des solutions souveraines ne cesse de croître en Europe notamment, portée par des impératifs réglementaires et une méfiance croissante envers la dépendance aux hyperscalers américains. Thunderbolt arrive donc au bon moment sur un marché B2B où la souveraineté technologique est devenue un critère d'achat à part entière, et non plus un simple argument marketing.

UEThunderbolt offre aux entreprises européennes soumises au RGPD et aux réglementations sectorielles (santé, finance, défense) une solution concrète pour déployer des workflows IA en conservant leurs données sur leur propre infrastructure, sans dépendance aux hyperscalers américains.

💬 Mozilla qui sort l'artillerie lourde sur la souveraineté IA, ça fait plaisir à voir. L'architecture tout-local avec SQLite hors ligne, l'audit sécu avant le lancement, la compatibilité OpenAI API pour brancher ses propres modèles, bon, sur le papier c'est exactement ce que les DSI européens réclamaient. Reste à voir si ça tient face aux besoins réels des grandes boîtes, parce qu'entre une démo GitHub propre et un déploiement santé à 5 000 users, il y a souvent un gouffre.

OutilsOutil
1 source
Algorithmes de recommandation dans l’iGaming : comment les plateformes utilisent les données pour personnaliser le contenu
3Le Big Data 

Algorithmes de recommandation dans l’iGaming : comment les plateformes utilisent les données pour personnaliser le contenu

Les plateformes de jeux en ligne (iGaming) déploient depuis plusieurs années des algorithmes de recommandation sophistiqués pour guider les joueurs vers des jeux, des bonus et des fonctionnalités adaptés à leur profil. Ces systèmes reposent sur trois grandes catégories de données : comportementales (clics, temps de session, navigation), transactionnelles (montants misés, historique des dépôts) et contextuelles (type d'appareil, heure de connexion). À partir de ces signaux, les plateformes construisent des indicateurs individuels, fréquence de jeu, jeux préférés, taille moyenne des mises, qui alimentent des modèles d'apprentissage automatique capables de proposer des suggestions de plus en plus précises au fil du temps. Trois familles d'algorithmes dominent le secteur : le filtrage basé sur le contenu, qui recommande des titres similaires à ceux déjà appréciés ; le filtrage collaboratif, qui s'appuie sur les comportements d'utilisateurs aux profils proches pour introduire de la diversité ; et les systèmes hybrides, qui combinent les deux approches et intègrent parfois des règles manuelles pour mettre en avant des nouveautés ou des promotions actives. L'impact de ces systèmes est direct et mesurable : en réduisant le temps que le joueur passe à chercher un jeu adapté, les plateformes augmentent l'engagement et la rétention. Les utilisateurs voient des recommandations cohérentes avec leurs habitudes dès leur connexion, sans avoir à parcourir un catalogue de plusieurs centaines de titres. Certaines plateformes ont poussé la logique plus loin en adoptant des systèmes adaptatifs en temps réel, capables d'ajuster les suggestions en cours de session selon les signaux immédiats. Cette personnalisation fine génère un avantage concurrentiel significatif, mais elle soulève aussi des questions sur l'équilibre à trouver entre pertinence commerciale et responsabilité vis-à-vis des joueurs, notamment ceux présentant des comportements à risque. Le développement de ces technologies dans l'iGaming suit la trajectoire déjà tracée par le e-commerce et les plateformes de streaming, qui ont démontré depuis longtemps l'efficacité de la recommandation personnalisée pour augmenter le temps passé et les conversions. Pour les opérateurs de jeux en ligne, l'enjeu est double : affiner continuellement leurs modèles pour rester compétitifs face à des marchés très saturés, et gérer la conformité réglementaire dans des juridictions qui encadrent de plus en plus strictement l'usage des données personnelles dans ce secteur. En parallèle, des acteurs externes comme les comparateurs de bonus continuent d'exister en complément, répondant au besoin des joueurs de disposer d'un regard indépendant avant de s'engager sur une plateforme donnée.

UELes opérateurs de jeux en ligne actifs en France sont soumis à la réglementation de l'ANJ et au RGPD, qui encadrent strictement l'usage des données personnelles à des fins de personnalisation comportementale.

OutilsOutil
1 source
Bobyard 2.0 améliore les métrés et unifie l'IA pour les estimateurs
4AI News 

Bobyard 2.0 améliore les métrés et unifie l'IA pour les estimateurs

Bobyard a lancé le 8 avril 2026 la version 2.0 de sa plateforme d'estimation dédiée aux secteurs de la construction et du paysagisme. Cette mise à jour majeure introduit un ensemble de fonctionnalités pensées pour accélérer les "takeoffs", soit le processus de quantification des matériaux nécessaires à un chantier. Parmi les nouveautés phares : la fonction Multi-Measure, qui permet de calculer simultanément surface, périmètre et volume à partir d'un seul tracé, sans avoir à redessiner des formes distinctes. Un AI Workbench centralise désormais tous les outils d'intelligence artificielle de la plateforme, avec une option Review Workflow qui permet aux estimateurs de valider ou d'ajuster les sorties de l'IA avant de les intégrer à leur devis. La Legend Manager offre un espace dédié à la création de légendes de symboles, tandis que Text Count convertit automatiquement les libellés présents dans les plans en mesures de comptage. Côté estimation finale, l'import de prix et d'assemblages dans l'Estimate Table a été simplifié pour permettre de passer du takeoff à un devis prêt à l'emploi sans exporter vers Excel. Bobyard 2.0 est disponible pour les paysagistes depuis le 8 avril, et sera étendu aux autres corps de métier fin avril. L'impact pour les professionnels du secteur est concret et chiffré. Selon l'entreprise, sa plateforme automatise jusqu'à 70 % du processus de quantification, et les entrepreneurs utilisant Bobyard déclarent en moyenne une réduction de 65 % de leur temps de takeoff. Plus significatif encore : les estimateurs soumettent trois à cinq fois plus d'offres, avec une meilleure précision et des taux de conversion en hausse. Pour un secteur où les erreurs de chiffrage peuvent se transformer en pertes financières importantes en cours de chantier, réduire le temps de saisie manuelle tout en améliorant la fiabilité représente un avantage concurrentiel direct. Marty Grunder, fondateur de Grunder Landscaping, a confirmé une réduction de moitié du temps de takeoff sur des chantiers réels. Bobyard a levé 35 millions de dollars en Serie A l'année dernière, un tour mené par 8VC avec la participation de Pear VC et Caffeinated Capital. Ce financement a clairement alimenté le développement de cette version 2.0, qui positionne la startup comme un acteur sérieux dans la digitalisation de l'estimation en BTP. Le secteur de la construction, historiquement peu automatisé côté back-office, fait face à une pression croissante sur les marges et les délais, ce qui rend les outils de productivité basés sur l'IA particulièrement attractifs. Michael Ding, fondateur et CEO de Bobyard, a indiqué que cette version n'est "que le début", laissant entrevoir de futures évolutions. La montée en puissance de solutions verticales d'IA dans la construction, à l'image de Bobyard, PlanSwift ou Buildxact, dessine un marché en rapide consolidation où la vitesse d'exécution devient l'argument central.

OutilsOutil
1 source