Aller au contenu principal
Amazon Bedrock intègre la mémoire d'entreprise avec Amazon Neptune et Mem0
OutilsAWS ML Blog1h

Amazon Bedrock intègre la mémoire d'entreprise avec Amazon Neptune et Mem0

1 source couvre ce sujet·Source originale ↗·

TrendMicro, l'un des plus grands éditeurs mondiaux de logiciels antivirus, a déployé une architecture de mémoire persistante pour son chatbot d'entreprise Trend's Companion, en collaboration avec les équipes AWS et son Generative AI Innovation Center. Le système repose sur trois piliers technologiques : Amazon Bedrock pour l'orchestration des agents IA, Amazon Neptune pour stocker un graphe de connaissances propre à chaque entreprise cliente, et Mem0 pour gérer à la fois la mémoire conversationnelle à court terme et la mémoire persistante à long terme. Concrètement, lorsqu'un utilisateur envoie un message, le modèle Claude sur Amazon Bedrock extrait automatiquement les entités, relations et éléments mémorisables, qui sont ensuite vectorisés via Amazon Bedrock Titan Text Embed et indexés dans Amazon OpenSearch Service et Neptune. Un mécanisme de réordonnancement via Amazon Bedrock Rerank ou Cohere Rerank garantit que les informations les plus pertinentes remontent en priorité lors de chaque requête.

L'enjeu est de taille pour les chatbots d'entreprise : jusqu'ici, ces systèmes perdaient le fil dès qu'une conversation se terminait, obligeant les utilisateurs à se répéter et rendant impossible toute capitalisation sur les échanges passés. Avec cette architecture, le chatbot peut désormais référencer l'historique des interactions, retrouver des connaissances organisationnelles structurées et adapter ses réponses au contexte spécifique d'une entreprise cliente, sans que l'utilisateur ait besoin de tout réexpliquer. Un mécanisme de validation humaine renforce encore la fiabilité du système : après chaque réponse, l'IA associe ses affirmations aux souvenirs précis sur lesquels elle s'est appuyée, et l'utilisateur peut approuver ou rejeter ces associations. Les mémoires validées restent dans la base de connaissances ; les autres sont supprimées d'OpenSearch et de Neptune. Ce "human-in-the-loop" donne aux entreprises un contrôle direct sur la qualité et la fiabilité du savoir accumulé par leur chatbot.

Cette initiative s'inscrit dans une tendance de fond qui voit les grands éditeurs tech chercher à transformer leurs assistants IA de simples répondeurs en véritables agents dotés de mémoire organisationnelle. TrendMicro fait face à une clientèle d'entreprises qui attendent des outils capables de comprendre leur environnement propre, leurs processus internes et leur historique de support, sans compromettre la sécurité des données. Le choix d'Amazon Neptune comme socle du graphe de connaissances est particulièrement significatif : contrairement à une base vectorielle classique, un graphe permet de modéliser des relations complexes entre entités, offrant une précision structurée que la recherche sémantique seule ne peut pas atteindre. A mesure que les agents IA autonomes se généralisent dans les entreprises, ce type d'architecture hybride, combinant graphe de connaissances, mémoire vectorielle et validation humaine, pourrait s'imposer comme un standard pour tout déploiement IA à l'échelle organisationnelle.

À lire aussi

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail
1The Decoder 

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail

OpenAI déploie une nouvelle fonctionnalité dans ChatGPT baptisée "workspace agents", qui représente une évolution majeure des GPTs personnalisés lancés en 2023. Ces agents, propulsés par Codex, le moteur de programmation d'OpenAI, sont conçus pour automatiser des flux de travail complexes au sein des équipes professionnelles. Contrairement aux interactions classiques avec un chatbot, ces agents peuvent s'exécuter en arrière-plan, sans surveillance humaine active, et enchaîner des tâches sur la durée. L'enjeu est considérable pour les entreprises : il ne s'agit plus de demander une réponse ponctuelle à un assistant IA, mais de déléguer des processus entiers, comme la gestion de rapports, la coordination entre outils ou le traitement de données récurrentes. Ce basculement transforme ChatGPT d'un simple outil conversationnel en véritable plateforme d'automatisation d'équipe, positionnant OpenAI en concurrence directe avec des solutions comme Microsoft Copilot, Notion AI ou encore les agents proposés par Google Workspace. Cette annonce s'inscrit dans une course effrénée à l'agentique, où les grands acteurs de l'IA cherchent à s'ancrer durablement dans les outils de productivité professionnelle. OpenAI a précisé que les GPTs personnalisés existants resteraient disponibles dans l'immédiat, une transition progressive devant être proposée ultérieurement. Le choix de Codex comme moteur sous-jacent suggère une orientation forte vers les tâches techniques et développeur, même si les usages visés dépassent largement ce seul périmètre.

UEL'adoption des workspace agents ChatGPT par les entreprises européennes soulève des enjeux de conformité RGPD, les processus métier et données sensibles étant délégués à une plateforme américaine.

OutilsOutil
1 source
OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
2VentureBeat AI 

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

OutilsOutil
1 source
Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles
3Le Big Data 

Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles

OpenAI a publié le 22 avril 2026 Privacy Filter, son premier modèle open source de l'année, sous licence Apache 2.0. Il s'agit d'un modèle de classification de tokens bidirectionnel, dérivé de GPT-OSS, conçu pour détecter et masquer automatiquement les données personnelles dans des textes non structurés : noms, adresses, numéros d'identification, e-mails, secrets d'API et autres informations identifiables. Avec seulement 1,5 milliard de paramètres, le modèle est suffisamment compact pour tourner en local, y compris directement dans un navigateur. Il supporte une fenêtre de contexte de 128 000 tokens, ce qui lui permet d'analyser des documents longs en une seule passe. Sur le benchmark PII-Masking-300k, il affiche des résultats proches du haut du classement après ajustements des données d'évaluation, et OpenAI précise en utiliser déjà une version optimisée en interne. Ce lancement répond à un besoin concret dans les environnements professionnels où l'IA traite des volumes croissants de données sensibles : logs d'agents, pipelines d'entraînement, systèmes de journalisation. En fonctionnant entièrement en local, Privacy Filter évite d'exposer les données à des serveurs externes, ce qui réduit les risques de fuite et simplifie la conformité réglementaire, notamment face au RGPD. Contrairement aux approches classiques fondées sur des règles fixes, le modèle analyse le contexte linguistique, ce qui améliore la détection des informations implicites ou formulées de manière indirecte. Les développeurs peuvent en outre ajuster les seuils de filtrage pour moduler l'équilibre entre précision et rappel selon leurs cas d'usage, et le modèle est disponible en formats Transformers et ONNX pour une intégration flexible. Ce mouvement s'inscrit dans une tendance plus large : celle des grands laboratoires d'IA qui cherchent à regagner la confiance des entreprises en proposant des outils de gouvernance des données intégrés dès la conception, plutôt qu'ajoutés après coup. OpenAI, longtemps critiqué pour ses pratiques d'utilisation des données d'entraînement, envoie ici un signal à destination des équipes techniques et des directions juridiques qui conditionnent le déploiement de l'IA à des garanties de confidentialité. Le choix de l'open source sous Apache 2.0 facilite aussi l'adoption dans des environnements régulés où les dépendances propriétaires sont problématiques. La société prévient néanmoins que Privacy Filter n'est pas une solution universelle et que ses performances varient selon les langues et les contextes, laissant ouverte la question de son efficacité sur des données très spécifiques ou des formats atypiques.

UELa conformité RGPD est directement facilitée pour les entreprises françaises et européennes : le modèle tourne en local sans envoi de données vers des serveurs externes, simplifiant les obligations de traitement des données personnelles.

OutilsOutil
1 source
Google Meet va aussi prendre des notes IA pour les réunions en présentiel
4The Verge 

Google Meet va aussi prendre des notes IA pour les réunions en présentiel

Google étend les capacités de son assistant IA Gemini aux réunions en présentiel : la fonction de prise de notes automatique, jusqu'ici réservée aux appels Google Meet, peut désormais générer des résumés et des transcriptions lors de réunions physiques, mais aussi lors de visioconférences Zoom et Microsoft Teams. Cette évolution, révélée par 9to5Google, marque une sortie de la phase alpha où la fonctionnalité était uniquement disponible sur Android pour un groupe restreint d'utilisateurs. Elle est désormais accessible plus largement, sans contrainte de salle de réunion ni de rendez-vous planifié à l'avance. L'impact est significatif pour les professionnels qui alternent entre réunions virtuelles et physiques : Gemini devient un assistant de réunion universel, indépendant du support utilisé. La possibilité de capturer automatiquement les échanges lors d'une discussion informelle dans un couloir ou d'une réunion de dernière minute représente un gain de temps concret. Google précise également qu'un participant distant peut rejoindre une réunion en présentiel en basculant vers un appel vidéo classique. Cette annonce s'inscrit dans une course entre les grands acteurs technologiques pour intégrer l'IA dans les flux de travail quotidiens. Microsoft propose des fonctions similaires via Copilot dans Teams, et plusieurs startups comme Otter.ai ou Fireflies.ai ont bâti leur modèle entier sur la transcription de réunions. En élargissant Gemini au-delà de son propre écosystème, Google adopte une stratégie d'ubiquité visant à fidéliser les utilisateurs professionnels quel que soit leur environnement de collaboration.

UELes professionnels européens utilisant Google Workspace peuvent désormais bénéficier de la prise de notes automatique Gemini dans leurs réunions physiques et sur Zoom ou Teams, sans dépendre d'un outil tiers.

OutilsOutil
1 source