Aller au contenu principal
OpenAI lance Privacy Filter, un modèle open source d'anonymisation des données personnelles
OutilsMarkTechPost1h

OpenAI lance Privacy Filter, un modèle open source d'anonymisation des données personnelles

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a discrètement publié sur Hugging Face un modèle open source baptisé Privacy Filter, sous licence Apache 2.0, conçu spécifiquement pour détecter et supprimer automatiquement les données personnelles (PII) dans des textes. Le modèle est suffisamment léger pour tourner directement dans un navigateur web ou sur un ordinateur portable, tout en étant assez rapide pour des pipelines de traitement à haut débit. Il reconnaît huit catégories de données sensibles : numéros de compte, adresses privées, e-mails, noms de personnes, numéros de téléphone, URLs, dates privées et secrets. Cette dernière catégorie couvre les tokens d'authentification, les mots de passe et les chaînes à haute entropie. OpenAI reconnaît dans la fiche du modèle deux limites connues : la détection manquée de formats de credentials inédits et de secrets fragmentés sur plusieurs tokens.

Ce qui rend Privacy Filter techniquement remarquable, c'est l'écart entre ses 1,5 milliard de paramètres totaux et ses seulement 50 millions de paramètres actifs à l'inférence, soit un rapport de 1 à 30. Cet écart s'explique par une architecture sparse mixture-of-experts (MoE) : pour chaque token traité, seuls 4 experts parmi 128 sont activés, les autres restant dormants. Le modèle repose sur 8 blocs transformer avec un residual stream de largeur 640, une attention groupée (GQA) avec embeddings positionnels rotatifs (RoPE), et bénéficie d'une fenêtre de contexte de 128 000 tokens. Son entraînement s'est déroulé en trois phases distinctes : préentraînement autorégressif classique style GPT, puis conversion architecturale avec remplacement de la tête de prédiction par une tête de classification et activation d'une attention bidirectionnelle (fenêtre locale de 257 tokens), et enfin fine-tuning supervisé sur des données PII étiquetées.

La publication de Privacy Filter intervient dans un contexte où les équipes techniques cherchent à intégrer des outils d'IA dans leurs pipelines de données sans envoyer d'informations sensibles vers des APIs tierces. Ce modèle s'inscrit directement dans cette tendance des outils IA déployables en local, sur du matériel standard, sans dépendance cloud. Pour les organisations soumises au RGPD ou à des contraintes de conformité strictes, la capacité à nettoyer automatiquement des logs, des datasets ou du contenu utilisateur avant stockage représente un gain opérationnel concret. OpenAI positionne ainsi Privacy Filter comme une brique d'infrastructure réutilisable, et son architecture MoE issue de la même famille que gpt-oss laisse entrevoir une stratégie de réutilisation de checkpoints préentraînés pour des tâches spécialisées, une approche plus économique que de repartir de zéro pour chaque cas d'usage.

Impact France/UE

Les équipes techniques soumises au RGPD disposent d'un outil local gratuit pour anonymiser automatiquement les données personnelles sans les envoyer vers des APIs tierces.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
1VentureBeat AI 

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

💬 C'est exactement le verrou qui bloquait l'adoption en entreprise depuis deux ans. Un modèle léger, déployable en local, qui filtre les données personnelles avant d'envoyer vers le cloud : sur le papier, c'est le genre de brique qu'on attendait. Et distribuer ça sous Apache 2.0, c'est malin : si ton pipeline s'appuie sur leurs outils gratuits, tu vas finir par appeler leurs modèles payants derrière.

OutilsOutil
1 source
Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles
2Le Big Data 

Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles

OpenAI a publié le 22 avril 2026 Privacy Filter, son premier modèle open source de l'année, sous licence Apache 2.0. Il s'agit d'un modèle de classification de tokens bidirectionnel, dérivé de GPT-OSS, conçu pour détecter et masquer automatiquement les données personnelles dans des textes non structurés : noms, adresses, numéros d'identification, e-mails, secrets d'API et autres informations identifiables. Avec seulement 1,5 milliard de paramètres, le modèle est suffisamment compact pour tourner en local, y compris directement dans un navigateur. Il supporte une fenêtre de contexte de 128 000 tokens, ce qui lui permet d'analyser des documents longs en une seule passe. Sur le benchmark PII-Masking-300k, il affiche des résultats proches du haut du classement après ajustements des données d'évaluation, et OpenAI précise en utiliser déjà une version optimisée en interne. Ce lancement répond à un besoin concret dans les environnements professionnels où l'IA traite des volumes croissants de données sensibles : logs d'agents, pipelines d'entraînement, systèmes de journalisation. En fonctionnant entièrement en local, Privacy Filter évite d'exposer les données à des serveurs externes, ce qui réduit les risques de fuite et simplifie la conformité réglementaire, notamment face au RGPD. Contrairement aux approches classiques fondées sur des règles fixes, le modèle analyse le contexte linguistique, ce qui améliore la détection des informations implicites ou formulées de manière indirecte. Les développeurs peuvent en outre ajuster les seuils de filtrage pour moduler l'équilibre entre précision et rappel selon leurs cas d'usage, et le modèle est disponible en formats Transformers et ONNX pour une intégration flexible. Ce mouvement s'inscrit dans une tendance plus large : celle des grands laboratoires d'IA qui cherchent à regagner la confiance des entreprises en proposant des outils de gouvernance des données intégrés dès la conception, plutôt qu'ajoutés après coup. OpenAI, longtemps critiqué pour ses pratiques d'utilisation des données d'entraînement, envoie ici un signal à destination des équipes techniques et des directions juridiques qui conditionnent le déploiement de l'IA à des garanties de confidentialité. Le choix de l'open source sous Apache 2.0 facilite aussi l'adoption dans des environnements régulés où les dépendances propriétaires sont problématiques. La société prévient néanmoins que Privacy Filter n'est pas une solution universelle et que ses performances varient selon les langues et les contextes, laissant ouverte la question de son efficacité sur des données très spécifiques ou des formats atypiques.

UELa conformité RGPD est directement facilitée pour les entreprises françaises et européennes : le modèle tourne en local sans envoi de données vers des serveurs externes, simplifiant les obligations de traitement des données personnelles.

OutilsOutil
1 source
OpenAI publie en open source Euphony, un outil de visualisation web pour les données Harmony Chat et les sessions Codex
3MarkTechPost 

OpenAI publie en open source Euphony, un outil de visualisation web pour les données Harmony Chat et les sessions Codex

OpenAI a publié en open source Euphony, un outil de visualisation fonctionnant directement dans le navigateur, conçu pour transformer des données de conversation structurées en vues interactives lisibles. L'outil prend en charge deux formats propriétaires d'OpenAI : les conversations au format Harmony et les fichiers de session Codex au format JSONL. Euphony peut ingérer ces données de trois manières : en collant du JSON directement depuis le presse-papiers, en chargeant un fichier local, ou en pointant vers une URL publique, y compris des datasets hébergés sur Hugging Face. Une fois les données chargées, l'outil détecte automatiquement le format et rend une timeline de conversation navigable, avec un panneau d'inspection des métadonnées, un mode grille pour parcourir rapidement de grands datasets, un mode édition pour modifier le contenu JSONL dans le navigateur, et un filtrage basé sur JMESPath pour interroger les structures JSON complexes. Ce problème est concret pour quiconque travaille avec des agents IA multi-étapes : un agent Codex qui lit des fichiers, appelle des API, génère du code et révise ses propres sorties peut produire des centaines de lignes de JSON brut, où tokens bruts, chaînes décodées et métadonnées structurées s'entremêlent. Sans outillage dédié, retracer ce que le modèle faisait à chaque étape revient à reconstituer un puzzle sans image de référence. Euphony répond directement à ce besoin en rendant exploitable une richesse de données qui jusqu'ici restait enfouie dans des fichiers difficilement lisibles à l'œil nu. Pour les équipes d'évaluation et de fine-tuning, la possibilité d'inspecter des champs de métadonnées par conversation, scores, sources, labels, directement dans l'interface représente un gain de productivité significatif. Le contexte technique éclaire pourquoi cet outil était nécessaire. Le format Harmony, utilisé pour entraîner la série de modèles open-weight gpt-oss d'OpenAI, est structurellement plus riche qu'un format de chat standard : il supporte des sorties multi-canaux (raisonnement, appels d'outils, réponses normales dans une même conversation), des hiérarchies d'instructions basées sur les rôles (system, developer, user, assistant) et des namespaces d'outils nommés. Cette richesse est précieuse pour l'entraînement et l'évaluation, mais elle rend l'inspection manuelle particulièrement pénible. Euphony est disponible en deux modes : un mode purement frontend sans dépendance serveur, activé via la variable d'environnement VITEEUPHONYFRONTEND_ONLY=true, et un mode assisté par un serveur FastAPI local qui gère le chargement de datasets volumineux et le rendu Harmony côté backend. L'outil est également conçu pour être intégré comme composant web dans d'autres applications, ce qui ouvre la voie à une adoption dans des pipelines d'évaluation ou des interfaces internes d'équipes IA.

OutilsOutil
1 source
Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production
4VentureBeat AI 

Cohere lance un modèle ASR open-weight avec 5,4 % d'erreur — suffisant pour remplacer les API vocales en production

Cohere a lancé Transcribe, un modèle de reconnaissance vocale automatique (ASR) en open-weight, disponible depuis mars 2026 via API ou dans son Model Vault sous l'identifiant cohere-transcribe-03-2026. Avec 2 milliards de paramètres et une licence Apache-2.0 autorisant un usage commercial immédiat, le modèle affiche un taux d'erreur moyen sur les mots (WER) de 5,42 % — le meilleur score actuellement sur le classement ASR de Hugging Face. Il devance Whisper Large v3 d'OpenAI (7,44 %), ElevenLabs Scribe v2 (5,83 %) et Qwen3-ASR-1.7B (5,76 %). Transcribe prend en charge 14 langues : anglais, français, allemand, italien, espagnol, grec, néerlandais, polonais, portugais, chinois, japonais, coréen, vietnamien et arabe. Sur des benchmarks spécialisés, il obtient 8,15 % sur AMI (compréhension de réunions) et 5,87 % sur VoxPopuli (diversité d'accents). Ce lancement change concrètement la donne pour les entreprises qui construisent des workflows voix, des pipelines de transcription ou des systèmes de recherche audio. Jusqu'ici, elles devaient choisir entre des API fermées — précises mais problématiques pour la souveraineté des données — ou des modèles open source moins performants. Transcribe rompt ce compromis : il tourne sur l'infrastructure GPU locale d'une organisation, éliminant les risques de résidence des données et les pénalités de latence liées aux API externes. Pour les équipes qui construisent des pipelines RAG ou des agents IA intégrant de l'audio, c'est une voie directe vers la transcription de qualité production sans dépendance à un fournisseur cloud. Cohere se positionne depuis plusieurs années comme l'alternative "enterprise-first" aux grands modèles grand public, en misant sur le déploiement privé et la conformité réglementaire. Transcribe s'inscrit dans cette stratégie : là où Whisper avait été publié comme modèle de recherche sous licence MIT sans priorité commerciale immédiate, Cohere livre d'emblée un modèle prêt pour la production. La société précise avoir optimisé simultanément la précision (WER bas) et le débit (RTFx élevé), ce qui est techniquement difficile dans la catégorie des modèles de plus d'un milliard de paramètres. Les premiers utilisateurs ont salué notamment la capacité à rapatrier en interne des flux audio qui transitaient jusqu'alors par des API tierces — un enjeu croissant dans les secteurs soumis au RGPD ou aux réglementations sectorielles strictes comme la finance et la santé.

UELe modèle supporte le français et permet un déploiement on-premise éliminant les risques de résidence des données, un avantage direct pour les entreprises européennes soumises au RGPD dans les secteurs finance et santé.

OutilsOpinion
1 source