Aller au contenu principal
JiuwenClaw ouvre la voie à l'ingénierie de coordination, nouvelle étape dans la maîtrise du génie logiciel
OutilsMarkTechPost1h

JiuwenClaw ouvre la voie à l'ingénierie de coordination, nouvelle étape dans la maîtrise du génie logiciel

1 source couvre ce sujet·Source originale ↗·

La communauté open source openJiuwen a publié une nouvelle version de JiuwenClaw intégrant une fonctionnalité appelée AgentTeam, qui introduit un concept inédit baptisé "Coordination Engineering". L'idée : faire travailler plusieurs agents d'intelligence artificielle ensemble comme une équipe humaine soudée, capable de se répartir les tâches, de communiquer entre eux et de livrer un résultat complexe sans aucune intervention humaine. La démonstration la plus frappante de cette capacité a été réalisée lors de tests internes : le système a produit une présentation technique de 200 diapositives, structurée et logiquement cohérente, en moins de 20 minutes. Pour ce faire, un agent "Leader" a décomposé le sujet en dix axes d'analyse, confié chaque axe à un agent dédié chargé de générer 20 slides, puis fusionné l'ensemble sous une thématique unifiée.

Ce type de collaboration multi-agents représente un franchissement de cap significatif dans la conception des systèmes d'IA autonomes. Jusqu'ici, la plupart des architectures d'agents reposaient sur un pilotage humain constant ou sur des pipelines rigides et préprogrammés. Avec AgentTeam, la coordination devient dynamique : le Leader construit l'équipe selon les besoins du projet, peut ajouter ou retirer des membres en cours d'exécution, et chaque agent revendique ses tâches de manière proactive sur un tableau de bord partagé. Les dépendances entre tâches sont gérées automatiquement, et un mécanisme de récupération sur incident prend en charge les pannes sans intervention extérieure. Pour les entreprises cherchant à automatiser des processus de production de contenu, d'analyse ou de développement logiciel, ce niveau d'autonomie organisationnelle pourrait réduire considérablement le besoin de supervision humaine.

Ce développement s'inscrit dans une tendance plus large de l'industrie de l'IA vers les systèmes multi-agents, où des acteurs comme OpenAI, Anthropic ou des projets open source concurrents explorent des architectures permettant à plusieurs LLMs de collaborer. JiuwenClaw se distingue en formalisant trois mécanismes techniques précis : une hiérarchie Leader/Teammates avec planification dynamique, un espace de fichiers partagé accessible à tous les agents de l'équipe, et un système de validation à deux niveaux où le Leader doit approuver les plans d'exécution sensibles avant leur mise en oeuvre. Le projet est disponible en open source sur GitHub. La prochaine étape pour l'écosystème sera de déterminer si cette approche tient à plus grande échelle, avec des équipes d'agents plus nombreuses, des tâches plus longues, et des environnements moins contrôlés que les démonstrations actuelles.

À lire aussi

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail
1The Decoder 

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail

OpenAI déploie une nouvelle fonctionnalité dans ChatGPT baptisée "workspace agents", qui représente une évolution majeure des GPTs personnalisés lancés en 2023. Ces agents, propulsés par Codex, le moteur de programmation d'OpenAI, sont conçus pour automatiser des flux de travail complexes au sein des équipes professionnelles. Contrairement aux interactions classiques avec un chatbot, ces agents peuvent s'exécuter en arrière-plan, sans surveillance humaine active, et enchaîner des tâches sur la durée. L'enjeu est considérable pour les entreprises : il ne s'agit plus de demander une réponse ponctuelle à un assistant IA, mais de déléguer des processus entiers, comme la gestion de rapports, la coordination entre outils ou le traitement de données récurrentes. Ce basculement transforme ChatGPT d'un simple outil conversationnel en véritable plateforme d'automatisation d'équipe, positionnant OpenAI en concurrence directe avec des solutions comme Microsoft Copilot, Notion AI ou encore les agents proposés par Google Workspace. Cette annonce s'inscrit dans une course effrénée à l'agentique, où les grands acteurs de l'IA cherchent à s'ancrer durablement dans les outils de productivité professionnelle. OpenAI a précisé que les GPTs personnalisés existants resteraient disponibles dans l'immédiat, une transition progressive devant être proposée ultérieurement. Le choix de Codex comme moteur sous-jacent suggère une orientation forte vers les tâches techniques et développeur, même si les usages visés dépassent largement ce seul périmètre.

UEL'adoption des workspace agents ChatGPT par les entreprises européennes soulève des enjeux de conformité RGPD, les processus métier et données sensibles étant délégués à une plateforme américaine.

OutilsOutil
1 source
OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
2VentureBeat AI 

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

OutilsOutil
1 source
Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles
3Le Big Data 

Privacy Filter : découvrez le nouvel outil OpenAI capable de protéger vos données personnelles

OpenAI a publié le 22 avril 2026 Privacy Filter, son premier modèle open source de l'année, sous licence Apache 2.0. Il s'agit d'un modèle de classification de tokens bidirectionnel, dérivé de GPT-OSS, conçu pour détecter et masquer automatiquement les données personnelles dans des textes non structurés : noms, adresses, numéros d'identification, e-mails, secrets d'API et autres informations identifiables. Avec seulement 1,5 milliard de paramètres, le modèle est suffisamment compact pour tourner en local, y compris directement dans un navigateur. Il supporte une fenêtre de contexte de 128 000 tokens, ce qui lui permet d'analyser des documents longs en une seule passe. Sur le benchmark PII-Masking-300k, il affiche des résultats proches du haut du classement après ajustements des données d'évaluation, et OpenAI précise en utiliser déjà une version optimisée en interne. Ce lancement répond à un besoin concret dans les environnements professionnels où l'IA traite des volumes croissants de données sensibles : logs d'agents, pipelines d'entraînement, systèmes de journalisation. En fonctionnant entièrement en local, Privacy Filter évite d'exposer les données à des serveurs externes, ce qui réduit les risques de fuite et simplifie la conformité réglementaire, notamment face au RGPD. Contrairement aux approches classiques fondées sur des règles fixes, le modèle analyse le contexte linguistique, ce qui améliore la détection des informations implicites ou formulées de manière indirecte. Les développeurs peuvent en outre ajuster les seuils de filtrage pour moduler l'équilibre entre précision et rappel selon leurs cas d'usage, et le modèle est disponible en formats Transformers et ONNX pour une intégration flexible. Ce mouvement s'inscrit dans une tendance plus large : celle des grands laboratoires d'IA qui cherchent à regagner la confiance des entreprises en proposant des outils de gouvernance des données intégrés dès la conception, plutôt qu'ajoutés après coup. OpenAI, longtemps critiqué pour ses pratiques d'utilisation des données d'entraînement, envoie ici un signal à destination des équipes techniques et des directions juridiques qui conditionnent le déploiement de l'IA à des garanties de confidentialité. Le choix de l'open source sous Apache 2.0 facilite aussi l'adoption dans des environnements régulés où les dépendances propriétaires sont problématiques. La société prévient néanmoins que Privacy Filter n'est pas une solution universelle et que ses performances varient selon les langues et les contextes, laissant ouverte la question de son efficacité sur des données très spécifiques ou des formats atypiques.

UELa conformité RGPD est directement facilitée pour les entreprises françaises et européennes : le modèle tourne en local sans envoi de données vers des serveurs externes, simplifiant les obligations de traitement des données personnelles.

OutilsOutil
1 source
Google Meet va aussi prendre des notes IA pour les réunions en présentiel
4The Verge 

Google Meet va aussi prendre des notes IA pour les réunions en présentiel

Google étend les capacités de son assistant IA Gemini aux réunions en présentiel : la fonction de prise de notes automatique, jusqu'ici réservée aux appels Google Meet, peut désormais générer des résumés et des transcriptions lors de réunions physiques, mais aussi lors de visioconférences Zoom et Microsoft Teams. Cette évolution, révélée par 9to5Google, marque une sortie de la phase alpha où la fonctionnalité était uniquement disponible sur Android pour un groupe restreint d'utilisateurs. Elle est désormais accessible plus largement, sans contrainte de salle de réunion ni de rendez-vous planifié à l'avance. L'impact est significatif pour les professionnels qui alternent entre réunions virtuelles et physiques : Gemini devient un assistant de réunion universel, indépendant du support utilisé. La possibilité de capturer automatiquement les échanges lors d'une discussion informelle dans un couloir ou d'une réunion de dernière minute représente un gain de temps concret. Google précise également qu'un participant distant peut rejoindre une réunion en présentiel en basculant vers un appel vidéo classique. Cette annonce s'inscrit dans une course entre les grands acteurs technologiques pour intégrer l'IA dans les flux de travail quotidiens. Microsoft propose des fonctions similaires via Copilot dans Teams, et plusieurs startups comme Otter.ai ou Fireflies.ai ont bâti leur modèle entier sur la transcription de réunions. En élargissant Gemini au-delà de son propre écosystème, Google adopte une stratégie d'ubiquité visant à fidéliser les utilisateurs professionnels quel que soit leur environnement de collaboration.

UELes professionnels européens utilisant Google Workspace peuvent désormais bénéficier de la prise de notes automatique Gemini dans leurs réunions physiques et sur Zoom ou Teams, sans dépendre d'un outil tiers.

OutilsOutil
1 source