Aller au contenu principal
JBS Dev : données imparfaites et le dernier kilomètre de l'IA, de la performance des modèles à la viabilité des coûts
OutilsAI News31min

JBS Dev : données imparfaites et le dernier kilomètre de l'IA, de la performance des modèles à la viabilité des coûts

Résumé IASource uniqueImpact UE
Source originale ↗·

Joe Rose, président de JBS Dev, un fournisseur de technologies stratégiques, remet en question l'un des mythes les plus répandus autour de l'IA générative : celui selon lequel les données doivent être parfaites avant de lancer tout projet d'IA. Lors de sa participation à l'AI & Big Data Expo, Rose a détaillé comment les outils actuels permettent de travailler efficacement avec des données imparfaites, en donnant l'exemple concret d'un client dans le secteur médical. L'objectif était de migrer vers un nouveau système de réconciliation de facturation, avec des dossiers hétérogènes : certains en PDF, d'autres sous forme d'images scannées, des noms de médecins mal placés dans les champs patients, des procédures mal catégorisées. L'IA générative a permis d'extraire les données exploitables via OCR et extraction de texte, puis des approches plus agentiques ont pris le relais, comme la comparaison automatique entre un dossier patient et un contrat d'assurance pour vérifier que la facturation était correcte. Le niveau d'automatisation est ainsi passé de 20 % à 40 %, puis 60 %, puis 80 %, avec un humain dans la boucle pour traiter les cas limites.

Ce changement de paradigme a des implications concrètes pour les entreprises qui hésitent à se lancer dans des projets d'IA par peur d'un patrimoine data insuffisant. Rose souligne que les conseils des éditeurs et consultants, qui recommandent des lacs de données massifs et des programmes de transformation pluriannuels, servent avant tout leurs propres intérêts commerciaux. En pratique, un LLM est capable de comprendre une instruction à moitié rédigée, ce qui rend ces systèmes étonnamment robustes face à la qualité variable des données. La vraie rupture culturelle est ailleurs : les équipes IT doivent abandonner le réflexe "on construit, ça tourne, on oublie", car les systèmes agentiques nécessitent une supervision continue et une montée en automatisation progressive.

Les prochains enjeux du secteur ne seront pas dans la course aux capacités des modèles, estime Rose, mais dans leur soutenabilité économique et leur portabilité. La question centrale devient : comment faire tourner ces modèles sur un laptop ou un smartphone plutôt que dans des data centers que l'on construit à un rythme difficilement tenable ? Rose va plus loin avec une prise de position tranchée : les entreprises devraient arrêter d'acheter des solutions SaaS pour des cas d'usage IA qu'elles peuvent implémenter elles-mêmes. Les outils cloud des trois grands fournisseurs (AWS, Azure, Google Cloud) suffisent pour démarrer des workloads agentiques dès demain, sans nouvelles licences ni formations spécifiques. Une position qui tranche avec les discours dominants de l'écosystème, et qui reflète une maturité croissante du marché face aux promesses de l'IA d'entreprise.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1VentureBeat AI 

Les entreprises IA à base d'agents : concevoir pour des performances mesurables

Les agents d'intelligence artificielle semi-autonomes capables de gérer des tâches métier complexes en temps réel ne sont plus une promesse lointaine, c'est désormais une réalité opérationnelle pour certaines grandes entreprises. EdgeVerve, filiale d'Infosys spécialisée dans l'automatisation intelligente, a récemment publié un cadre de conception pour déployer ces agents à l'échelle industrielle. L'entreprise cite ses propres déploiements en production : dans un environnement financier réel piloté par un directeur financier, sept agents interconnectés ont généré en un an une amélioration de plus de 3 % des flux de trésorerie mensuels, un gain de productivité de 50 % sur les workflows concernés, un onboarding 90 % plus rapide, et un impact total de 32 millions de dollars sur la trésorerie. En maintenance immobilière, des résultats similaires ont été obtenus grâce à des agents spécialisés dans la coordination des interventions. Ces chiffres illustrent ce qui distingue un pilote réussi d'un projet abandonné : l'ancrage dans des objectifs métier mesurables dès le départ. La méthode préconisée consiste à partir des KPI organisationnels, délai de recouvrement (DSO), taux de conformité, temps moyen de résolution (MTTR), satisfaction client (NPS), pour définir les objectifs des agents, puis seulement choisir les workflows à automatiser. Les "zones grises opérationnelles", ces espaces entre les applications où subsistent encore des validations manuelles, des réconciliations et des transferts humains, représentent le prochain gisement de valeur. C'est là que les agents peuvent éliminer les frictions systémiques sans remplacer intégralement des processus formalisés. Le cadre repose sur quatre piliers : autonomie calibrée selon le niveau de risque (de la simple suggestion à l'exécution avec rollback automatique), gouvernance intégrée dès la conception avec des garde-fous stricts sur les données personnelles et réglementaires, observabilité continue via des évaluations et métriques en temps réel, et flexibilité d'intégration allant bien au-delà des seules API classiques, en incluant les flux événementiels, les connecteurs RAG pour bases documentaires, et des fallbacks RPA là où les API n'existent pas. Le risque central identifié est celui des agents "hallucinant" des actions non vérifiables par l'entreprise, d'où l'insistance sur l'idempotence, les mécanismes de retry et les schémas d'outils standardisés. Dans un contexte où de nombreuses entreprises peinent encore à sortir leurs agents du stade expérimental, ce retour d'expérience chiffré positionne EdgeVerve comme un acteur cherchant à normaliser les déploiements agentiques en environnement critique.

OutilsOutil
1 source
OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise
2VentureBeat AI 

OpenAI lance Privacy Filter, un modèle open source de suppression des données personnelles dans les jeux de données d'entreprise

OpenAI a publié Privacy Filter, un modèle open source spécialisé dans la détection et la suppression des informations personnelles identifiables (PII) avant qu'elles n'atteignent un serveur distant. Disponible sur Hugging Face sous licence Apache 2.0, cet outil repose sur 1,5 milliard de paramètres mais n'en active que 50 millions à chaque traitement, grâce à une architecture Sparse Mixture-of-Experts qui réduit considérablement la charge de calcul. Contrairement aux grands modèles de langage classiques qui lisent un texte de gauche à droite, Privacy Filter est un classificateur bidirectionnel de tokens : il analyse chaque phrase dans les deux sens simultanément, ce qui lui permet de mieux distinguer, par exemple, si le prénom "Alice" désigne une personne privée ou un personnage littéraire public. Le modèle gère une fenêtre de contexte de 128 000 tokens, suffisante pour traiter un document juridique entier en une seule passe, et s'appuie sur un décodeur de Viterbi contraint avec un schéma de balisage BIOES pour garantir la cohérence des entités redactées. Il détecte huit catégories de données sensibles : noms de personnes, coordonnées, identifiants numériques, URLs, numéros de compte, dates et identifiants secrets comme les clés API. L'enjeu concret est considérable pour les entreprises soumises au RGPD ou à la réglementation HIPAA dans le secteur de la santé. En déployant Privacy Filter directement sur leurs serveurs internes ou dans leur cloud privé, elles peuvent anonymiser les données localement avant de les envoyer vers un modèle plus puissant comme GPT-5 ou gpt-oss-120b, sans jamais exposer d'informations sensibles à l'extérieur. Ce modèle résout un problème structurel de l'adoption de l'IA en entreprise : le risque que des données confidentielles, médicales ou financières se retrouvent intégrées dans des pipelines d'inférence ou de fine-tuning hébergés dans le cloud. La possibilité de faire tourner le modèle sur un laptop standard ou directement dans un navigateur web abaisse encore davantage la barrière d'entrée. Cette publication s'inscrit dans un retour marqué d'OpenAI vers l'open source, après des années centrées sur des modèles propriétaires accessibles uniquement via ChatGPT et l'API. Début 2025, l'entreprise avait déjà lancé la famille gpt-oss, des modèles à poids ouverts orientés raisonnement, puis ouvert plusieurs outils d'orchestration agentique. Privacy Filter est un dérivé direct de cette famille gpt-oss, réentraîné pour la classification plutôt que la génération. Ce virage stratégique suggère qu'OpenAI cherche à consolider sa position dans l'écosystème développeur face à la concurrence de Meta (LLaMA), Mistral et Google, en proposant des briques d'infrastructure que les entreprises peuvent intégrer sans dépendance à ses services payants. La prochaine étape logique serait l'extension des catégories PII supportées et l'intégration native dans les frameworks agentiques déjà publiés.

UELes entreprises françaises et européennes soumises au RGPD peuvent déployer Privacy Filter en local pour anonymiser leurs données sensibles avant tout envoi vers un service cloud, réduisant directement leur risque de non-conformité réglementaire.

💬 C'est exactement le verrou qui bloquait l'adoption en entreprise depuis deux ans. Un modèle léger, déployable en local, qui filtre les données personnelles avant d'envoyer vers le cloud : sur le papier, c'est le genre de brique qu'on attendait. Et distribuer ça sous Apache 2.0, c'est malin : si ton pipeline s'appuie sur leurs outils gratuits, tu vas finir par appeler leurs modèles payants derrière.

OutilsOutil
1 source
Meta utilise l'IA pour cartographier les connaissances tacites dans ses pipelines de données
3Meta Engineering ML 

Meta utilise l'IA pour cartographier les connaissances tacites dans ses pipelines de données

Meta a développé un système original pour rendre ses agents IA capables de travailler efficacement sur une base de code massive : un pipeline de données couvrant quatre dépôts, trois langages de programmation et plus de 4 100 fichiers. Face à l'inefficacité des assistants IA classiques sur ce terrain, incapables de produire des modifications utiles rapidement, les ingénieurs ont conçu un moteur de pré-calcul composé de plus de 50 agents IA spécialisés. Ces agents ont systématiquement parcouru l'ensemble du code pour produire 59 fichiers de contexte condensés, encodant ce que les développeurs appellent le « tribal knowledge » : les règles implicites et les conventions qui n'existent que dans la tête des ingénieurs. Résultat : la couverture structurée du code est passée de 5 % à 100 % des modules, soit les 4 100 fichiers des trois dépôts. Plus de 50 patterns « non-évidents » ont été documentés pour la première fois, et les tests préliminaires montrent une réduction de 40 % des appels d'outils par les agents IA pour chaque tâche. L'enjeu n'est pas anodin. Sans cette cartographie, les agents IA se comportaient comme des développeurs juniors largués sur un projet inconnu : ils compilaient du code fonctionnel en apparence, mais subtilement incorrect. Par exemple, deux modes de configuration utilisent des noms de champs différents pour la même opération, les inverser produit une erreur silencieuse. Ou encore, des dizaines de valeurs d'énumération marquées « deprecated » ne peuvent jamais être supprimées, car la compatibilité de sérialisation en dépend. Aucune de ces règles n'était écrite nulle part. En les formalisant, Meta permet désormais à des modèles IA variés de naviguer le codebase de manière fiable, le système de connaissance étant indépendant du modèle utilisé. L'infrastructure se maintient aussi elle-même : toutes les quelques semaines, des jobs automatisés valident les chemins de fichiers, détectent les lacunes de couverture et corrigent les références obsolètes. Ce projet s'inscrit dans une tendance plus large où les grandes entreprises tech cherchent à industrialiser l'usage des agents IA sur des codebases de production réels, bien au-delà des démos. Meta avait déjà déployé des systèmes IA pour des tâches opérationnelles, surveillance de dashboards, reconnaissance de patterns incidents, suggestions de corrections, mais l'extension aux tâches de développement butait sur ce problème fondamental d'absence de contexte. La solution choisie, baptisée « compass, not encyclopedia », repose sur des fichiers ultra-compacts de 25 à 35 lignes environ 1 000 tokens chacun, organisés en quatre sections : commandes clés, fichiers essentiels, patterns non-évidents, et références croisées. Les 59 fichiers réunis pèsent moins d'un contexte de modèle standard. C'est cette sobriété délibérée, chaque ligne justifie sa présence, qui permet au système de rester maintenable et scalable à mesure que le codebase évolue.

OutilsActu
1 source
Les systèmes d'IA autonomes reposent sur la gouvernance des données
4AI News 

Les systèmes d'IA autonomes reposent sur la gouvernance des données

Alors que le débat sur la sécurité de l'IA s'est longtemps concentré sur les modèles eux-mêmes, un déplacement s'opère vers les données qui les alimentent. Les systèmes d'IA autonomes — capables d'exécuter des tâches, de récupérer des informations et de déclencher des actions dans des flux métiers avec peu ou pas de supervision humaine — dépendent d'un flux continu de données fiables. Lorsque ces données sont fragmentées, obsolètes ou mal contrôlées, le comportement du système devient imprévisible. C'est sur ce problème que se positionne Denodo, éditeur de logiciels spécialisé dans la gestion et l'accès aux données distribuées. Sa plateforme crée une vue unifiée des données issues de sources multiples — clouds, bases internes, services tiers — sans avoir à les centraliser physiquement. Elle permet d'appliquer des règles d'accès, des contraintes de conformité et des limites d'utilisation depuis un point unique, tout en journalisant chaque requête pour constituer une piste d'audit exploitable. L'enjeu dépasse la simple organisation informatique. Dans les secteurs réglementés — finance, santé, industrie —, des résultats imprévisibles issus d'un système autonome peuvent engendrer des risques de conformité sérieux. Pour les applications en contact direct avec les clients, cela se traduit par des décisions erronées ou des réponses incorrectes. En garantissant que plusieurs systèmes d'IA s'appuient sur la même couche de données gouvernée, Denodo réduit le risque de sorties contradictoires entre différents départements d'une même organisation. La capacité à monitorer en temps réel l'utilisation des données et à détecter les activités inhabituelles renforce également la capacité des équipes à comprendre comment un système autonome est parvenu à une décision donnée — un prérequis de plus en plus exigé par les régulateurs. Cette évolution s'inscrit dans une maturité croissante de l'industrie vis-à-vis de l'IA en entreprise. Les premières phases de déploiement se focalisaient sur les capacités des modèles : ce qu'ils pouvaient faire. La conversation actuelle porte sur la manière dont ils doivent être gérés une fois en production. La gouvernance des données, qui constitue la couche la plus basse de la pile — en dessous des modèles et des applications — est ainsi devenue un levier de contrôle à part entière. Denodo participait notamment aux discussions sur ce sujet lors de l'AI & Big Data Expo North America 2026. La prochaine étape de l'adoption de l'IA dépendra probablement moins des avancées des modèles que de la capacité des organisations à structurer les systèmes qui les entourent : la gouvernance n'est plus une option, mais une condition d'exploitation des systèmes autonomes.

UEL'AI Act européen impose traçabilité et auditabilité des systèmes d'IA en production, rendant les plateformes de gouvernance des données directement pertinentes pour les entreprises européennes des secteurs réglementés.

OutilsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour