Aller au contenu principal
OutilsVentureBeat AI1h

Nvidia lance une plateforme d'agents IA pour entreprises avec Adobe, Salesforce et SAP parmi 17 adopteurs à GTC 2026

1 source couvre ce sujet·Source originale ↗·

Lors de la conférence GTC 2026, Jensen Huang a présenté lundi l'Agent Toolkit de Nvidia, une plateforme open source destinée à la création d'agents d'IA autonomes en entreprise. Dix-sept géants du logiciel ont immédiatement annoncé leur adoption : Adobe, Salesforce, SAP, ServiceNow, Siemens, CrowdStrike, Atlassian, Cadence, Synopsys, IQVIA, Palantir, Box, Cohesity, Dassault Systèmes, Red Hat, Cisco et Amdocs. La plateforme regroupe quatre composants clés : Nemotron, une famille de modèles ouverts optimisés pour le raisonnement agentique ; AI-Q, un blueprint permettant aux agents de percevoir, raisonner et agir sur les données d'entreprise ; OpenShell, un environnement d'exécution open source imposant des garde-fous de sécurité, de réseau et de confidentialité ; et cuOpt, une bibliothèque d'optimisation. Ces agents peuvent traiter des tickets de support client, concevoir des semi-conducteurs, gérer des essais cliniques ou piloter des campagnes marketing, le tout de façon autonome.

L'enjeu commercial est considérable. En faisant adopter cette pile logicielle par des entreprises présentes dans pratiquement chaque secteur du Fortune 500, Nvidia ne vend pas directement ses GPU — il conçoit un écosystème logiciel qui les rend indispensables. Le composant AI-Q promet par ailleurs de réduire les coûts de traitement de plus de 50 % en routant les tâches complexes vers des modèles frontier et les tâches de recherche vers les modèles Nemotron moins coûteux. Nvidia revendique également que son agent basé sur AI-Q se classe en tête des benchmarks DeepResearch Bench et DeepResearch Bench II, ce qui, si validé indépendamment, rendrait la plateforme non seulement pratique mais compétitivement incontournable. La confiance des entreprises, obstacle historique au déploiement d'agents autonomes, est adressée via OpenShell, développé en collaboration avec Cisco, CrowdStrike, Google, Microsoft Security et TrendAI.

Cette annonce s'inscrit dans une stratégie plus large de Nvidia pour étendre son emprise au-delà du matériel. Jusqu'ici, construire un agent d'IA d'entreprise nécessitait d'assembler des briques disparates — modèle de langage, système de récupération d'information, couche de sécurité, orchestrateur — issues de fournisseurs différents jamais conçus pour fonctionner ensemble. Nvidia résout ce problème de fragmentation en proposant une fondation unifiée, open source dans sa licence mais optimisée pour ses propres puces. La stratégie rappelle celle d'une infrastructure de péage : ouverte à tous, mais dont Nvidia contrôle l'architecture. Alors que les entreprises s'apprêtent à déployer massivement des agents autonomes dans leurs systèmes informatiques, la question n'est plus tant de savoir si elles adopteront ces outils, mais si une alternative crédible à l'écosystème Nvidia pourra émerger avant que la dépendance ne soit totale.

Impact France/UE

SAP, Siemens et Dassault Systèmes figurent parmi les 17 premiers adopteurs, exposant les grandes entreprises européennes à une dépendance croissante envers l'écosystème logiciel et matériel de Nvidia pour leurs déploiements d'agents IA.

À lire aussi

1VentureBeat AI 

Les LLMs de connaissance selon Karpathy : une bibliothèque markdown évolutive gérée par IA, en alternative au RAG

Andrej Karpathy, ancien directeur de l'IA chez Tesla et co-fondateur d'OpenAI, a publié sur X une description détaillée de son architecture personnelle qu'il nomme "LLM Knowledge Bases". Le principe : confier à un LLM le rôle de bibliothécaire permanent, chargé de compiler, organiser et maintenir une bibliothèque de fichiers Markdown (.md) représentant ses projets et sujets de recherche. Le système fonctionne en trois étapes : les matières brutes (articles, dépôts GitHub, papers de recherche) sont déposées dans un répertoire raw/, converties en Markdown via l'outil Obsidian Web Clipper ; le LLM "compile" ensuite ces données en rédigeant des articles encyclopédiques, des résumés et des liens croisés entre concepts ; enfin, des passes de "linting" régulières permettent au modèle de détecter les incohérences et les connexions manquantes, rendant la base auto-réparatrice. Cette approche s'attaque à un problème concret que tout développeur utilisant des LLMs connaît bien : la réinitialisation du contexte à chaque nouvelle session. Reconstruire l'état d'un projet complexe consomme des tokens précieux et du temps. En maintenant une base de connaissances structurée, lisible par l'humain et directement exploitable par le modèle, Karpathy élimine ce "reset lobotomisant". Par rapport au RAG classique — où les documents sont découpés en fragments arbitraires, transformés en vecteurs mathématiques et stockés dans une base spécialisée — son système évite la boîte noire des embeddings : chaque information est traçable jusqu'à un fichier Markdown qu'un humain peut lire, modifier ou supprimer. Pour les datasets de taille intermédiaire, la complexité opérationnelle d'une infrastructure vectorielle n'est tout simplement plus justifiée. Le RAG domine la scène enterprise depuis trois ans, mais les limites de l'approche par chunks sont de plus en plus visibles à mesure que les fenêtres de contexte des LLMs s'élargissent. Karpathy reconnaît lui-même que son système reste "une collection hacky de scripts", mais la réaction de la communauté a immédiatement pointé vers le potentiel commercial : comme l'a formulé l'entrepreneur Vamshi Reddy, "chaque entreprise possède déjà un répertoire raw/ — personne ne l'a jamais compilé". Karpathy a acquiescé, évoquant une "incroyable nouvelle catégorie de produits". La plupart des organisations se noient dans des données non structurées — logs Slack, wikis internes, rapports PDF — sans jamais avoir les moyens de les synthétiser. Une couche enterprise inspirée de cette architecture pourrait transformer ces silos en bases de connaissances vivantes, auditables et maintenues en continu par l'IA elle-même.

OutilsOutil
1 source
2Le Big Data 

OpenClaw sur mobile : apps Alibaba JVS Claw, Baidu DuClaw

Alibaba et Baidu ont lancé début 2026 deux applications mobiles d'IA agentique, JVS Claw et DuClaw, toutes deux construites sur le framework open-source OpenClaw. Ce framework, qui a dépassé les 300 000 étoiles sur GitHub en quelques semaines seulement, permet à un smartphone d'exécuter des tâches complexes de manière autonome : remplir des formulaires, trier des e-mails, interagir avec des applications natives, sans que l'utilisateur n'ait à toucher l'écran. L'installation se fait en un seul clic via un APK ou l'App Store d'Alibaba Cloud, sans configuration serveur ni compétence en programmation requise. Alibaba mise sur une intégration cloud puissante pour JVS Claw, ciblant d'abord le marché chinois, tandis que Baidu positionne DuClaw sur une accessibilité web immédiate et une interface volontairement simplifiée. Ce virage marque une rupture nette dans la stratégie des grands laboratoires chinois : après des années à publier des modèles open-source pour asseoir leur influence technique, Alibaba et Baidu pivotent vers des applications propriétaires grand public. Le mobile devient le canal de distribution naturel pour des agents capables de réserver, commander ou planifier à la place de l'utilisateur. Pour les professionnels, c'est l'élimination d'une friction quotidienne réelle : des tâches répétitives auparavant réservées aux développeurs capables d'écrire des scripts d'automatisation deviennent accessibles à n'importe qui possédant un smartphone. L'enjeu de parts de marché est considérable, car celui qui s'impose comme standard de l'agent mobile contrôlera une couche d'interface entre l'utilisateur et ses applications, bien plus stratégique que le moteur de recherche ou l'assistant vocal ne l'ont jamais été. Ce mouvement s'inscrit dans une tendance de fond observable depuis 2024 : la course à l'IA agentique, longtemps cantonnée aux environnements serveurs d'entreprise, descend progressivement vers le terminal personnel. OpenClaw a cristallisé cette dynamique en proposant un standard ouvert autour duquel les acteurs industriels peuvent construire. Le fait que deux géants de Hangzhou et Pékin l'adoptent simultanément comme base de leurs produits grand public valide le framework comme infrastructure commune, comparable à ce qu'Android a représenté pour le mobile classique. La prochaine étape logique sera l'intégration de ces agents directement dans les systèmes d'exploitation mobiles, une bataille où Google et Apple n'ont pas encore montré leur jeu. Le marché chinois, avec son écosystème applicatif fermé et ses habitudes d'ultra-délégation numérique, constitue le banc d'essai idéal avant une éventuelle expansion internationale.

OutilsOutil
1 source
3The Decoder 

Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux

Anthropic a publié une explication officielle pour répondre aux nombreuses plaintes d'utilisateurs de Claude Code qui voyaient leurs quotas s'épuiser beaucoup plus vite qu'attendu. Deux facteurs principaux sont en cause : des limitations renforcées aux heures de pointe, lorsque la demande sur les serveurs est la plus forte, et l'accumulation progressive du contexte au fil des sessions de travail, qui fait exploser la consommation de tokens sans que l'utilisateur s'en rende compte. Ce phénomène touche directement les développeurs qui utilisent Claude Code pour des tâches longues et itératives. Un contexte de conversation qui gonfle au fil des échanges peut consommer autant de tokens que plusieurs requêtes indépendantes, vidant rapidement les allocations mensuelles ou quotidiennes. Anthropic a accompagné ses explications de conseils pratiques pour limiter cette consommation, notamment en réinitialisant régulièrement le contexte. Cette clarification intervient alors que Claude Code connaît une adoption rapide parmi les équipes de développement, créant une pression croissante sur l'infrastructure d'Anthropic. La gestion des quotas reste un point sensible pour les abonnés professionnels, et la transparence de l'entreprise sur ce sujet vise à maintenir la confiance des utilisateurs les plus intensifs, dans un marché des assistants de code de plus en plus concurrentiel face à GitHub Copilot et Cursor.

UELes développeurs européens utilisant Claude Code sont directement concernés par ces limitations de quotas, qui peuvent impacter leur productivité et leur planification budgétaire.

OutilsActu
1 source
4Le Big Data 

Onyx : une alternative à Claude, plus puissante, open-source et locale ?

Onyx est une plateforme d'intelligence artificielle open source qui a franchi le cap des 20 000 étoiles sur GitHub début avril 2026, attirant l'attention des équipes techniques à la recherche d'alternatives aux solutions propriétaires comme Claude d'Anthropic. Conçue pour s'installer en self-hosting via Docker, elle fonctionne comme une couche d'orchestration complète : elle se connecte à plus de 40 sources de données d'entreprise (stockage, messagerie, gestion de projet), indexe les contenus en continu et dialogue avec n'importe quel LLM, qu'il s'agisse de modèles cloud, d'API externes ou de modèles tournant entièrement en local. Sur les benchmarks de recherche approfondie, Onyx affiche des scores supérieurs à plusieurs solutions propriétaires, en combinant recherche sémantique, indexation permanente et exploration web intégrée pour produire des réponses contextualisées et traçables. L'enjeu concret est la souveraineté technologique des organisations. En permettant de choisir librement le modèle sous-jacent selon chaque usage et d'optimiser les coûts sans dépendre d'un fournisseur unique, Onyx élimine le risque de verrouillage propriétaire qui préoccupe de nombreux DSI et responsables de la sécurité informatique. Les réponses ne reposent plus sur des données d'entraînement génériques, mais sur les documents internes réels de l'entreprise, synchronisés en temps réel. Dans des environnements professionnels où chaque réponse doit être justifiable et auditable, cette traçabilité représente un avantage opérationnel direct. L'outil "Craft" intégré pousse la logique plus loin : il permet de générer non seulement des documents, mais aussi des tableaux de bord, des applications web et des visualisations à partir des données internes, dans des environnements isolés garantissant la confidentialité. Le lancement d'Onyx s'inscrit dans une dynamique plus large de professionnalisation de l'IA open source, portée par des projets comme LangChain, Ollama ou LlamaIndex, qui ont progressivement rendu accessibles des capacités jusqu'alors réservées aux grandes plateformes cloud. Face à la montée en puissance de Claude, GPT-4o et Gemini, une partie de l'écosystème technique cherche à construire des infrastructures IA qui restent sous contrôle de l'organisation. Onyx mise sur la dimension collaborative pour se différencier davantage : la plateforme gère des rôles, des accès granulaires et des agents automatisés configurables avec des règles précises, la rapprochant d'un système applicatif complet plutôt que d'un simple assistant conversationnel. La prochaine étape pour le projet sera de démontrer sa robustesse à l'échelle dans des environnements de production critiques, un terrain où les solutions propriétaires conservent encore une avance significative en matière de support et de garanties contractuelles.

UELes organisations européennes soucieuses de souveraineté numérique et de conformité RGPD peuvent déployer Onyx en self-hosting pour garder leurs données internes hors des clouds américains.

OutilsOutil
1 source