Aller au contenu principal
NVIDIA fait don d'un pilote d'allocation dynamique de ressources GPU à la communauté Kubernetes pour faire avancer l'IA open source
OutilsNVIDIA AI Blog6sem

NVIDIA fait don d'un pilote d'allocation dynamique de ressources GPU à la communauté Kubernetes pour faire avancer l'IA open source

Résumé IASource uniqueImpact UE
Source originale ↗·

NVIDIA franchit un cap majeur dans l'écosystème open source en faisant don de son pilote Dynamic Resource Allocation (DRA) pour GPU à la Cloud Native Computing Foundation (CNCF). Annoncée cette semaine au KubeCon Europe d'Amsterdam, cette contribution transfère la gouvernance du pilote de NVIDIA vers la communauté Kubernetes dans son ensemble, ouvrant la voie à une innovation collective et transparente sur les infrastructures d'IA haute performance.

L'enjeu est considérable : Kubernetes est devenu le socle d'orchestration de référence pour les charges de travail IA en entreprise. En passant le DRA Driver sous gouvernance communautaire, NVIDIA permet à un cercle bien plus large de contributeurs — ingénieurs cloud, chercheurs, opérateurs d'infrastructure — d'influer sur l'évolution du pilier logiciel qui gère l'allocation des GPU dans les datacenters. Cela réduit la dépendance à un fournisseur unique et accélère l'alignement avec les standards du cloud natif.

Concrètement, le pilote apporte un partage intelligent des ressources GPU via les technologies NVIDIA Multi-Process Service et Multi-Instance GPU, un support natif pour les interconnexions multi-nœuds via NVIDIA Multi-Node NVLink — indispensable pour l'entraînement de grands modèles sur les systèmes Grace Blackwell — ainsi qu'une reconfiguration dynamique à la volée des allocations matérielles. En parallèle, en collaboration avec la communauté Confidential Containers du CNCF, NVIDIA introduit le support GPU pour Kata Containers, renforçant l'isolation des charges de travail IA pour le calcul confidentiel. Le CTO de la CNCF, Chris Aniszczyk, salue « un jalon majeur pour l'open source Kubernetes et l'infrastructure IA ».

L'initiative réunit un écosystème industriel large : Amazon Web Services, Google Cloud, Microsoft, Red Hat, Broadcom, Canonical, Nutanix et SUSE s'engagent à co-développer ces fonctionnalités. Chris Wright, CTO de Red Hat, souligne que « l'open source sera au cœur de toute stratégie IA d'entreprise réussie », tandis que le CERN est cité parmi les organisations qui bénéficieront directement de cette standardisation pour le calcul scientifique à grande échelle.

Impact France/UE

Annoncé à KubeCon Europe à Amsterdam, ce don à la CNCF bénéficie directement aux équipes cloud européennes qui déploient des charges de travail IA sur Kubernetes avec des GPU.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Comment notre modèle d'IA open-source SpeciesNet contribue à la promotion de la conservation de la faune
1Google AI Blog 

Comment notre modèle d'IA open-source SpeciesNet contribue à la promotion de la conservation de la faune

SpeciesNet, un modèle d'IA open-source développé par notre organisation, aide à la protection de la faune sauvage à travers le monde en facilitant l'identification et le suivi des espèces. Ce projet collaboratif permet aux chercheurs et aux conservateurs d'utiliser des outils avancés pour surveiller les écosystèmes et lutter contre la dégradation environnementale.

OutilsOutil
1 source
Étonnament, Nvidia prévoit de lancer son propre agent IA open source
2Le Big Data 

Étonnament, Nvidia prévoit de lancer son propre agent IA open source

Nvidia prépare le lancement de NemoClaw, une plateforme open source d'agents IA destinée aux entreprises, qui devrait être dévoilée lors de sa conférence annuelle des développeurs à San José. La plateforme permettra aux éditeurs de logiciels de créer et déployer des agents autonomes capables d'automatiser des tâches professionnelles, et fonctionnerait même sur des infrastructures sans puces Nvidia. Des discussions auraient déjà été engagées avec Salesforce, Cisco, Google, Adobe et CrowdStrike pour construire un écosystème dès le lancement.

OutilsActu
1 source
Construire un système d'agents modulaires à base de compétences pour LLM avec routage dynamique d'outils en Python
3MarkTechPost 

Construire un système d'agents modulaires à base de compétences pour LLM avec routage dynamique d'outils en Python

Un tutoriel publié récemment détaille comment construire en Python un système d'agents modulaires à base de compétences pour les grands modèles de langage, avec routage dynamique des outils. L'implémentation repose sur OpenAI (modèle GPT-4o-mini) et les bibliothèques open source Pydantic et Rich. L'architecture centrale s'articule autour de trois briques : une classe abstraite Skill qui encapsule chaque capacité (métadonnées, schéma JSON, logique d'exécution), un SkillRegistry qui joue le rôle de catalogue centralisé, et un orchestrateur qui sélectionne et enchaîne les compétences via le mécanisme de tool calling de l'API OpenAI. Chaque compétence est versionnée, auto-descriptive et expose automatiquement son schéma au format attendu par l'API, ce qui permet à un agent de l'invoquer sans configuration manuelle. L'intérêt de cette approche réside dans la séparation stricte entre la logique de chaque compétence et le raisonnement de l'agent. Concrètement, l'agent peut sélectionner la bonne compétence pour une tâche donnée, en composer plusieurs pour des workflows complexes, et charger de nouvelles capacités à chaud en cours d'exécution sans redémarrer le système. Un tableau de bord d'observabilité intégré trace le nombre d'appels et la latence moyenne de chaque compétence, ce qui facilite le débogage et l'optimisation en production. Pour les équipes qui construisent des agents LLM, cette modularité réduit la dette technique : ajouter une nouvelle capacité revient à écrire une classe isolée, sans toucher au reste du pipeline. Cette architecture s'inscrit dans une tendance plus large de structuration des systèmes agentiques, accélérée par la généralisation du tool calling dans les API des principaux fournisseurs (OpenAI, Anthropic, Google). La métaphore utilisée dans le tutoriel est explicite : le registre de compétences fonctionne comme une table de syscalls d'un système d'exploitation, l'agent étant le noyau qui dispatche les requêtes. Face à la multiplication des frameworks concurrents (LangChain, LlamaIndex, AutoGen), cette approche "from scratch" permet de comprendre les mécanismes sous-jacents et d'éviter les abstractions opaques. La prochaine étape logique de cette architecture est l'ajout de mémoire persistante et de planification multi-tours, deux fronts sur lesquels la recherche en agents LLM reste très active en 2025.

OutilsTuto
1 source
Vercel lance JSON-Render : un framework d'interface générative pour la composition pilotée par l'IA
4InfoQ AI 

Vercel lance JSON-Render : un framework d'interface générative pour la composition pilotée par l'IA

Vercel a mis en open source json-render, un nouveau framework de génération d'interfaces utilisateur piloté par l'intelligence artificielle. Publié sous licence Apache 2.0, cet outil permet à des modèles de langage de composer des interfaces graphiques structurées à partir d'instructions en langage naturel. Concrètement, un développeur définit un catalogue de composants — boutons, formulaires, cartes, listes — et le modèle d'IA sélectionne et assemble ces blocs selon le contexte de la requête. Le framework est compatible avec plusieurs environnements frontend, ce qui lui confère une portée technique large dès sa sortie. L'enjeu principal est de permettre aux applications d'IA de ne plus se limiter à du texte brut, mais de produire des interfaces dynamiques et contextuelles sans intervention manuelle d'un développeur à chaque étape. Pour les équipes qui construisent des agents ou des assistants intégrés à des produits web, cela ouvre la voie à des expériences utilisateurs generatives : l'interface s'adapte à la demande en temps réel, réduisant le besoin de coder chaque scénario à l'avance. La sortie de json-render intervient dans un contexte de foisonnement autour des « generative UI », un concept popularisé notamment par Vercel lui-même avec sa bibliothèque AI SDK et les React Server Components. La communauté accueille l'initiative avec un mélange d'enthousiasme et de réserve : certains saluent la simplicité de l'approche, d'autres pointent ses divergences avec des standards existants comme les spécifications de composants structurés déjà portées par d'autres acteurs. La question de la compatibilité et de la standardisation dans l'écosystème reste ouverte.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour