Aller au contenu principal
[AINews] NVIDIA GTC : Jensen met le paquet sur OpenClaw et Vera CPU et annonce 1 000 milliards de dollars de commandes pour 2027
LLMsLatent Space7sem

[AINews] NVIDIA GTC : Jensen met le paquet sur OpenClaw et Vera CPU et annonce 1 000 milliards de dollars de commandes pour 2027

Résumé IASource uniqueImpact UE
Source originale ↗·

NVIDIA a frappé fort lors de sa conférence GTC, avec un Jensen Huang en grande forme pour son keynote de deux heures non scripté. Le PDG a annoncé que les commandes pour ses futures puces atteindraient 1 000 milliards de dollars d'ici 2027, confirmant une demande structurelle massive pour l'infrastructure IA. Les architectures Blackwell et Rubin s'écoulent à un rythme record, et la firme a dévoilé Vera, son nouveau CPU maison destiné à compléter l'écosystème data center.

La séquence la plus remarquée du keynote a été consacrée à OpenClaw, le projet open source de robotique et d'agents physiques. Jensen en a vanté les mérites avant d'en souligner publiquement les failles de sécurité — pour mieux pitcher la réponse maison : NemoClaw, la couche de sécurité et de guardrails développée par NVIDIA. Ce mouvement illustre la stratégie récurrente de l'entreprise : identifier une friction dans l'écosystème open source, puis proposer une solution propriétaire comme standard de facto.

En parallèle, l'écosystème IA a été animé par plusieurs signaux forts cette semaine. OpenAI a confirmé que Codex dépasse désormais 2 millions d'utilisateurs actifs hebdomadaires, soit une progression de près de 4x depuis le début de l'année. GPT-5.4 aurait atteint 5 000 milliards de tokens par jour en moins d'une semaine, générant 1 milliard de dollars de revenus annualisés nets supplémentaires selon @sama et @gdb. Du côté de la recherche, le papier Attention Residuals de Moonshot AI (modèle Kimi Linear 48B) a suscité débat : gain de 1,25x en efficacité de calcul revendiqué, mais des chercheurs dont @behrouz_ali pointent des chevauchements avec des travaux antérieurs comme DeepCrossAttention.

La semaine marque aussi une accélération de l'infrastructure autour des agents de code : LangChain a lancé LangGraph CLI, AssemblyAI a publié un skill standardisé pour Claude Code, Codex et Cursor, et Andrew Ng a étendu Context Hub avec des boucles de feedback pour agents. La convergence vers un stack d'outillage unifié — fichiers de skills, docs temps réel, mémoire procédurale extraite de GitHub — dessine ce qui pourrait devenir l'infrastructure standard des agents de développement autonomes.

Impact France/UE

Les laboratoires et entreprises européens déployant des infrastructures IA devront intégrer les nouvelles architectures NVIDIA (Vera CPU, Rubin) dans leur feuille de route hardware, avec des implications budgétaires majeures sur les prochains cycles d'investissement.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Nvidia craque pour OpenClaw
1Ben's Bites 

Nvidia craque pour OpenClaw

Nvidia prévoit de générer plus de 1 000 milliards de dollars de ventes via ses puces IA phares d'ici fin 2027, et a lancé NemoClaw, une stack open source ajoutant des contrôles de confidentialité et sécurité à OpenClaw. OpenAI annonce que Codex dépasse 2 millions d'utilisateurs actifs hebdomadaires et que l'usage de son API a augmenté de 20 % depuis la sortie de GPT-5.4, tandis que Manus (récemment acquis par Meta) a lancé une application desktop concurrente mais avec des résultats décevants lors des tests. La fenêtre de contexte d'un million de tokens de Claude est désormais disponible en général.

UELe lancement de NemoClaw avec contrôles de confidentialité et sécurité pourrait faciliter l'adoption des outils Nvidia dans les entreprises européennes soumises au RGPD.

LLMsActu
1 source
Google Gemma 4, NVIDIA et OpenClaw s'attaquent au coût des tokens pour les agents IA en local, du RTX au DGX Spark
2MarkTechPost 

Google Gemma 4, NVIDIA et OpenClaw s'attaquent au coût des tokens pour les agents IA en local, du RTX au DGX Spark

Google a lancé la famille de modèles Gemma 4, une nouvelle génération de modèles d'intelligence artificielle open source conçus pour fonctionner localement sur du matériel grand public. Développés en collaboration avec NVIDIA, ces modèles se déclinent en quatre variantes — E2B, E4B, 26B et 31B paramètres — et couvrent un spectre allant des modules embarqués Jetson Orin Nano aux stations de travail RTX, en passant par le DGX Spark, le superordinateur personnel d'IA récemment annoncé par NVIDIA. Ils supportent nativement l'appel de fonctions pour les agents autonomes et acceptent des entrées multimodales mêlant texte et images dans un même prompt. Sur un RTX 5090, les gains de performance atteignent 2,7 fois ceux obtenus sur un Mac M3 Ultra avec llama.cpp, selon les mesures publiées par NVIDIA. L'enjeu central de cette annonce est ce que les développeurs appellent la "token tax" — le coût financier cumulatif engendré par chaque requête envoyée à un modèle cloud comme GPT-4o ou Gemini. Pour une application d'IA toujours active, qui traite en continu des fichiers, des fenêtres d'applications ou des flux de capteurs, ces coûts deviennent rapidement prohibitifs. En exécutant Gemma 4 localement sur un GPU NVIDIA, le coût marginal par inférence tombe à zéro. Des plateformes comme OpenClaw, qui permettent de construire des assistants IA personnels fonctionnant en permanence sur des PC RTX, bénéficient directement de cette combinaison : débit élevé, latence faible, et aucune dépendance à une connexion ou à un abonnement cloud. Cette évolution s'inscrit dans une tendance de fond qui voit les grands laboratoires — Google, Meta, Mistral — publier des modèles compacts capables de rivaliser avec des systèmes bien plus lourds, à mesure que les techniques de distillation et de quantification progressent. NVIDIA, dont la domination sur les GPU d'entraînement est bien établie, cherche à étendre son emprise sur le marché de l'inférence locale, notamment avec le DGX Spark positionné comme outil de développement personnel haut de gamme. La disponibilité de modèles comme Gemma 4 optimisés pour son écosystème renforce cette stratégie. Les prochains mois verront probablement une multiplication d'applications agentiques locales, portées par cette convergence entre modèles ouverts performants et matériel grand public suffisamment puissant pour les faire tourner sans compromis.

UELa disponibilité de modèles open source performants réduit la dépendance des entreprises et développeurs européens aux API cloud payantes, facilitant la conformité RGPD via le traitement local des données.

LLMsOpinion
1 source
GTC met en avant les PC NVIDIA RTX et DGX Sparks pour faire tourner les derniers modèles open source et agents IA en local
3NVIDIA AI Blog 

GTC met en avant les PC NVIDIA RTX et DGX Sparks pour faire tourner les derniers modèles open source et agents IA en local

Au GTC de NVIDIA, plusieurs nouveaux modèles open source pour agents IA locaux ont été annoncés : Nemotron 3 Nano 4B, Nemotron 3 Super 120B (85,6% sur PinchBench), ainsi que Mistral Small 4 (119 milliards de paramètres). Ces modèles sont optimisés pour tourner localement sur le DGX Spark — superordinateur de bureau avec 128 Go de mémoire unifiée — et les PC RTX, sans dépendance au cloud. NVIDIA présente également NemoClaw, une pile open source pour sécuriser et optimiser les expériences d'agents IA sur ses appareils.

UEMistral Small 4, développé par la startup française Mistral AI, est mis en avant comme modèle phare pour les agents IA locaux sur les appareils NVIDIA, renforçant la visibilité d'un acteur européen face aux géants américains.

LLMsActu
1 source
4Latent Space 

[AINews] Moonshot Kimi K2.6 : le meilleur modèle open source du monde se met à jour pour rivaliser avec Opus 4.6 (avant DeepSeek v4 ?)

Moonshot AI a lancé Kimi K2.6 le 18 avril 2026, une mise à jour majeure de son modèle de langage open-weight qui consolide la position du laboratoire chinois en tête des modèles ouverts mondiaux. Ce modèle de type Mixture-of-Experts (MoE) totalise 1 000 milliards de paramètres, avec 32 milliards actifs à la fois, 384 experts, une fenêtre de contexte de 256 000 tokens, la multimodalité native et une quantification INT4. Disponible dès le jour de lancement sur vLLM, OpenRouter, Cloudflare Workers AI, Baseten et MLX, il revendique des records open source sur plusieurs benchmarks de référence : 54,0 sur HLE with tools, 58,6 sur SWE-Bench Pro, 76,7 sur SWE-Bench Multilingual et 83,2 sur BrowseComp. Moonshot revendique également des capacités d'exécution longue durée inédites : plus de 4 000 appels d'outils enchaînés, des sessions continues de plus de 12 heures, et jusqu'à 300 sous-agents parallèles via un système baptisé "Claw Groups". Simultanément, Alibaba a publié Qwen3.6-Max-Preview, un avant-goût de son prochain modèle phare, qui a atteint la 7e place dans le classement Code Arena, propulsant Alibaba au 3e rang des laboratoires dans cette catégorie. Ces sorties illustrent une accélération concrète des modèles ouverts chinois dans les domaines du code et des agents autonomes, deux terrains jusqu'ici dominés par des acteurs américains comme Anthropic, OpenAI et Google. La communauté des développeurs a rapidement adopté K2.6 comme alternative crédible à Claude ou GPT-4 pour des tâches d'infrastructure : des utilisateurs rapportent une exécution autonome sur cinq jours, des réécritures de noyaux système, et un moteur d'inférence en Zig surpassant LM Studio de 20 % en débit. K2.6 tient également tête à Gemini 3.1 Pro sur les tâches de design frontend avec un taux de victoire et d'égalité de 68,6 %, un terrain considéré comme le point fort de Google. Le contexte est celui d'une course ouverte et intense entre laboratoires. Depuis le lancement de K2.5 en janvier 2026, Moonshot occupe la première place parmi les labs chinois open source, dans un silence relatif de DeepSeek depuis la version v3.2, dont une v4 reste attendue. Moonshot est par ailleurs l'un des trois laboratoires chinois que l'équipe d'Anthropic a cités en février pour avoir potentiellement utilisé ses données d'entraînement sans autorisation. En parallèle, Hermes Agent, la pile d'agents open source la plus en vue du moment, a dépassé 100 000 étoiles sur GitHub en moins de deux mois, détrônant OpenClaw en croissance hebdomadaire. L'ensemble du tableau suggère que les modèles ouverts, portés par des labs asiatiques bien dotés, ne jouent plus dans une catégorie inférieure aux modèles propriétaires occidentaux.

UELes développeurs européens peuvent désormais déployer localement un modèle open-weight de niveau frontier, réduisant leur dépendance aux API propriétaires américaines soumises au Cloud Act.

LLMsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour