Aller au contenu principal
Tout savoir sur NemoClaw, le futur concurrent d’OpenClaw signé Nvidia
LLMsFrandroid7sem

Tout savoir sur NemoClaw, le futur concurrent d’OpenClaw signé Nvidia

Résumé IASource uniqueImpact UE
Source originale ↗·

Nvidia lance NemoClaw, son propre clone d'OpenClaw, après que Jensen Huang avait qualifié OpenClaw de logiciel « le plus important de l'histoire ». Le PDG de Nvidia confirme ainsi l'entrée directe de la firme en concurrence frontale avec OpenClaw. Aucun détail technique supplémentaire n'est disponible dans l'article.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Nvidia craque pour OpenClaw
1Ben's Bites 

Nvidia craque pour OpenClaw

Nvidia prévoit de générer plus de 1 000 milliards de dollars de ventes via ses puces IA phares d'ici fin 2027, et a lancé NemoClaw, une stack open source ajoutant des contrôles de confidentialité et sécurité à OpenClaw. OpenAI annonce que Codex dépasse 2 millions d'utilisateurs actifs hebdomadaires et que l'usage de son API a augmenté de 20 % depuis la sortie de GPT-5.4, tandis que Manus (récemment acquis par Meta) a lancé une application desktop concurrente mais avec des résultats décevants lors des tests. La fenêtre de contexte d'un million de tokens de Claude est désormais disponible en général.

UELe lancement de NemoClaw avec contrôles de confidentialité et sécurité pourrait faciliter l'adoption des outils Nvidia dans les entreprises européennes soumises au RGPD.

LLMsActu
1 source
Google Gemma 4, NVIDIA et OpenClaw s'attaquent au coût des tokens pour les agents IA en local, du RTX au DGX Spark
2MarkTechPost 

Google Gemma 4, NVIDIA et OpenClaw s'attaquent au coût des tokens pour les agents IA en local, du RTX au DGX Spark

Google a lancé la famille de modèles Gemma 4, une nouvelle génération de modèles d'intelligence artificielle open source conçus pour fonctionner localement sur du matériel grand public. Développés en collaboration avec NVIDIA, ces modèles se déclinent en quatre variantes — E2B, E4B, 26B et 31B paramètres — et couvrent un spectre allant des modules embarqués Jetson Orin Nano aux stations de travail RTX, en passant par le DGX Spark, le superordinateur personnel d'IA récemment annoncé par NVIDIA. Ils supportent nativement l'appel de fonctions pour les agents autonomes et acceptent des entrées multimodales mêlant texte et images dans un même prompt. Sur un RTX 5090, les gains de performance atteignent 2,7 fois ceux obtenus sur un Mac M3 Ultra avec llama.cpp, selon les mesures publiées par NVIDIA. L'enjeu central de cette annonce est ce que les développeurs appellent la "token tax" — le coût financier cumulatif engendré par chaque requête envoyée à un modèle cloud comme GPT-4o ou Gemini. Pour une application d'IA toujours active, qui traite en continu des fichiers, des fenêtres d'applications ou des flux de capteurs, ces coûts deviennent rapidement prohibitifs. En exécutant Gemma 4 localement sur un GPU NVIDIA, le coût marginal par inférence tombe à zéro. Des plateformes comme OpenClaw, qui permettent de construire des assistants IA personnels fonctionnant en permanence sur des PC RTX, bénéficient directement de cette combinaison : débit élevé, latence faible, et aucune dépendance à une connexion ou à un abonnement cloud. Cette évolution s'inscrit dans une tendance de fond qui voit les grands laboratoires — Google, Meta, Mistral — publier des modèles compacts capables de rivaliser avec des systèmes bien plus lourds, à mesure que les techniques de distillation et de quantification progressent. NVIDIA, dont la domination sur les GPU d'entraînement est bien établie, cherche à étendre son emprise sur le marché de l'inférence locale, notamment avec le DGX Spark positionné comme outil de développement personnel haut de gamme. La disponibilité de modèles comme Gemma 4 optimisés pour son écosystème renforce cette stratégie. Les prochains mois verront probablement une multiplication d'applications agentiques locales, portées par cette convergence entre modèles ouverts performants et matériel grand public suffisamment puissant pour les faire tourner sans compromis.

UELa disponibilité de modèles open source performants réduit la dépendance des entreprises et développeurs européens aux API cloud payantes, facilitant la conformité RGPD via le traitement local des données.

LLMsOpinion
1 source
Mistral mise sur l'IA sur mesure pour concurrencer OpenAI et Anthropic dans l'entreprise
3TechCrunch AI 

Mistral mise sur l'IA sur mesure pour concurrencer OpenAI et Anthropic dans l'entreprise

Mistral lance Mistral Forge, une plateforme permettant aux entreprises d'entraîner des modèles d'IA personnalisés à partir de zéro sur leurs propres données. Cette approche se distingue de celle d'OpenAI et Anthropic, qui misent davantage sur le fine-tuning et les méthodes basées sur la récupération d'information. Mistral positionne ainsi cette offre comme une alternative plus flexible et souveraine pour le marché enterprise.

UEMistral, entreprise française, renforce la souveraineté numérique européenne en proposant aux entreprises une alternative locale pour entraîner des modèles IA sur leurs propres données.

LLMsOutil
1 source
[AINews] NVIDIA GTC : Jensen met le paquet sur OpenClaw et Vera CPU et annonce 1 000 milliards de dollars de commandes pour 2027
4Latent Space 

[AINews] NVIDIA GTC : Jensen met le paquet sur OpenClaw et Vera CPU et annonce 1 000 milliards de dollars de commandes pour 2027

Au GTC de NVIDIA, Jensen Huang a présenté les architectures Blackwell et Rubin en forte croissance, dévoilé le CPU Vera, et annoncé un carnet de commandes estimé à 1 000 milliards de dollars pour 2027, tout en lançant NemoClaw comme réponse aux failles de sécurité d'OpenClaw. En parallèle, Moonshot (Kimi) a publié un papier sur les "Attention Residuals" promettant un avantage de calcul de 1,25x avec moins de 2 % de surcoût à l'inférence, validé sur le modèle Kimi Linear 48B, bien que la nouveauté de l'approche soit débattue. Du côté d'OpenAI, Codex dépasse 2 millions d'utilisateurs actifs hebdomadaires (+4x depuis janvier), tandis que GPT-5.4 a atteint 5 000 milliards de tokens par jour et un milliard de dollars de revenus annualisés en une semaine.

UELes laboratoires et entreprises européens déployant des infrastructures IA devront intégrer les nouvelles architectures NVIDIA (Vera CPU, Rubin) dans leur feuille de route hardware, avec des implications budgétaires majeures sur les prochains cycles d'investissement.

LLMsActu
1 source