Aller au contenu principal
LLMsLe Big Data1h

Fin de GPT-5.4 et Gemini 3.1 ? Meta mise tout sur Muse Spark

1 source couvre ce sujet·Source originale ↗·

Meta a officiellement lancé Muse Spark ce mercredi 8 avril 2026, neuf mois après la création discrète des Meta Superintelligence Labs, une structure restée secrète depuis sa fondation. Contrairement aux versions précédentes de Llama, Muse Spark est présenté comme un modèle de raisonnement multimodal natif, capable d'utiliser des outils, d'orchestrer plusieurs agents autonomes en simultané et d'analyser des contenus visuels via une chaîne de pensée visuelle. Le modèle intègre un mode baptisé "Contemplating", qui permet à l'IA de vérifier ses propres conclusions avant d'agir. Il est disponible dès aujourd'hui en aperçu privé via API sur meta.ai et dans les applications du groupe. Zuckerberg a évoqué une ouverture future du code source, sans donner de date précise.

L'impact potentiel de Muse Spark touche à la fois le grand public et des secteurs sensibles comme la santé. L'IA est conçue pour exécuter des tâches concrètes à la place de l'utilisateur, par exemple identifier des pièces défectueuses sur un appareil filmé en temps réel et afficher des instructions de réparation directement à l'écran. Sur le volet médical, Meta affirme avoir entraîné le modèle avec la contribution de mille médecins experts, permettant à l'IA d'analyser des symptômes ou des habitudes alimentaires pour formuler des conseils de nutrition. Cette ambition de transformer WhatsApp en interface de conseil médical soulève des questions importantes pour les régulateurs du monde entier, notamment sur la responsabilité en cas d'erreur et la protection des données de santé.

Ce lancement s'inscrit dans une course frontale à la superintelligence qui oppose désormais Meta à OpenAI et Google. Depuis plusieurs trimestres, Zuckerberg multiplie les investissements massifs en infrastructures et en recrutement de chercheurs d'élite pour combler le retard accumulé face à GPT-5 et Gemini. La création des Meta Superintelligence Labs dans la discrétion témoigne d'une volonté de structurer la recherche avancée en dehors des divisions existantes. La capacité d'orchestration multi-agents de Muse Spark place Meta directement en concurrence avec les systèmes agentiques développés par Google DeepMind et les projets d'OpenAI autour des agents autonomes. Les prochaines semaines seront déterminantes : l'accès public à l'API permettra aux développeurs d'évaluer les performances réelles du modèle, au-delà des démonstrations contrôlées, et de mesurer si Meta tient ses promesses face aux standards déjà établis par ses rivaux.

Impact France/UE

L'intégration de conseils médicaux via WhatsApp soulève des enjeux majeurs de protection des données de santé sous le RGPD, susceptibles d'entraîner une intervention des régulateurs européens dont la CNIL.

À lire aussi

1AWS ML Blog 

Personnalisez les modèles Amazon Nova avec l'affinage Amazon Bedrock

Amazon a annoncé que ses modèles Nova sont désormais personnalisables via Amazon Bedrock grâce à trois techniques de fine-tuning : le supervised fine-tuning (SFT), qui entraîne le modèle sur des exemples étiquetés entrée-sortie ; le reinforcement fine-tuning (RFT), qui oriente l'apprentissage à l'aide d'une fonction de récompense ; et la distillation de modèle, qui transfère les connaissances d'un grand modèle vers un modèle plus petit et plus rapide. Contrairement au prompt engineering ou au RAG, ces techniques intègrent les nouvelles connaissances directement dans les poids du modèle, plutôt que de les fournir à chaque requête via le contexte. Le processus est entièrement géré par AWS : il suffit de déposer ses données sur Amazon S3 et de lancer le job depuis la console, le CLI ou l'API, sans expertise en machine learning requise. Les modèles personnalisés fonctionnent en invocation à la demande, ce qui signifie que l'on paie uniquement à l'appel, au tarif standard, sans avoir à réserver de capacité dédiée (Provisioned Throughput). L'enjeu est significatif pour les entreprises qui déploient l'IA à grande échelle. Le fine-tuning permet d'atteindre une précision supérieure sur des tâches spécifiques, avec une inférence plus rapide et un coût en tokens réduit. Là où le RAG ou le prompt engineering forcent le modèle à relire des instructions à chaque appel, un modèle fine-tuné a internalisé ces connaissances : il gère mieux les formulations inédites, les cas limites, et les raisonnements complexes. Cas d'usage concrets : maintenir un ton de marque cohérent dans les communications clients, gérer des workflows métier spécifiques à un secteur, ou classifier les intentions dans un système de réservation aérienne à fort volume. Des modèles plus petits et moins coûteux peuvent ainsi atteindre les performances de modèles bien plus grands, mais uniquement dans leur domaine d'entraînement. Amazon Bedrock s'inscrit dans une compétition intense entre les grands fournisseurs cloud pour offrir des outils de personnalisation des LLMs sans friction technique. Google Vertex AI et Azure AI Studio proposent des capacités similaires, mais AWS mise sur l'intégration native avec son écosystème S3/IAM et sur la simplicité du déclenchement via API. Le fine-tuning reste pertinent dans un scénario précis : tâche bien définie, volume élevé, exemples étiquetés disponibles ou fonction de récompense constructible. Pour des besoins plus dynamiques ou évolutifs, le RAG conserve ses avantages. La prochaine étape probable pour Bedrock sera l'extension de ces capacités à d'autres modèles tiers disponibles sur la plateforme, au-delà des modèles propriétaires Nova.

UELes entreprises européennes utilisant AWS peuvent désormais affiner les modèles Nova directement via Bedrock sans expertise ML, réduisant la barrière technique à la personnalisation de LLMs en production.

LLMsOutil
1 source
2VentureBeat AI 

Meta lance Muse Spark, son premier modèle IA propriétaire depuis la création des Superintelligence Labs

Meta a lancé ce mercredi un nouveau modèle d'intelligence artificielle propriétaire baptisé Muse Spark, marquant un tournant radical dans la stratégie de l'entreprise. Présenté comme "le modèle le plus puissant jamais publié par Meta" selon Alexandr Wang, directeur de l'IA de 29 ans et ancien co-fondateur de Scale AI recruté par Mark Zuckerberg, Muse Spark inaugure une nouvelle famille de modèles et intègre des capacités inédites : raisonnement visuel natif, utilisation d'outils, et orchestration multi-agents. Contrairement aux modèles Llama qui ont fait la réputation de Meta depuis 2023, Muse Spark est entièrement propriétaire, disponible uniquement via l'application Meta AI, son site web, et une "API privée en accès limité" pour des utilisateurs sélectionnés. Aucun tarif n'a encore été communiqué. Sur les benchmarks, le mode "Contemplating", qui orchestre plusieurs sous-agents en parallèle pour raisonner simultanément, affiche 58 % sur "Humanity's Last Exam" et 38 % sur "FrontierScience Research", des résultats que Meta présente comme une validation de sa nouvelle trajectoire de développement. Autre performance notable : le modèle atteint ces capacités de raisonnement avec plus de dix fois moins de puissance de calcul que Llama 4 Maverick, grâce à une technique appelée "thought compression" qui pénalise le modèle lors de l'apprentissage par renforcement lorsqu'il consomme trop de tokens de raisonnement. Ce lancement représente un changement de cap majeur pour une entreprise qui avait bâti une communauté massive, littéralement des milliards d'utilisateurs et des milliers de développeurs, sur l'ouverture de ses modèles Llama. Le passage au propriétaire risque de provoquer des remous dans cet écosystème, notamment parmi les développeurs actifs sur des communautés comme r/LocalLLaMA. Sur le plan technique, Muse Spark n'est pas une mise à jour incrémentale : il a été conçu dès la base pour intégrer nativement la vision et le texte, ce qui lui permet d'analyser des environnements dynamiques, corriger la posture d'un utilisateur via une vidéo en temps réel, ou identifier les composants d'une machine à expresso complexe. Cette architecture multimodale native le positionne directement face à Gemini Deep Think de Google et GPT-5.4 Pro d'OpenAI sur le segment des modèles de raisonnement avancé, un marché en pleine intensification. Le contexte de ce lancement est celui d'une crise interne surmontée à marche forcée. Le déploiement chaotique de Llama 4 au printemps 2025, entaché d'accusations de manipulation de benchmarks, avait conduit Zuckerberg à restructurer entièrement les opérations IA de Meta durant l'été 2025, avec la création de Meta Superintelligence Labs (MSL) confiée à Wang. Muse Spark est le premier résultat public de cette nouvelle organisation. Il incarne également la vision de "superintelligence personnelle" que Zuckerberg avait exposée dans un manifeste public l'été dernier, une IA qui ne traite pas seulement du texte mais "voit et comprend le monde autour de vous". La question qui reste ouverte, et que Meta n'a pas encore tranchée publiquement, est celle de l'avenir de la famille Llama : abandon définitif, développement parallèle, ou repositionnement sur un segment différent ? La réponse engagera la confiance d'une communauté open source que Meta a mis trois ans à construire.

UELe virage propriétaire de Meta fragilise les entreprises et chercheurs européens qui s'appuyaient sur Llama pour des déploiements locaux souverains, accentuant leur dépendance aux infrastructures américaines.

LLMsOpinion
1 source
Meta revient dans la course à l'IA avec un nouveau modèle appelé "Muse Spark
3The Verge AI 

Meta revient dans la course à l'IA avec un nouveau modèle appelé "Muse Spark

Meta Superintelligence Labs lance son premier modèle d'intelligence artificielle depuis la refonte massive des ambitions IA de Mark Zuckerberg, qui a investi des milliards dans ce virage stratégique. Baptisé Muse Spark, ce modèle alimente désormais l'application Meta AI et le site meta.ai aux États-Unis. Dans les prochaines semaines, il sera intégré à WhatsApp, Instagram, Facebook, Messenger et les lunettes connectées de Meta, avec un déploiement progressif dans d'autres pays. Une version privée sera également mise à disposition de certains partenaires sélectionnés par l'entreprise. Muse Spark représente le premier modèle d'une nouvelle série et positionne Meta comme un concurrent direct de Google Gemini sur le terrain de l'intégration native dans un écosystème produit. Comme Google l'a fait avec ses propres services, Meta parie sur une IA "conçue spécifiquement pour ses produits", ce qui lui permet de toucher instantanément plusieurs milliards d'utilisateurs actifs sur ses plateformes. Cette intégration transversale donne à Meta un avantage de distribution considérable face aux modèles indépendants comme GPT-4o ou Claude. Ce lancement intervient après des mois de restructuration interne chez Meta, marqués par la création de Meta Superintelligence Labs et le recrutement agressif de chercheurs de pointe. Zuckerberg avait publiquement reconnu que Meta accusait un retard sur OpenAI et Google dans la course aux modèles frontier. Muse Spark est la réponse directe à cette lacune, avec l'ambition de transformer les milliards d'interactions quotidiennes sur les applications Meta en terrain d'apprentissage et de déploiement à grande échelle.

UELe déploiement progressif de Muse Spark sur WhatsApp, Instagram et Facebook touchera des centaines de millions d'utilisateurs européens dans les prochaines semaines.

💬 Meta joue pas dans la même cour que les labos de recherche pure, et ça tombe bien parce qu'ils jouent un autre jeu. Intégrer un modèle maison dans WhatsApp, Instagram et les Ray-Ban d'un coup, c'est une approche que même Google galère encore à coordonner à cette échelle. Si Muse Spark est juste "bon", la distribution fait le reste.

LLMsActu
1 source
Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch
4Frandroid 

Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch

Une développeuse a réussi à faire tourner Gemma 4, le modèle d'intelligence artificielle open source de Google, directement sur une Nintendo Switch, sans connexion à un serveur distant. L'exploit repose sur la version la plus compacte du modèle, publiée par Google en avril 2025 dans le cadre de sa gamme Gemma 4, qui décline plusieurs tailles allant de 1 à 27 milliards de paramètres. C'est la variante 1B, soit un milliard de paramètres, qui a été portée sur la console de Nintendo, dont le matériel repose sur une puce NVIDIA Tegra X1 et 4 Go de RAM partagée. Cet accomplissement illustre la progression rapide de la miniaturisation des modèles de langage et leur capacité à s'exécuter sur du matériel grand public, bien loin des serveurs GPU qui équipent habituellement ce type de charge de travail. Pour les développeurs embarqués et les constructeurs d'appareils connectés, cela ouvre des perspectives concrètes : intégrer des capacités d'inférence locale dans des terminaux à faible consommation, sans dépendance au cloud et sans coût de bande passante. Google a lancé la famille Gemma comme alternative ouverte à ses modèles propriétaires Gemini, ciblant explicitement les usages sur appareil. La Switch, conçue en 2017, n'était évidemment pas pensée pour l'IA générative, ce qui rend la démonstration d'autant plus symbolique. Elle s'inscrit dans une tendance plus large de course à l'efficience, où des acteurs comme Meta avec Llama, Microsoft avec Phi ou Apple avec ses modèles on-device cherchent tous à repousser les limites du possible sur silicium contraint.

LLMsActu
1 source