Aller au contenu principal
Dans l’IA, la Chine bouscule son monde avec sa stratégie open source
LLMsNext INpact47min

Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

Résumé IASource uniqueImpact UE
Source originale ↗·

Depuis fin avril 2026, deux modèles chinois occupent le sommet du classement des LLM les plus utilisés sur Open Router, la principale place de marché mondiale pour les modèles de langage : Hy3 de Tencent, fort de 295 milliards de paramètres, et Kimi K2.6 de la start-up pékinoise Moonshot AI, fondée en 2023. Claude Sonnet 4.6 et Claude Opus 4.7 d'Anthropic n'arrivent qu'en troisième et quatrième position, suivis de plusieurs versions de DeepSeek et de Gemini. Ce palmarès n'est pas un accident : la Chine a déposé 70 % des 54 000 brevets mondiaux en IA générative, et Alibaba revendiquait en mars un milliard de téléchargements cumulés pour sa famille Qwen, représentant plus de la moitié des téléchargements mondiaux de modèles open source. Kimi, lui, est accessible à environ 4 dollars le million de tokens générés, soit six à huit fois moins cher que GPT-5.5 ou Claude Opus 4.7.

Cet avantage tarifaire peut sembler négligeable pour un utilisateur individuel, mais il change radicalement l'équation pour les entreprises qui font tourner des centaines d'agents d'IA en parallèle. En rendant publics des modèles performants à faible coût, les acteurs chinois attaquent la chaîne de valeur que les géants américains ont bâtie autour de leurs APIs propriétaires. Le gouvernement de Singapour a illustré cette dynamique en novembre dernier en abandonnant Llama de Meta au profit de Qwen pour construire son modèle d'IA souverain, tandis que Taobao et Tmall intègrent déjà ces outils dans leurs services quotidiens. Pour les directions informatiques du monde entier, l'open source chinois est désormais une alternative sérieuse, pas un choix par défaut.

Cette offensive s'inscrit dans un contexte de restrictions américaines sur l'accès aux semi-conducteurs avancés, qui ont contraint la Chine à optimiser ses modèles pour des architectures matérielles moins récentes. Résultat : des systèmes plus légers, moins gourmands, et moins coûteux à l'usage. La déflagration DeepSeek, dès début 2025, avait été le premier signal fort de cette capacité d'adaptation, au point d'inquiéter Jensen Huang, le patron de Nvidia. La quatrième version de DeepSeek, conçue pour fonctionner exclusivement sur des technologies chinoises avec le soutien de Huawei, a confirmé la tendance. En mars, Anthropic a formellement dénoncé l'utilisation de comptes frauduleux par DeepSeek, Moonshot et MiniMax pour extraire massivement les capacités de Claude. Loin de la seule rivalité technologique, cette stratégie open source représente une évolution des Nouvelles Routes de la Soie vers un levier d'influence numérique mondial, où la dépendance aux modèles chinois pourrait progressivement supplanter celle aux infrastructures occidentales.

Impact France/UE

La domination chinoise sur l'open source IA place l'Europe face à un arbitrage stratégique entre adoption de modèles performants et bon marché et risque de substitution d'une dépendance américaine par une dépendance chinoise, en tension directe avec les objectifs de souveraineté numérique de l'UE.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le pari open source de la Chine
1MIT Technology Review 

Le pari open source de la Chine

Les laboratoires d'IA chinois ont adopté une stratégie radicalement différente de leurs rivaux américains : au lieu de monétiser leurs modèles derrière des API payantes, ils les publient en open-weight, c'est-à-dire sous forme de packages téléchargeables que n'importe quel développeur peut adapter et faire tourner sur ses propres serveurs. Ce tournant a pris une dimension mondiale en janvier 2025, lorsque DeepSeek a publié son modèle de raisonnement R1, qui a égalé les meilleures performances américaines à une fraction du coût annoncé. Dans la foulée, un véritable écosystème s'est structuré autour de ce modèle : Z.ai (anciennement Zhipu), Moonshot, Alibaba avec sa famille Qwen, et MiniMax ont tous suivi la même logique, en publiant des modèles de plus en plus capables. En août 2025, une étude menée par des chercheurs du MIT et de Hugging Face a établi que les modèles open-weight chinois représentaient 17,1 % des téléchargements mondiaux de modèles d'IA, dépassant pour la première fois la part américaine, fixée à 15,86 %. Les modèles Qwen d'Alibaba comptent aujourd'hui plus de variantes créées par des utilisateurs que ceux de Google et Meta réunis. L'impact de cette stratégie dépasse largement les benchmarks techniques. À mesure que l'enthousiasme autour de l'IA se tasse et que les entreprises passent des expérimentations aux déploiements concrets, les outils moins chers et plus personnalisables prennent l'avantage. Les modèles chinois permettent aux développeurs aux budgets limités d'expérimenter davantage, et le format open-weight leur donne la liberté d'adapter les modèles sans négocier de contrat commercial avec un acteur américain. Cette combinaison de prix bas et de liberté technique crée une adhérence forte : une fois qu'un écosystème se construit autour d'un modèle, comme l'ont montré Linux et Android, l'adoption se traduit naturellement en revenus API. Le Sud global, notamment Singapour, la Malaisie, le Kenya ou le Brésil, embrasse ouvertement ces outils, y voyant un chemin vers une souveraineté numérique. Derrière cette générosité apparente se cachent des calculs stratégiques précis. Sans accès aux puces de pointe bloquées par les contrôles à l'exportation américains, les laboratoires chinois compensent en ouvrant leurs modèles : plus les développeurs extérieurs contribuent et testent, plus vite le cycle d'amélioration s'accélère. Ce n'est pas sans tensions : en février 2026, Anthropic a accusé plusieurs laboratoires chinois de pratiques illicites de distillation, consistant à entraîner un nouveau modèle sur les sorties d'un autre. Les modèles chinois sont par ailleurs soumis aux exigences de censure du gouvernement de Pékin. Malgré ces limites, la dynamique est enclenchée : l'avenir de l'IA sera plus multipolaire que Silicon Valley ne l'anticipait, et rien ne semble pouvoir inverser cette tendance.

UELes modèles open-weight chinois offrent aux développeurs et entreprises européens une alternative concrète aux APIs américaines payantes, renforçant la souveraineté numérique de l'UE sans dépendance contractuelle envers les géants du Silicon Valley.

LLMsOpinion
1 source
2AI News 

Meta dispose d'un modèle IA compétitif mais perd son identité open source

Meta a lancé Muse Spark le 8 avril 2026, son premier grand modèle d'intelligence artificielle depuis un an et la première réalisation de ses nouveaux Meta Superintelligence Labs, dirigés par Alexandr Wang, débauché de Scale AI. Ce modèle multimodal natif intègre le raisonnement par chaîne de pensée visuelle, l'utilisation d'outils et l'orchestration multi-agents. Il alimente désormais Meta AI, accessible à plus de trois milliards d'utilisateurs sur les applications du groupe. Sur l'indice AI Index v4.0, Muse Spark obtient un score de 52, se classant quatrième derrière Gemini 3.1 Pro, GPT-5.4 et Claude Opus 4.6. Sa véritable singularité apparaît sur HealthBench Hard, un benchmark de questions médicales ouvertes : il y atteint 42,8 points, loin devant Gemini 3.1 Pro (20,6) et Grok 4.2 (20,3), résultat d'une collaboration avec plus de 1 000 médecins pour constituer ses données d'entraînement. Meta affirme également que le modèle atteint les performances de ses prédécesseurs pour un coût de calcul dix fois inférieur. Surtout, Muse Spark est entièrement propriétaire : pas de poids téléchargeables, pas d'accès libre, uniquement une préversion privée via API pour des partenaires sélectionnés. Ce virage est significatif pour l'ensemble de l'industrie. L'écosystème Llama avait atteint 1,2 milliard de téléchargements début 2026, soit environ un million par jour, faisant de Meta le moteur principal du mouvement open-source en IA. En choisissant de fermer Muse Spark, Meta retire aux développeurs indépendants, aux startups et aux chercheurs la capacité de construire sur sa technologie de pointe. À l'échelle de trois milliards d'utilisateurs quotidiens, la réduction des coûts de calcul change également les équilibres économiques du déploiement d'IA massive. La domination sur HealthBench ouvre en outre une perspective commerciale majeure dans un secteur où la précision médicale est un avantage concurrentiel direct. Ce changement de cap intervient après une année difficile pour Meta en matière d'IA. Le lancement de Llama 4 avait été terni par des accusations de sur-promesses non tenues, entamant la crédibilité du groupe auprès de la communauté des développeurs. En investissant 14,3 milliards de dollars et en reconstruisant intégralement son infrastructure, son architecture et ses pipelines de données en neuf mois, Meta a manifestement décidé de privilégier la performance sur l'ouverture. Wang a promis que des modèles plus grands sont en développement et que des versions open-source suivront, sans préciser d'échéance. Une partie de la communauté y voit un pivot stratégique inévitable après les déceptions de Llama 4 ; d'autres estiment que Meta a simplement attendu d'avoir quelque chose qui vaut la peine d'être protégé avant de fermer les portes.

UELes développeurs et startups européens qui construisaient sur l'écosystème Llama (1,2 milliard de téléchargements) perdent l'accès à la technologie de pointe de Meta, les forçant à réévaluer leurs stratégies d'IA et à se tourner vers des alternatives open-source moins performantes ou des API propriétaires payantes.

💬 Llama atteint 1,2 milliard de téléchargements, et c'est pile à ce moment-là que Meta décide de tout fermer. Le score médical est réel (42 points contre 20 pour Gemini, ça ne s'invente pas), mais des millions de devs qui avaient bâti sur Llama vont devoir réévaluer toute leur stack. Wang promet de l'open source "plus tard", bon.

LLMsOpinion
1 source
Ant Group publie en open source le modèle Ling-2.6-Flash avec plusieurs options de précision
3Pandaily 

Ant Group publie en open source le modèle Ling-2.6-Flash avec plusieurs options de précision

Ant Group, la filiale fintech d'Alibaba, a officiellement mis en open source son modèle Ling-2.6-Flash le 29 avril 2026, via l'équipe BaiLing spécialisée en grands modèles de langage. Le modèle compte 104 milliards de paramètres au total, dont 7,4 milliards activés à l'inférence, et est proposé en plusieurs formats de précision, BF16, FP8 et INT4, pour s'adapter à différents environnements matériels et contraintes de déploiement. Fait notable : deux semaines avant cette annonce officielle, le modèle avait été discrètement mis en ligne sur la plateforme OpenRouter sous le nom anonyme "Elephant Alpha", permettant à Ant Group de collecter des retours développeurs et d'effectuer plusieurs cycles d'optimisation, notamment sur la commutation bilingue chinois-anglais et la compatibilité avec les principaux frameworks de développement. Les performances techniques de Ling-2.6-Flash le positionnent comme un concurrent sérieux dans le segment des modèles efficaces à grande échelle. Son architecture linéaire hybride lui permet d'atteindre 340 tokens par seconde sur une configuration 4x GPU H20, avec un débit de prefill 2,2 fois supérieur à celui du Nemotron-3-Super de NVIDIA. Sur les benchmarks Artificial Analysis, il n'a consommé que 15 millions de tokens pour accomplir ses tâches, soit environ un dixième de ce que nécessite Nemotron-3-Super, un ratio coût-performance particulièrement attractif pour les équipes cherchant à déployer des agents IA à l'échelle. Sur des benchmarks spécialisés comme BFCL-V4, TAU2-bench ou SWE-bench Verified, ses résultats rivalisent avec des modèles aux paramètres actifs bien plus importants. Cette publication s'inscrit dans une stratégie d'open source agressive que mènent plusieurs grandes entreprises technologiques chinoises face à la domination américaine dans le domaine des LLM. Ant Group rejoint ainsi DeepSeek, Alibaba (Qwen) et ByteDance (Doubao) dans une course à la transparence et à l'adoption communautaire. Le choix de tester le modèle anonymement avant de le revendiquer reflète une approche plus pragmatique du lancement : valider en conditions réelles avant de s'exposer publiquement. La focalisation sur les cas d'usage agents, planification multi-étapes, utilisation d'outils, exécution de tâches complexes, indique que les prochaines batailles de l'IA ne se joueront pas sur les chatbots grand public, mais sur l'automatisation des workflows professionnels.

LLMsOpinion
1 source
Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)
4Next INpact 

Gemma 4 : Google lance une famille de quatre modèles IA en open source (Apache 2.0)

Google a lancé Gemma 4, sa nouvelle famille de modèles d'intelligence artificielle en open source, quelques jours avant le week-end de Pâques 2026. La gamme comprend quatre variantes baptisées E2B, E4B, 26B A4B et 31B, offrant respectivement 2,3, 4,5, 25,2 et 30,7 milliards de paramètres. Le modèle 26B A4B adopte une architecture Mixture of Experts (MoE), ce qui signifie que seuls 3,8 milliards de paramètres sont effectivement activés lors de chaque inférence, réduisant considérablement la puissance de calcul nécessaire. Tous les modèles sont multimodaux : ils traitent du texte et des images, les deux plus petits ajoutant la reconnaissance vocale. Les fenêtres de contexte atteignent 128 000 tokens pour les modèles E2B et E4B, et 256 000 tokens pour les deux plus grands. L'ensemble de la famille intègre un mode de raisonnement pas-à-pas, une prise en charge native des outils pour les workflows d'agents, ainsi que des capacités de génération et correction de code. La licence retenue est Apache 2.0, considérée comme l'une des plus permissives : elle autorise la modification, la distribution et l'usage commercial sans contrainte majeure, à condition de conserver les mentions de copyright. Ce changement de licence est la décision la plus significative de cette annonce. Jusqu'ici, Google publiait ses modèles Gemma sous une licence maison, les "Gemma Terms of Use", qui lui permettait de restreindre l'utilisation à sa discrétion. En passant à Apache 2.0, Google offre aux développeurs, entreprises et chercheurs une garantie juridique bien plus solide pour intégrer ces modèles dans des produits commerciaux ou des recherches sensibles. La diversité des tailles proposées, notamment les variantes à 2,3 et 4,5 milliards de paramètres, permet de faire tourner Gemma 4 directement sur des ordinateurs personnels ou des smartphones, sans envoyer de données vers des serveurs tiers. Pour les entreprises soucieuses de confidentialité ou les développeurs indépendants aux ressources limitées, c'est un argument concret et immédiat. Avec cette décision, Google rejoint un camp qui compte déjà Mistral avec son modèle 7B publié en septembre 2023, OpenAI avec gpt-oss-120b et Alibaba avec sa famille Qwen, tous distribués sous Apache 2.0. Meta reste en retrait avec ses modèles LLaMA, soumis à une licence plus restrictive. Le contexte concurrentiel est intense : le marché des modèles ouverts s'est considérablement animé ces dix-huit derniers mois, et Google cherche à s'y positionner comme un acteur sérieux face à des alternatives bien établies. L'annonce intervient également au moment où Anthropic durcit ses conditions d'accès pour les applications tierces sur ses modèles payants, un contraste saisissant qui renforce l'attrait de l'approche ouverte de Google. Les suites dépendront de l'adoption par la communauté et des benchmarks indépendants, mais la combinaison licence permissive et gamme de tailles variées donne à Gemma 4 de sérieux atouts pour s'imposer dans l'écosystème open source.

UELa licence Apache 2.0 et les variantes légères (2-4 milliards de paramètres) permettent aux entreprises et développeurs européens d'intégrer Gemma 4 dans des produits commerciaux ou de le déployer en local, un atout concret pour la conformité RGPD.

💬 La vraie nouvelle, c'est pas les 31 milliards de paramètres, c'est Apache 2.0. Google arrête de jouer avec ses licences maison qui laissaient planer un doute juridique permanent sur l'usage commercial, et ça change tout pour les boîtes qui hésitaient à s'engager. Le petit E2B à 2,3 milliards avec 128k de contexte qui tourne en local, bon, sur le papier c'est exactement ce qu'on attendait pour des usages RGPD-friendly. Reste à voir ce que les benchmarks indépendants vont donner, parce que Google sait aussi soigner ses annonces de Pâques.

LLMsOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour