Aller au contenu principal
Alibaba publie Qwen3.6-27B, un modèle dense qui surpasse le MoE 397B sur les benchmarks de codage par agents
LLMsMarkTechPost2h

Alibaba publie Qwen3.6-27B, un modèle dense qui surpasse le MoE 397B sur les benchmarks de codage par agents

1 source couvre ce sujet·Source originale ↗·

L'équipe Qwen d'Alibaba a publié Qwen3.6-27B, un modèle dense en open-weight de 27 milliards de paramètres disponible sous licence Apache 2.0 sur Hugging Face, en deux variantes : BF16 et FP8. Ce modèle se distingue notamment sur les benchmarks de codage agentique, où il surpasse des modèles bien plus imposants : il atteint 1 487 points sur QwenWebBench (génération de code frontend) contre 1 068 pour son prédécesseur Qwen3.5-27B, et 36,2 sur NL2Repo (génération de code à l'échelle d'un dépôt) contre 27,3. Sur SWE-bench Verified, référence du secteur pour les agents logiciels autonomes, il atteint 77,2, se rapprochant des 80,9 de Claude 4.5 Opus. Fait notable : ces performances dépassent celles du Qwen3.5-397B-A17B, un modèle Mixture-of-Experts quatorze fois plus grand.

L'intérêt de cette publication tient à deux innovations concrètes. La première concerne le codage agentique : le modèle a été spécifiquement optimisé pour naviguer dans de larges bases de code, modifier plusieurs fichiers simultanément et produire du code exécutable cohérent, couvrant sept catégories allant du design web à la 3D. La seconde innovation, baptisée Thinking Preservation, répond à une limite structurelle des LLM actuels : par défaut, le raisonnement intermédiaire (chain-of-thought) n'est conservé que pour le message en cours et disparaît au tour suivant. Qwen3.6-27B propose une option pour conserver et réutiliser ces traces de raisonnement sur l'ensemble d'une conversation, ce qui réduit les tokens redondants et améliore l'utilisation du cache KV dans les workflows d'agents itératifs.

Cette sortie s'inscrit dans une stratégie accélérée d'Alibaba sur les modèles ouverts : Qwen3.6-27B est le deuxième modèle de la famille Qwen3.6, après le Qwen3.6-35B-A3B (MoE à 3B paramètres actifs) lancé quelques semaines plus tôt, lui-même héritier de la série Qwen3.5. Sur le plan architectural, le modèle adopte une structure hybride originale répartie sur 64 couches : trois sublayers sur quatre utilisent Gated DeltaNet, une attention linéaire en O(n) bien plus efficace que l'attention classique quadratique O(n²), tandis qu'une couche sur quatre conserve l'attention standard. Cette conception permet de traiter de longs contextes avec un coût mémoire réduit, tout en maintenant la précision sur les tâches complexes. Compatible avec SGLang, vLLM et Hugging Face Transformers, le modèle vise directement les développeurs qui construisent des agents de codage, dans un segment où Anthropic et OpenAI restent pour l'instant en tête.

À lire aussi

OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute
1Le Big Data 

OpenAI travaille-t-il déjà sur GPT-5.5 ? Une fuite sème le doute

Le 22 avril 2026, des utilisateurs de Codex, l'environnement de développement assisté d'OpenAI, ont brièvement aperçu dans un sélecteur de modèles interne des noms inconnus : GPT-5.5, oai-2.1, et plusieurs variantes expérimentales non annoncées. L'accès a disparu en quelques minutes, mais les captures d'écran avaient déjà circulé sur X et dans les forums de développeurs. La fuite s'est produite dans un contexte particulier : OpenAI menait simultanément un test élargi dans Codex, confirmé par Rohan Varma, ingénieur de l'entreprise, touchant environ 100 % des utilisateurs, tous abonnements confondus, gratuits et payants. Sam Altman, PDG d'OpenAI, n'a pas démenti les spéculations autour d'un lancement imminent. Interrogé par un utilisateur évoquant une sortie possible dès le jeudi suivant, il a répondu par un simple emoji, sans démentir ni confirmer. Au-delà de l'anecdote, les retours techniques des développeurs ayant eu accès au modèle pendant ce court intervalle sont frappants. Plusieurs signalent une résolution de bugs front-end en quelques minutes là où GPT-4o nécessitait plusieurs heures. D'autres notent une meilleure cohérence dans la génération de code HTML et Tailwind CSS. Si ces observations restent parcellaires et non vérifiables à grande échelle, elles alimentent l'idée qu'OpenAI prépare un saut qualitatif significatif, pas seulement une mise à jour incrémentale. Pour l'industrie du développement logiciel assisté par IA, un modèle nettement plus rapide et fiable sur les tâches de code changerait concrètement les flux de travail quotidiens de millions de développeurs. La mise à disposition sur tous les plans tarifaires, si elle se confirme, représenterait également un changement de stratégie commerciale notable par rapport à la segmentation actuelle. Cette fuite s'inscrit dans une séquence d'annonces très dense côté OpenAI : ChatGPT Images 2.0 venait tout juste d'être déployé, renforçant la génération d'images précises directement dans le chat. Le rythme de publication soutenu d'OpenAI répond à une pression concurrentielle extrême. Anthropic a simultanément modifié son offre Claude Code en limitant l'accès pour certains abonnés Pro, tandis que Google, Meta et Mistral multiplient eux aussi les sorties. Dans ce contexte de course aux annonces, la communication ambiguë d'Altman, entre silence et émoji, est devenue une méthode rodée pour entretenir l'attention sans s'engager officiellement. GPT-5.5 pourrait être un modèle intermédiaire entre GPT-5 et une future version majeure, ou simplement un nom de test interne jamais destiné au public. La réponse pourrait venir dans les jours suivants, si OpenAI tient le calendrier informel que son PDG semble avoir laissé entrevoir.

UELa cadence de sorties accélérée d'OpenAI accentue la pression concurrentielle sur les acteurs européens, en particulier Mistral, cité dans l'article comme rival direct dans la course aux annonces de modèles.

LLMsOpinion
1 source
Le pari open source de la Chine
2MIT Technology Review 

Le pari open source de la Chine

Les laboratoires d'IA chinois ont adopté une stratégie radicalement différente de leurs rivaux américains : au lieu de monétiser leurs modèles derrière des API payantes, ils les publient en open-weight, c'est-à-dire sous forme de packages téléchargeables que n'importe quel développeur peut adapter et faire tourner sur ses propres serveurs. Ce tournant a pris une dimension mondiale en janvier 2025, lorsque DeepSeek a publié son modèle de raisonnement R1, qui a égalé les meilleures performances américaines à une fraction du coût annoncé. Dans la foulée, un véritable écosystème s'est structuré autour de ce modèle : Z.ai (anciennement Zhipu), Moonshot, Alibaba avec sa famille Qwen, et MiniMax ont tous suivi la même logique, en publiant des modèles de plus en plus capables. En août 2025, une étude menée par des chercheurs du MIT et de Hugging Face a établi que les modèles open-weight chinois représentaient 17,1 % des téléchargements mondiaux de modèles d'IA, dépassant pour la première fois la part américaine, fixée à 15,86 %. Les modèles Qwen d'Alibaba comptent aujourd'hui plus de variantes créées par des utilisateurs que ceux de Google et Meta réunis. L'impact de cette stratégie dépasse largement les benchmarks techniques. À mesure que l'enthousiasme autour de l'IA se tasse et que les entreprises passent des expérimentations aux déploiements concrets, les outils moins chers et plus personnalisables prennent l'avantage. Les modèles chinois permettent aux développeurs aux budgets limités d'expérimenter davantage, et le format open-weight leur donne la liberté d'adapter les modèles sans négocier de contrat commercial avec un acteur américain. Cette combinaison de prix bas et de liberté technique crée une adhérence forte : une fois qu'un écosystème se construit autour d'un modèle, comme l'ont montré Linux et Android, l'adoption se traduit naturellement en revenus API. Le Sud global, notamment Singapour, la Malaisie, le Kenya ou le Brésil, embrasse ouvertement ces outils, y voyant un chemin vers une souveraineté numérique. Derrière cette générosité apparente se cachent des calculs stratégiques précis. Sans accès aux puces de pointe bloquées par les contrôles à l'exportation américains, les laboratoires chinois compensent en ouvrant leurs modèles : plus les développeurs extérieurs contribuent et testent, plus vite le cycle d'amélioration s'accélère. Ce n'est pas sans tensions : en février 2026, Anthropic a accusé plusieurs laboratoires chinois de pratiques illicites de distillation, consistant à entraîner un nouveau modèle sur les sorties d'un autre. Les modèles chinois sont par ailleurs soumis aux exigences de censure du gouvernement de Pékin. Malgré ces limites, la dynamique est enclenchée : l'avenir de l'IA sera plus multipolaire que Silicon Valley ne l'anticipait, et rien ne semble pouvoir inverser cette tendance.

UELes modèles open-weight chinois offrent aux développeurs et entreprises européens une alternative concrète aux APIs américaines payantes, renforçant la souveraineté numérique de l'UE sans dépendance contractuelle envers les géants du Silicon Valley.

LLMsOpinion
1 source
LLMs+
3MIT Technology Review 

LLMs+

Depuis le lancement de ChatGPT fin 2022, les grands modèles de langage (LLM) ont envahi le quotidien de centaines de millions d'utilisateurs et provoqué une course effrénée dans toute l'industrie technologique. Aujourd'hui, la prochaine grande rupture se dessine déjà, et elle ne remplace pas les LLM : elle les prolonge. Ces nouveaux modèles, que l'on pourrait appeler les LLM+, sont conçus pour résoudre des problèmes complexes et multi-étapes qui prendraient des jours ou des semaines à un humain, en opérant de manière autonome sur des durées prolongées. Deux axes de progrès dominent la recherche actuelle : rendre les modèles plus efficaces et moins coûteux à faire tourner, et étendre leur capacité à traiter de grandes quantités d'information sans perdre le fil. Sur le plan de l'efficacité, plusieurs approches prometteuses émergent. Le "mixture-of-experts" consiste à fragmenter un LLM en sous-modules spécialisés, dont seule une partie est activée selon la tâche en cours, réduisant ainsi massivement la charge de calcul. D'autres chercheurs envisagent d'abandonner les transformeurs, l'architecture neuronale dominante depuis plusieurs années, au profit des modèles de diffusion, habituellement réservés à la génération d'images et de vidéos. En 2025, la startup chinoise DeepSeek a présenté une méthode d'encodage du texte dans des images pour comprimer les coûts de traitement. Ces innovations pourraient rendre les LLM accessibles à une gamme beaucoup plus large d'applications industrielles et académiques, en abaissant significativement les barrières financières à leur déploiement. L'autre défi central est celui de la fenêtre de contexte, soit la quantité d'information qu'un modèle peut traiter en une seule fois. Il y a deux ans, cette limite se situait à quelques milliers de tokens, soit une trentaine de pages. Les modèles actuels atteignent désormais le million de tokens, l'équivalent d'une pile entière de livres. Mais plus la fenêtre s'allonge, plus les modèles tendent à dériver ou à perdre leur cohérence sur des tâches longues. Une publication récente de chercheurs du MIT CSAIL propose une réponse architecturale : les LLM récursifs. Au lieu d'ingérer un contexte géant d'un seul bloc, ces modèles découpent leur entrée en fragments, les transmettent à des copies d'eux-mêmes qui peuvent elles-mêmes subdiviser et redistribuer le travail. Cette approche distribuée se révèle nettement plus fiable sur des tâches complexes et prolongées, et pourrait constituer le socle des futurs systèmes d'IA capable de travailler en autonomie sur des défis scientifiques ou organisationnels de grande envergure.

LLMsPaper
1 source
Kimi K2.6 exécute des agents pendant plusieurs jours et révèle les limites de l'orchestration d'entreprise
4VentureBeat AI 

Kimi K2.6 exécute des agents pendant plusieurs jours et révèle les limites de l'orchestration d'entreprise

Moonshot AI, le laboratoire chinois à l'origine de la famille de modèles Kimi, a lancé Kimi K2.6, un modèle conçu spécifiquement pour les agents à exécution continue. Contrairement aux systèmes concurrents, Moonshot revendique des cas d'usage internes où des agents ont fonctionné en autonomie pendant plusieurs heures, et dans un cas documenté, cinq jours d'affilée, pour gérer de la surveillance d'infrastructure et de la réponse à des incidents. Le modèle est désormais disponible sur Hugging Face, via l'API Kimi, Kimi Code et l'application Kimi. Sa principale nouveauté technique réside dans une version améliorée des "Agent Swarms", capables de coordonner jusqu'à 300 sous-agents exécutant simultanément 4 000 étapes parallèles. À la différence de Claude Code d'Anthropic ou de Codex d'OpenAI, qui s'appuient sur des rôles prédéfinis pour orchestrer leurs agents, K2.6 laisse le modèle lui-même décider de l'orchestration en temps réel. Cette évolution met en lumière une fragilité structurelle dans l'écosystème des agents IA : les frameworks d'orchestration existants ont été conçus pour des agents qui s'exécutent en quelques secondes ou minutes, pas pour des processus qui durent des jours. Maintenir l'état d'un agent sur une longue durée pose des problèmes inédits, car l'environnement dans lequel il opère ne cesse d'évoluer pendant son exécution. L'agent doit appeler des outils, des API et des bases de données différents tout au long de sa vie, ce qu'aucun framework actuel n'a été conçu pour gérer proprement. Mark Lambert, directeur produit chez ArmorCode, souligne que le déficit de gouvernance dépasse déjà le rythme de déploiement : ces systèmes génèrent du code et des changements système plus vite que la plupart des organisations ne peuvent les examiner, corriger ou auditer. La course aux agents longue durée s'inscrit dans une compétition plus large entre fournisseurs de modèles, où la capacité d'orchestration est devenue un avantage concurrentiel à part entière. Anthropic, OpenAI et désormais Moonshot AI expérimentent tous des architectures multi-sessions et d'exécution en arrière-plan, mais aucun n'a encore résolu le problème fondamental : sans mécanisme de rollback clair, un agent autonome qui échoue après plusieurs heures d'exécution peut laisser des systèmes dans un état incohérent. Kunal Anand, directeur produit chez F5, résume le défi : l'industrie est passée des scripts aux services, puis aux agents, mais le saut architectural que représentent les agents à long horizon était loin d'être anticipé par la plupart des entreprises. Le praticien Maxim Saplin l'énonce clairement : l'orchestration reste fragile, et ce n'est pas en affinant les prompts qu'on réglera le problème, mais en repensant à la fois les produits et l'entraînement des modèles.

LLMsOpinion
1 source