Aller au contenu principal
LLMsThe Information AI2h

Alibaba lance un nouveau modèle d'IA propriétaire

1 source couvre ce sujet·Source originale ↗·

Alibaba a lancé jeudi un nouveau grand modèle de langage baptisé Qwen3.6-Plus, en mettant en avant ses capacités avancées dans le domaine des agents IA autonomes. Ce lancement marque un tournant notable pour le géant technologique chinois, qui propose cette fois un modèle en accès fermé — à l'inverse de sa stratégie habituelle. En l'espace de deux ans, Alibaba s'était imposé comme l'un des leaders mondiaux de l'open source en IA, notamment grâce à la série Qwen, largement adoptée par la communauté internationale des développeurs.

Ce changement de cap a des implications concrètes pour les milliers d'équipes techniques qui utilisaient les modèles Qwen comme base libre pour leurs propres applications. Un modèle fermé signifie moins de transparence sur l'architecture, l'impossibilité de l'héberger soi-même, et une dépendance accrue aux infrastructures cloud d'Alibaba. Pour l'industrie, c'est aussi le signal que les grandes entreprises chinoises commencent à monétiser plus agressivement leurs avancées en IA, après une phase de conquête par l'open source.

Ce virage intervient dans un contexte de compétition mondiale intense entre géants tech américains et chinois sur le terrain des modèles frontières. OpenAI, Google et Anthropic maintiennent leurs modèles les plus puissants en accès fermé ; Alibaba, Meta et Mistral avaient jusqu'ici joué la carte inverse pour gagner en adoption. Le lancement de Qwen3.6-Plus suggère qu'Alibaba estime désormais avoir suffisamment de poids pour imposer ses conditions — et que la phase gratuite de l'IA ouverte touche peut-être à sa fin pour les acteurs majeurs.

Impact France/UE

Les équipes européennes qui utilisaient les modèles Qwen comme base open source devront reconsidérer leur architecture, le passage au modèle fermé impliquant une dépendance accrue aux infrastructures cloud d'Alibaba et la perte de la liberté d'auto-hébergement.

💬 Le point de vue du dev

Alibaba qui passe au fermé, c'est un peu la fin de la récré. Pendant deux ans, la série Qwen a été une aubaine pour des milliers d'équipes qui voulaient de la puissance sans l'addition, et ceux qui ont construit dessus vont devoir revoir leurs plans. Le vrai signal ici, c'est que la phase de conquête par l'open source est terminée : Alibaba a sa base d'utilisateurs, elle la monétise.

À lire aussi

1The Decoder 

Les modèles de raisonnement GPT ont une trajectoire vers l'AGI, selon Greg Brockman d'OpenAI

Greg Brockman, cofondateur d'OpenAI, a déclaré que les modèles de raisonnement GPT offrent désormais une « ligne de vue » directe vers l'intelligence artificielle générale (AGI). Selon lui, le débat sur la capacité des modèles textuels à atteindre une intelligence générale est clos : l'architecture GPT constitue la voie vers l'AGI. Cette prise de position tranche avec des années d'incertitude dans la communauté de la recherche en IA, où beaucoup estimaient que les grands modèles de langage, aussi performants soient-ils, resteraient fondamentalement limités à des tâches spécialisées. En affirmant que le cap est désormais visible, Brockman signale qu'OpenAI considère ses modèles de raisonnement — comme o1 et o3 — non pas comme des outils, mais comme les prémices d'une intelligence véritablement générale. Cette déclaration intervient dans un contexte de compétition intense entre OpenAI, Google DeepMind, Anthropic et xAI, chacun revendiquant des avancées vers l'AGI. La question de définir précisément ce qu'est l'AGI reste toutefois ouverte, et des voix critiques dans la communauté scientifique contestent que les architectures actuelles, même dotées de capacités de raisonnement avancées, puissent y parvenir sans rupture technologique majeure.

LLMsOpinion
1 source
2Blog du Modérateur 

Mais au fait, c’est quoi la Retrieval-Augmented Generation (RAG) ?

La Retrieval-Augmented Generation (RAG) est une architecture qui combine deux composants distincts : un moteur de recherche documentaire et un modèle de langage (LLM). Concrètement, lorsqu'un utilisateur pose une question, le système commence par interroger une base de données externe pour extraire les passages les plus pertinents, puis transmet ces extraits au LLM qui les intègre dans sa réponse. Introduite dans un article de recherche de Meta en 2020, cette technique s'est imposée comme l'une des approches dominantes du déploiement d'IA en entreprise. L'enjeu est de taille : les LLMs seuls souffrent d'une connaissance figée à leur date d'entraînement et hallucinent des faits avec assurance. Le RAG corrige ces deux défauts en ancrant les réponses dans des documents vérifiables et actualisables — contrats internes, bases de connaissances, documentation technique — sans nécessiter de réentraînement du modèle. Des entreprises comme Notion, Salesforce ou Mistral AI intègrent désormais cette approche au cœur de leurs produits. Le RAG est devenu incontournable parce qu'il offre un compromis pragmatique entre coût et fiabilité : fine-tuner un modèle coûte cher et reste rigide, tandis que le RAG permet une mise à jour continue des sources. La prochaine frontière s'appelle le RAG agentique, où le système décide lui-même quelles sources interroger et en quelle séquence, rapprochant encore davantage ces architectures d'un raisonnement autonome.

UEMistral AI, entreprise française, intègre le RAG au cœur de ses produits, ce qui positionne cette architecture comme un enjeu stratégique pour l'écosystème IA européen.

LLMsTuto
1 source
3Latent Space 

[AINews] Un 1er avril sans éclat

Le 1er avril 2026, plusieurs modèles d'IA de niveau intermédiaire ont été lancés malgré la date peu propice. Le lancement le plus significatif est celui d'Arcee Trinity-Large-Thinking, un modèle open-source publié sous licence Apache 2.0 avec 400 milliards de paramètres au total et 13 milliards actifs. Conçu explicitement pour les développeurs et entreprises souhaitant l'inspecter, l'héberger ou le fine-tuner, il revendique la deuxième place sur le benchmark PinchBench — juste derrière Claude Opus 4.6 — ainsi que des performances de pointe sur Tau2-Airline et des résultats de niveau frontier dans le secteur des télécommunications. Dans la même journée, Z.ai a lancé GLM-5V-Turbo, un modèle de codage multimodal capable de traiter nativement images, vidéos, mises en page de documents et maquettes de design, grâce à une fusion multimodale native et un encodeur visuel CogViT de nouvelle génération entraîné par apprentissage par renforcement collaboratif sur plus de 30 tâches. Le laboratoire TII a de son côté publié Falcon Perception, un modèle de segmentation à vocabulaire ouvert accompagné d'un modèle OCR de 0,3 milliard de paramètres, rivalisant selon ses créateurs avec des modèles 3 à 10 fois plus grands. La journée a également été marquée par la révélation accidentelle du code source de Claude Code, l'agent de développement d'Anthropic. L'analyse technique qui a circulé sur X et Zhihu a mis en lumière une architecture volontairement minimaliste : une boucle while(true) centrale, une pile de compression de contexte à quatre niveaux, une exécution d'outils en parallèle avec flux en continu, et une architecture modulaire de plus de 40 outils sans recours aux abstractions par héritage. La fuite a également révélé des fonctionnalités inédites comme un mode AFK, un mode rapide baptisé "Penguin", et un système de gestion de budget de tâches. En parallèle, de nombreux développeurs ont signalé des ralentissements et une instabilité du service Claude ce jour-là, renforçant une frustration déjà présente dans la communauté. Ces sorties s'inscrivent dans une course intense aux modèles open-weight raisonnants et multimodaux, où les acteurs indépendants cherchent à concurrencer les laboratoires dominants sur des benchmarks précis. L'émergence d'Arcee, soutenue par Prime Intellect et Datology, illustre qu'une petite équipe peut désormais servir un modèle de 400 milliards de paramètres à des coûts de production compétitifs — un signal fort pour la démocratisation de l'IA de pointe. La fuite de Claude Code, quant à elle, alimente le débat sur la transparence architecturale dans un marché des agents de codage de plus en plus concurrentiel, où Anthropic affronte désormais des alternatives open-source crédibles sur ses propres benchmarks.

UELes modèles open-source Arcee Trinity-Large-Thinking et Falcon Perception (licence Apache 2.0) sont immédiatement accessibles aux développeurs et entreprises européennes pour auto-hébergement, réduisant la dépendance aux API propriétaires américaines.

LLMsActu
1 source
4MarkTechPost 

IBM publie Granite 4.0 3B Vision : un modèle de langage visuel pour l'extraction de données documentaires en entreprise

IBM a lancé Granite 4.0 3B Vision, un modèle de langage visuel (VLM) conçu spécifiquement pour l'extraction de données documentaires en entreprise. Contrairement aux grands modèles multimodaux monolithiques, ce modèle adopte une architecture modulaire : il se présente sous forme d'adaptateur LoRA d'environ 0,5 milliard de paramètres, conçu pour se greffer sur le modèle de base Granite 4.0 Micro (3,5 milliards de paramètres). Cette configuration permet un déploiement en « double mode » — le modèle texte fonctionne de manière autonome, et le composant visuel n'est activé qu'en cas de besoin. Pour traiter les images haute résolution, le modèle découpe les documents en tuiles de 384×384 pixels via l'encodeur visuel SigLIP2 de Google, tout en conservant une vue globale réduite de l'image. Les tokens visuels sont ensuite injectés dans le modèle de langage en 8 points d'ancrage distincts grâce à l'architecture DeepStack, assurant un alignement précis entre contenu sémantique et mise en page spatiale. En matière de performances, le modèle atteint 85,5 % de correspondance exacte en extraction de paires clé-valeur sur le benchmark VAREX (zéro-shot), et se classe troisième parmi les modèles de 2 à 4 milliards de paramètres sur ce leaderboard en mars 2026. L'enjeu principal de cette sortie est de permettre aux entreprises d'automatiser l'extraction structurée de données à partir de documents complexes — tableaux financiers, graphiques analytiques, formulaires — avec un modèle compact et déployable localement. Là où les grands modèles généralistes sacrifient la précision structurelle au profit de la polyvalence, Granite 4.0 3B Vision est entraîné spécifiquement sur la conversion de graphiques en CSV ou JSON, la reconnaissance de structures de tableaux en HTML, et l'extraction de paires clé-valeur. IBM a notamment utilisé ChartNet, un dataset multimodal à l'échelle du million d'exemples, ainsi qu'une pipeline d'entraînement « guidée par le code » qui aligne le code de génération d'un graphique, son rendu visuel et la table de données sous-jacente. Cette approche permet au modèle de comprendre la relation structurelle entre une représentation visuelle et sa source, plutôt que de simplement décrire une image. Ce lancement s'inscrit dans la stratégie d'IBM de positionner sa gamme Granite comme une alternative open-source et souveraine aux solutions propriétaires de Microsoft, Google ou Anthropic pour les usages entreprise. La tendance à l'architecture modulaire — un socle texte augmenté d'adaptateurs spécialisés — reflète une évolution plus large du secteur vers des modèles efficaces en ressources, déployables sur des infrastructures maîtrisées plutôt que dans le cloud public. Avec la prolifération des obligations réglementaires autour de la traçabilité des données (RGPD, AI Act européen), des modèles capables de traiter des documents sensibles en local représentent un avantage concurrentiel significatif. La prochaine étape pour IBM sera d'intégrer ce composant dans ses pipelines documentaires Watson et de le rendre accessible via watsonx, sa plateforme d'IA d'entreprise.

UELe déploiement local de Granite 4.0 3B Vision facilite la conformité RGPD et AI Act pour les entreprises européennes traitant des documents sensibles, en évitant tout transfert vers le cloud américain.

LLMsOpinion
1 source