Aller au contenu principal
LLMsMarkTechPost2h

Faire tourner les modèles de raisonnement Qwen3.5 distillés façon Claude en GGUF avec quantification 4 bits

1 source couvre ce sujet·Source originale ↗·

Un tutoriel technique détaille comment exécuter les modèles Qwen3.5 distillés avec le raisonnement de style Claude en format GGUF avec quantification 4 bits, directement dans un pipeline Google Colab. L'approche permet de basculer d'une variante 27 milliards de paramètres en GGUF à une version allégée de 2 milliards de paramètres en 4 bits via un simple indicateur de configuration — rendant ces modèles accessibles même sur des GPU grand public.

L'intérêt de cette démarche réside dans la démocratisation des capacités de raisonnement avancé. Les modèles Qwen3.5 ont été distillés à partir du style de raisonnement de Claude Opus 4.6 d'Anthropic, ce qui leur confère des capacités de réflexion structurée en chaîne de pensée. La quantification Q4KM compresse le modèle 27B à environ 16,5 Go, le rendant utilisable sur des accélérateurs accessibles via des environnements cloud gratuits ou peu coûteux.

Sur le plan technique, le pipeline installe conditionnellement soit llama.cpp avec support CUDA pour la variante GGUF, soit transformers avec bitsandbytes pour la version allégée. Les deux branches sont unifiées derrière des interfaces communes generatefn et streamfn, garantissant une inférence cohérente quel que soit le backend. Une classe ChatSession gère les interactions multi-tours, tandis que des utilitaires parsent les balises <think> pour séparer explicitement le raisonnement intermédiaire de la réponse finale — exposant ainsi le processus de réflexion du modèle à l'utilisateur.

Cette approche illustre une tendance de fond : la distillation de raisonnement depuis des modèles frontier vers des architectures plus compactes, combinée aux techniques de quantification, repousse la frontière de ce qui est exécutable localement. Pour les développeurs et chercheurs disposant d'un GPU modeste, c'est une porte d'entrée concrète vers des capacités de raisonnement jusqu'ici réservées aux infrastructures cloud à grande échelle.

À lire aussi

1The Decoder 

Apple obtient un accès complet à Gemini et utilise la distillation pour créer une IA légère embarquée

Apple a conclu un accord avec Google lui donnant un accès complet aux modèles Gemini, qu'elle utilise comme source pour entraîner par distillation des modèles d'intelligence artificielle plus légers, destinés à tourner directement sur ses appareils et à alimenter Siri. Cette technique de distillation consiste à transférer les capacités d'un grand modèle vers un modèle plus compact, en exploitant les sorties du modèle « professeur » comme signal d'entraînement. Ce que cette démarche révèle, c'est qu'Apple paie officiellement pour ce que certaines entreprises chinoises sont accusées de faire en secret : utiliser les outputs de modèles frontier concurrents pour améliorer leurs propres systèmes. En passant par un accord commercial formel avec Google, Apple contourne les zones grises éthiques et légales tout en accédant à l'une des meilleures bases de distillation disponibles. Cette stratégie s'inscrit dans la course que se livrent les grands acteurs tech pour embarquer de l'IA capable sur l'appareil, sans dépendre d'un cloud coûteux et en préservant la confidentialité des données. Pour Apple, qui a pris du retard sur l'IA générative, le partenariat avec Google — déjà présent via le moteur de recherche par défaut — offre un raccourci stratégique pour rattraper OpenAI et Meta sur le terrain de l'IA embarquée.

UELes utilisateurs européens d'appareils Apple bénéficieront indirectement d'une IA embarquée plus performante sur Siri, sans impact réglementaire direct sur la France ou l'UE.

LLMsOpinion
1 source
2Ars Technica AI 

Le lancement de Gemini 3.1 Flash Live pourrait rendre encore plus difficile de savoir si vous parlez à un robot

Google a lancé ce jeudi un nouveau modèle audio baptisé Gemini 3.1 Flash Live, conçu pour les conversations en temps réel. Le déploiement a démarré immédiatement dans certains produits Google, et les développeurs peuvent dès aujourd'hui l'intégrer dans leurs propres applications vocales. Selon Google, ce modèle produit une parole plus naturelle, avec un rythme et une intonation plus proches de ceux d'un humain. Sur les benchmarks publiés par l'entreprise, Gemini 3.1 Flash Live se distingue notamment sur le ComplexFuncBench Audio — test mesurant la capacité à enchaîner des tâches complexes en plusieurs étapes — et domine le classement du Big Bench Audio, une évaluation de raisonnement portant sur 1 000 questions audio. La principale promesse du modèle est de réduire la latence perçue dans les échanges vocaux avec une IA. Les chercheurs s'accordent généralement pour dire que 300 millisecondes représentent le seuil au-delà duquel une conversation commence à paraître artificielle ou laborieuse. Google ne communique pas de chiffre précis à ce sujet, mais affirme que le modèle atteint la vélocité nécessaire à un dialogue fluide. C'est un enjeu concret : une réponse trop lente ou une intonation robotique brise l'immersion et rend les interfaces vocales difficiles à utiliser au quotidien. Pour les développeurs qui construisent des assistants vocaux, des agents téléphoniques ou des outils d'accessibilité, cette amélioration peut significativement changer l'expérience utilisateur finale. La course à la naturalité de la voix synthétique s'intensifie depuis plusieurs années. Après avoir rendu les textes générés par IA de plus en plus difficiles à distinguer de l'écriture humaine, les grands laboratoires s'attaquent désormais à l'audio. OpenAI, ElevenLabs et d'autres acteurs avaient déjà franchi des paliers notables dans ce domaine. Avec Gemini 3.1 Flash Live, Google réaffirme ses ambitions sur ce terrain, où la frontière entre voix humaine et voix machine devient chaque jour plus ténue — ce qui soulève également des questions croissantes sur la transparence et la détection des agents IA dans les interactions quotidiennes.

UELes développeurs européens d'assistants vocaux et d'agents téléphoniques peuvent intégrer Gemini 3.1 Flash Live dès aujourd'hui via l'API Google, ouvrant la voie à des interfaces vocales IA plus naturelles sur le marché européen.

LLMsOpinion
1 source
3The Decoder 

Gemini 3.1 Flash Live est le modèle vocal IA le plus naturel de Google à ce jour

Google a dévoilé Gemini 3.1 Flash Live, son nouveau modèle vocal conçu pour des conversations en temps réel plus naturelles et plus fluides. Annoncé en mars 2026, ce modèle s'inscrit dans la gamme Flash, orientée vers la rapidité et l'efficacité. Les développeurs disposent d'un curseur permettant d'arbitrer entre qualité vocale et vitesse de réponse selon les besoins de leur application. La tarification reste alignée sur celle de Gemini 2.5, sans surcoût pour cette nouvelle génération. Ce lancement représente une avancée notable dans la course à la voix conversationnelle naturelle. Pour les développeurs d'assistants vocaux, d'applications de service client ou d'interfaces mains libres, disposer d'un modèle à la fois rapide et naturel à coût constant constitue un argument concret. La fluidité perçue de l'IA vocale est aujourd'hui un facteur décisif dans l'adoption par le grand public. Google intensifie ainsi la compétition face à OpenAI et ses modèles vocaux en temps réel, intégrés à ChatGPT, ainsi qu'à d'autres acteurs comme ElevenLabs. La stratégie Flash — modèles légers, rapides, peu coûteux — s'impose comme une approche clé pour démocratiser l'IA dans des usages à fort volume. Les prochaines versions pourraient continuer à affiner ce compromis vitesse/qualité, un équilibre qui deviendra central dans les interfaces conversationnelles de demain.

LLMsActu
1 source
4DeepMind Blog 

Gemini 3.1 Flash Live : une IA audio plus naturelle et fiable

Google a annoncé Gemini 3.1 Flash Live, son dernier modèle vocal en temps réel, conçu pour rendre les interactions audio avec l'IA plus fluides, plus naturelles et plus fiables. Ce nouveau modèle se distingue par une précision améliorée et une latence réduite par rapport à ses prédécesseurs, deux paramètres critiques pour la qualité des conversations vocales automatisées. Ces améliorations ont un impact direct pour les développeurs qui intègrent des fonctionnalités vocales dans leurs applications, ainsi que pour les utilisateurs finaux qui interagissent avec des assistants conversationnels. Une latence plus basse signifie des échanges moins saccadés, tandis qu'une meilleure précision réduit les erreurs de compréhension — des points de friction majeurs qui freinent l'adoption de l'IA vocale dans les usages quotidiens et professionnels. La course aux modèles vocaux temps réel s'est intensifiée depuis que OpenAI a lancé le mode vocal avancé de GPT-4o et que des acteurs comme ElevenLabs ou Cartesia ont multiplié les solutions de synthèse et compréhension audio à faible latence. Google positionne ainsi la famille Flash — ses modèles rapides et économiques — comme une option compétitive pour les cas d'usage nécessitant des interactions vocales en continu, comme les agents téléphoniques, les assistants embarqués ou les interfaces conversationnelles en temps réel.