Aller au contenu principal
Apple obtient un accès complet à Gemini et utilise la distillation pour créer une IA légère embarquée
LLMsThe Decoder2h

Apple obtient un accès complet à Gemini et utilise la distillation pour créer une IA légère embarquée

1 source couvre ce sujet·Source originale ↗·

Apple a conclu un accord avec Google lui donnant un accès complet aux modèles Gemini, qu'elle utilise comme source pour entraîner par distillation des modèles d'intelligence artificielle plus légers, destinés à tourner directement sur ses appareils et à alimenter Siri. Cette technique de distillation consiste à transférer les capacités d'un grand modèle vers un modèle plus compact, en exploitant les sorties du modèle « professeur » comme signal d'entraînement.

Ce que cette démarche révèle, c'est qu'Apple paie officiellement pour ce que certaines entreprises chinoises sont accusées de faire en secret : utiliser les outputs de modèles frontier concurrents pour améliorer leurs propres systèmes. En passant par un accord commercial formel avec Google, Apple contourne les zones grises éthiques et légales tout en accédant à l'une des meilleures bases de distillation disponibles.

Cette stratégie s'inscrit dans la course que se livrent les grands acteurs tech pour embarquer de l'IA capable sur l'appareil, sans dépendre d'un cloud coûteux et en préservant la confidentialité des données. Pour Apple, qui a pris du retard sur l'IA générative, le partenariat avec Google — déjà présent via le moteur de recherche par défaut — offre un raccourci stratégique pour rattraper OpenAI et Meta sur le terrain de l'IA embarquée.

Impact France/UE

Les utilisateurs européens d'appareils Apple bénéficieront indirectement d'une IA embarquée plus performante sur Siri, sans impact réglementaire direct sur la France ou l'UE.

À lire aussi

1Ars Technica AI 

Le lancement de Gemini 3.1 Flash Live pourrait rendre encore plus difficile de savoir si vous parlez à un robot

Google a lancé ce jeudi un nouveau modèle audio baptisé Gemini 3.1 Flash Live, conçu pour les conversations en temps réel. Le déploiement a démarré immédiatement dans certains produits Google, et les développeurs peuvent dès aujourd'hui l'intégrer dans leurs propres applications vocales. Selon Google, ce modèle produit une parole plus naturelle, avec un rythme et une intonation plus proches de ceux d'un humain. Sur les benchmarks publiés par l'entreprise, Gemini 3.1 Flash Live se distingue notamment sur le ComplexFuncBench Audio — test mesurant la capacité à enchaîner des tâches complexes en plusieurs étapes — et domine le classement du Big Bench Audio, une évaluation de raisonnement portant sur 1 000 questions audio. La principale promesse du modèle est de réduire la latence perçue dans les échanges vocaux avec une IA. Les chercheurs s'accordent généralement pour dire que 300 millisecondes représentent le seuil au-delà duquel une conversation commence à paraître artificielle ou laborieuse. Google ne communique pas de chiffre précis à ce sujet, mais affirme que le modèle atteint la vélocité nécessaire à un dialogue fluide. C'est un enjeu concret : une réponse trop lente ou une intonation robotique brise l'immersion et rend les interfaces vocales difficiles à utiliser au quotidien. Pour les développeurs qui construisent des assistants vocaux, des agents téléphoniques ou des outils d'accessibilité, cette amélioration peut significativement changer l'expérience utilisateur finale. La course à la naturalité de la voix synthétique s'intensifie depuis plusieurs années. Après avoir rendu les textes générés par IA de plus en plus difficiles à distinguer de l'écriture humaine, les grands laboratoires s'attaquent désormais à l'audio. OpenAI, ElevenLabs et d'autres acteurs avaient déjà franchi des paliers notables dans ce domaine. Avec Gemini 3.1 Flash Live, Google réaffirme ses ambitions sur ce terrain, où la frontière entre voix humaine et voix machine devient chaque jour plus ténue — ce qui soulève également des questions croissantes sur la transparence et la détection des agents IA dans les interactions quotidiennes.

UELes développeurs européens d'assistants vocaux et d'agents téléphoniques peuvent intégrer Gemini 3.1 Flash Live dès aujourd'hui via l'API Google, ouvrant la voie à des interfaces vocales IA plus naturelles sur le marché européen.

LLMsOpinion
1 source
2The Decoder 

Gemini 3.1 Flash Live est le modèle vocal IA le plus naturel de Google à ce jour

Google a dévoilé Gemini 3.1 Flash Live, son nouveau modèle vocal conçu pour des conversations en temps réel plus naturelles et plus fluides. Annoncé en mars 2026, ce modèle s'inscrit dans la gamme Flash, orientée vers la rapidité et l'efficacité. Les développeurs disposent d'un curseur permettant d'arbitrer entre qualité vocale et vitesse de réponse selon les besoins de leur application. La tarification reste alignée sur celle de Gemini 2.5, sans surcoût pour cette nouvelle génération. Ce lancement représente une avancée notable dans la course à la voix conversationnelle naturelle. Pour les développeurs d'assistants vocaux, d'applications de service client ou d'interfaces mains libres, disposer d'un modèle à la fois rapide et naturel à coût constant constitue un argument concret. La fluidité perçue de l'IA vocale est aujourd'hui un facteur décisif dans l'adoption par le grand public. Google intensifie ainsi la compétition face à OpenAI et ses modèles vocaux en temps réel, intégrés à ChatGPT, ainsi qu'à d'autres acteurs comme ElevenLabs. La stratégie Flash — modèles légers, rapides, peu coûteux — s'impose comme une approche clé pour démocratiser l'IA dans des usages à fort volume. Les prochaines versions pourraient continuer à affiner ce compromis vitesse/qualité, un équilibre qui deviendra central dans les interfaces conversationnelles de demain.

LLMsActu
1 source
3DeepMind Blog 

Gemini 3.1 Flash Live : une IA audio plus naturelle et fiable

Google a annoncé Gemini 3.1 Flash Live, son dernier modèle vocal en temps réel, conçu pour rendre les interactions audio avec l'IA plus fluides, plus naturelles et plus fiables. Ce nouveau modèle se distingue par une précision améliorée et une latence réduite par rapport à ses prédécesseurs, deux paramètres critiques pour la qualité des conversations vocales automatisées. Ces améliorations ont un impact direct pour les développeurs qui intègrent des fonctionnalités vocales dans leurs applications, ainsi que pour les utilisateurs finaux qui interagissent avec des assistants conversationnels. Une latence plus basse signifie des échanges moins saccadés, tandis qu'une meilleure précision réduit les erreurs de compréhension — des points de friction majeurs qui freinent l'adoption de l'IA vocale dans les usages quotidiens et professionnels. La course aux modèles vocaux temps réel s'est intensifiée depuis que OpenAI a lancé le mode vocal avancé de GPT-4o et que des acteurs comme ElevenLabs ou Cartesia ont multiplié les solutions de synthèse et compréhension audio à faible latence. Google positionne ainsi la famille Flash — ses modèles rapides et économiques — comme une option compétitive pour les cas d'usage nécessitant des interactions vocales en continu, comme les agents téléphoniques, les assistants embarqués ou les interfaces conversationnelles en temps réel.

4MarkTechPost 

Tencent AI publie Covo-Audio en open source : un modèle de langage vocal 7B pour la conversation audio en temps réel

Tencent AI Lab a publié Covo-Audio, un modèle de langage audio de 7 milliards de paramètres conçu pour traiter directement des entrées audio continues et générer des sorties vocales au sein d'une seule architecture unifiée. Le système repose sur quatre composants principaux : un encodeur audio basé sur Whisper-large-v3, un adaptateur qui réduit le débit de 50 Hz à 6,25 Hz, un backbone LLM fondé sur Qwen2.5-7B-Base, et un décodeur capable de reconstruire des formes d'onde haute-fidélité à 24 000 Hz. Une innovation centrale, baptisée « Hierarchical Tri-modal Speech-Text Interleaving », aligne simultanément les caractéristiques acoustiques continues, les tokens vocaux discrets et le texte en langage naturel, permettant une cohérence sémantique aussi bien au niveau des phrases que des utterances longues. L'entraînement a impliqué un pipeline en deux étapes traitant au total 2 000 milliards de tokens. Le modèle intègre également une stratégie de découplage intelligence-voix qui sépare le raisonnement dialogique du rendu vocal, minimisant ainsi le besoin de données d'entraînement spécifiques à chaque locuteur. Une variante temps-réel, Covo-Audio-Chat-FD, permet une communication en duplex intégral avec des chunks audio de 0,16 seconde et des tokens spéciaux pour gérer les interruptions et les transitions de parole. Covo-Audio représente une avancée significative vers des assistants vocaux capables de raisonner en temps réel sans passer par des pipelines séparés de reconnaissance vocale et de génération de texte. La capacité duplex intégral — où le modèle peut écouter et parler simultanément, détecter les interruptions et reprendre l'écoute instantanément — rapproche considérablement les systèmes IA d'une conversation naturelle fluide. La technique de découplage intelligence-voix est particulièrement notable sur le plan commercial : elle permet de personnaliser la voix d'un assistant avec très peu de données TTS, sans sacrifier les capacités de raisonnement, ce qui réduit drastiquement les coûts de déploiement de voix personnalisées. L'intégration du raisonnement en chaîne de pensée (Chain-of-Thought) directement dans le flux audio ouvre également la voie à des assistants vocaux capables de traiter des requêtes complexes en direct, là où les systèmes actuels se limitent souvent à des réponses factuelles simples. Ce lancement s'inscrit dans une course industrielle intense autour des modèles audio de bout en bout, avec des acteurs comme OpenAI (GPT-4o), Google (Gemini Live) et Meta qui investissent massivement dans la suppression des latences introduites par les architectures en pipeline classiques. La mise en open source de Covo-Audio par Tencent positionne le laboratoire comme un contributeur majeur à cet espace, tout en offrant à la communauté de recherche une base solide pour explorer les interactions vocales intelligentes multimodales.

UELa mise en open source de Covo-Audio offre aux développeurs et chercheurs européens un accès direct à un modèle vocal avancé sans dépendance à des API propriétaires, réduisant les coûts de déploiement d'assistants vocaux personnalisés.

LLMsOpinion
1 source