Aller au contenu principal
Apple peut « distiller » le grand modèle Gemini de Google
LLMsThe Information AI6sem

Apple peut « distiller » le grand modèle Gemini de Google

Résumé IASource uniqueImpact UE
Source originale ↗·

Le partenariat entre Apple et Google autour de l'intelligence artificielle se révèle bien plus profond qu'anticipé. Selon une source directement informée de l'accord, Apple dispose d'un accès complet au modèle Gemini de Google dans ses propres centres de données — et pas seulement d'une capacité à le peaufiner à la marge.

Concrètement, cet accès permet à Apple de procéder à ce que les ingénieurs appellent la distillation : une technique qui consiste à extraire les connaissances d'un grand modèle pour produire des versions compactes, optimisées pour des tâches précises ou suffisamment légères pour tourner directement sur les appareils Apple. L'enjeu est stratégique — exécuter des modèles on-device réduit la latence, protège la vie privée des utilisateurs et réduit la dépendance aux serveurs cloud, une ressource sous haute tension.

Ce niveau d'accès dépasse ce qui avait été rapporté jusqu'ici. Il ne s'agit plus simplement d'un droit de fine-tuning sur une version bridée de Gemini, mais d'une intégration profonde de la technologie Google dans l'infrastructure Apple. Cela laisse entendre que Siri et les fonctionnalités Apple Intelligence promises depuis plusieurs mois pourraient s'appuyer sur des modèles dérivés de Gemini, taillés sur mesure pour les usages mobiles et embarqués.

Ce partenariat prend une dimension particulière dans le contexte actuel : OpenAI procède simultanément à une réorganisation majeure et abandonne Sora, son outil de génération vidéo, jugé trop gourmand en ressources serveur. La compétition pour les infrastructures GPU est intense, et la capacité d'Apple à internaliser la distillation de modèles lui confère un avantage opérationnel non négligeable face à ses concurrents.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google lance la famille de modèles ouverts Gemma 4
1AI Business 

Google lance la famille de modèles ouverts Gemma 4

Google a lancé Gemma 4, une nouvelle famille de modèles d'IA open source conçue pour le raisonnement avancé et les capacités multimodales. Héritière de la série Gemma, cette offre s'inscrit dans la stratégie de Google DeepMind de proposer des modèles accessibles aux développeurs et chercheurs, utilisables localement ou dans le cloud. La famille comprend plusieurs variantes de tailles différentes, adaptées à des usages allant des appareils mobiles aux serveurs de production. L'arrivée de Gemma 4 renforce l'arsenal open source disponible pour les équipes techniques qui ne veulent pas dépendre exclusivement de modèles propriétaires via API. Les capacités multimodales — traitement combiné de texte et d'images — ouvrent la voie à des applications concrètes dans l'analyse documentaire, la vision par ordinateur et les assistants enrichis. Pour les entreprises soucieuses de confidentialité ou de coûts d'inférence, un modèle performant déployable en local représente un avantage opérationnel direct. Google s'inscrit ainsi dans une compétition ouverte avec Meta (LLaMA), Mistral et d'autres acteurs qui misent sur l'open source pour gagner l'adhésion des développeurs. La série Gemma, lancée début 2024, avait déjà rencontré un accueil favorable grâce à ses performances compétitives à taille réduite. Avec Gemma 4, Google cherche à consolider sa position dans cet écosystème, alors que le débat entre modèles ouverts et fermés reste central dans l'industrie de l'IA.

UELes équipes techniques et entreprises européennes disposent d'une nouvelle famille open source déployable en local, réduisant la dépendance aux APIs propriétaires et facilitant la conformité RGPD.

LLMsOpinion
1 source
Gemini 3.1 Flash Live est le modèle vocal IA le plus naturel de Google à ce jour
2The Decoder 

Gemini 3.1 Flash Live est le modèle vocal IA le plus naturel de Google à ce jour

Google a dévoilé Gemini 3.1 Flash Live, son nouveau modèle vocal conçu pour des conversations en temps réel plus naturelles et plus fluides. Annoncé en mars 2026, ce modèle s'inscrit dans la gamme Flash, orientée vers la rapidité et l'efficacité. Les développeurs disposent d'un curseur permettant d'arbitrer entre qualité vocale et vitesse de réponse selon les besoins de leur application. La tarification reste alignée sur celle de Gemini 2.5, sans surcoût pour cette nouvelle génération. Ce lancement représente une avancée notable dans la course à la voix conversationnelle naturelle. Pour les développeurs d'assistants vocaux, d'applications de service client ou d'interfaces mains libres, disposer d'un modèle à la fois rapide et naturel à coût constant constitue un argument concret. La fluidité perçue de l'IA vocale est aujourd'hui un facteur décisif dans l'adoption par le grand public. Google intensifie ainsi la compétition face à OpenAI et ses modèles vocaux en temps réel, intégrés à ChatGPT, ainsi qu'à d'autres acteurs comme ElevenLabs. La stratégie Flash — modèles légers, rapides, peu coûteux — s'impose comme une approche clé pour démocratiser l'IA dans des usages à fort volume. Les prochaines versions pourraient continuer à affiner ce compromis vitesse/qualité, un équilibre qui deviendra central dans les interfaces conversationnelles de demain.

LLMsActu
1 source
Grâce à Lyria 3 Pro, l’IA Gemini de Google peut maintenant créer de la musique de 3 minutes
3Presse-citron 

Grâce à Lyria 3 Pro, l’IA Gemini de Google peut maintenant créer de la musique de 3 minutes

Google a dévoilé Lyria 3 Pro, une version améliorée de son modèle de génération musicale par intelligence artificielle, quelques semaines seulement après le lancement de Lyria 3 en février 2026. Cette nouvelle itération est intégrée directement dans Gemini et réservée aux abonnés de la formule payante. Sa capacité principale : générer des morceaux de musique pouvant atteindre trois minutes, une durée bien supérieure à ce que proposaient les versions précédentes. Cette avancée est significative pour les créateurs de contenu, les musiciens amateurs et les professionnels cherchant à produire rapidement de la musique originale. Passer de courts extraits à des compositions de trois minutes ouvre la porte à des usages concrets : bandes originales, jingles, musiques d'ambiance pour vidéos ou podcasts. La qualité et la durée combinées font de Lyria 3 Pro un outil potentiellement compétitif face aux solutions dédiées comme Suno ou Udio. Google s'inscrit dans une course effrénée à la génération audio par IA, un segment en pleine expansion où OpenAI, Meta et plusieurs startups investissent massivement. En ancrant Lyria 3 Pro dans l'écosystème Gemini, Google mise sur la fidélisation de ses abonnés premium tout en consolidant sa position dans la création de contenu multimodal, après ses ambitions affichées dans l'image et la vidéo avec Imagen et Veo.

LLMsActu
1 source
Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch
4Frandroid 

Gemma 4 : le nouveau modèle d’IA de Google s’invite sur Nintendo Switch

Une développeuse a réussi à faire tourner Gemma 4, le modèle d'intelligence artificielle open source de Google, directement sur une Nintendo Switch, sans connexion à un serveur distant. L'exploit repose sur la version la plus compacte du modèle, publiée par Google en avril 2025 dans le cadre de sa gamme Gemma 4, qui décline plusieurs tailles allant de 1 à 27 milliards de paramètres. C'est la variante 1B, soit un milliard de paramètres, qui a été portée sur la console de Nintendo, dont le matériel repose sur une puce NVIDIA Tegra X1 et 4 Go de RAM partagée. Cet accomplissement illustre la progression rapide de la miniaturisation des modèles de langage et leur capacité à s'exécuter sur du matériel grand public, bien loin des serveurs GPU qui équipent habituellement ce type de charge de travail. Pour les développeurs embarqués et les constructeurs d'appareils connectés, cela ouvre des perspectives concrètes : intégrer des capacités d'inférence locale dans des terminaux à faible consommation, sans dépendance au cloud et sans coût de bande passante. Google a lancé la famille Gemma comme alternative ouverte à ses modèles propriétaires Gemini, ciblant explicitement les usages sur appareil. La Switch, conçue en 2017, n'était évidemment pas pensée pour l'IA générative, ce qui rend la démonstration d'autant plus symbolique. Elle s'inscrit dans une tendance plus large de course à l'efficience, où des acteurs comme Meta avec Llama, Microsoft avec Phi ou Apple avec ses modèles on-device cherchent tous à repousser les limites du possible sur silicium contraint.

LLMsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour