Aller au contenu principal
Gemini arrive enfin sur Android Auto : pourquoi certains utilisateurs détestent déjà la mise à jour
OutilsFrandroid4h

Gemini arrive enfin sur Android Auto : pourquoi certains utilisateurs détestent déjà la mise à jour

1 source couvre ce sujet·Source originale ↗·

Google déploie depuis plusieurs semaines le remplacement de Google Assistant par Gemini sur Android Auto, son système d'interface vocale pour les véhicules connectés. La transition, entamée progressivement début 2025, s'accélère désormais et touche un nombre croissant d'utilisateurs Android dans le monde. Gemini prend ainsi la main sur toutes les interactions vocales au volant : navigation, messages, appels, contrôle de la musique.

Le problème, c'est que ce remplacement génère une frustration notable chez une partie des utilisateurs. Contrairement à Google Assistant, Gemini n'est pas conçu nativement pour les contraintes de la conduite : les réponses sont parfois plus longues, moins directes, et l'intégration avec certaines applications tierces reste imparfaite. Des fonctions autrefois fluides, comme dicter un message WhatsApp ou demander un itinéraire rapide, peuvent nécessiter plus d'interactions vocales qu'avant. Pour des conducteurs qui utilisaient Android Auto justement pour sa simplicité mains-libres, c'est un recul perçu.

Ce basculement s'inscrit dans la stratégie globale de Google visant à unifier son écosystème autour de Gemini, au détriment de Google Assistant qui est progressivement abandonné sur tous les appareils. Android Auto représente un terrain sensible : l'usage en voiture exige réactivité et fiabilité, deux qualités que les LLM génératifs peinent encore à garantir de façon constante. Google devra affiner l'expérience rapidement, sous peine de voir les utilisateurs se tourner vers Siri, Alexa ou les assistants constructeurs intégrés directement dans les véhicules.

Impact France/UE

Les conducteurs européens utilisant Android Auto sont directement affectés par cette transition forcée vers Gemini, avec une dégradation temporaire de l'expérience mains-libres.

À lire aussi

Slack lance 30 nouveautés pour placer Slackbot au cœur du travail
1Le Big Data 

Slack lance 30 nouveautés pour placer Slackbot au cœur du travail

Slack a annoncé plus de 30 nouvelles fonctionnalités pour Slackbot, transformant profondément cet assistant autrefois basique en un véritable coéquipier actif au sein des organisations. Disponible dès maintenant pour les abonnements Business+ et Enterprise+ via une activation dans les paramètres administrateur, cette mise à jour s'inscrit dans la continuité des capacités "agentiques" introduites en janvier. Salesforce, propriétaire de Slack, prévoit d'élargir l'accès aux utilisateurs Free et Pro dès avril, avec un quota limité de conversations pour commencer. Parmi les nouvelles capacités concrètes : Slackbot peut écouter une réunion, prendre des notes en temps réel, afficher automatiquement une fiche client dès qu'un nom est mentionné dans la discussion, puis générer un résumé complet à la fin de l'échange. Depuis mobile, il reconnaît les commandes vocales et peut envoyer des invitations ou mettre à jour un CRM directement. Un agent desktop lui permet également d'analyser ce qui apparaît à l'écran et d'agir depuis Slack sans prise de contrôle de l'ordinateur. Un mode de recherche approfondie baptisé Deep Thoughts lui permet enfin de décomposer un problème complexe, consulter plusieurs sources et produire une synthèse structurée. Ce repositionnement de Slackbot répond à un problème identifié par Slack lui-même : les outils d'IA fonctionnent trop souvent en silo, sans offrir suffisamment de contexte opérationnel aux équipes. En intégrant l'assistant directement dans les flux de travail existants plutôt que de demander aux employés de basculer vers un outil séparé, Slack réduit le fossé entre l'analyse et l'action. Les AI Skills, ensembles d'instructions réutilisables que les équipes configurent une fois puis partagent à toute l'organisation, permettent de standardiser des tâches répétitives comme la rédaction de comptes rendus ou la synthèse d'un pipeline commercial. Pour les PME, des fonctions de gestion client permettent de mettre à jour contacts, opportunités et rapports d'appel directement depuis les conversations Slack, sans interface CRM dédiée. Slack s'inscrit dans une course que se livrent Microsoft (Copilot dans Teams), Google (Gemini dans Workspace) et désormais Salesforce pour faire de leur plateforme de collaboration le point d'entrée unique de l'IA en entreprise. L'adoption du protocole MCP — standard d'interopérabilité entre agents IA — permet à Slackbot de se connecter à Agentforce et aux applications tierces compatibles, renforçant l'écosystème Salesforce. La mémorisation progressive des habitudes utilisateur et le respect strict des permissions administrateur sont présentés comme les garanties d'un déploiement sécurisé en entreprise. La prochaine étape sera de vérifier si cet élargissement aux plans gratuits en avril convertit effectivement les utilisateurs vers les offres payantes, véritable enjeu commercial derrière cette offensive fonctionnelle.

UELes entreprises françaises et européennes utilisant Slack en abonnement Business+ ou Enterprise+ peuvent activer dès maintenant ces fonctionnalités agentiques, avec un accès élargi aux plans gratuits prévu en avril.

OutilsOutil
1 source
Cursor 3 abandonne l'IDE classique pour une interface centrée sur des flottes d'agents IA en parallèle
2The Decoder 

Cursor 3 abandonne l'IDE classique pour une interface centrée sur des flottes d'agents IA en parallèle

Cursor, l'éditeur de code dopé à l'intelligence artificielle développé par Anysphere, franchit une étape majeure avec sa version 3 en abandonnant l'interface traditionnelle des IDE au profit d'un environnement conçu dès le départ pour piloter des agents IA en parallèle. Cette refonte complète de l'interface marque un virage conceptuel : le développeur n'est plus celui qui écrit le code ligne par ligne, mais celui qui supervise des flottes d'agents autonomes travaillant simultanément sur plusieurs tâches. Ce changement de paradigme a des implications concrètes pour les équipes de développement. En permettant de lancer plusieurs agents en parallèle, Cursor 3 vise à démultiplier la productivité des ingénieurs logiciels, qui peuvent déléguer des pans entiers de l'implémentation tout en conservant le contrôle de la direction technique. L'interface n'est plus organisée autour du fichier et du curseur, mais autour des tâches en cours et des agents qui les exécutent, un renversement complet de la logique de travail habituelle. Cursor s'est imposé en quelques années comme l'un des outils les plus populaires parmi les développeurs professionnels, face à des concurrents comme GitHub Copilot ou Windsurf. Le passage à une interface "agent-first" suit la tendance générale de l'industrie, où les modèles de langage deviennent suffisamment fiables pour gérer des workflows complexes de manière autonome. Cette version 3 positionne Cursor non plus comme un assistant à la frappe, mais comme un véritable orchestrateur de développement logiciel.

UELes développeurs français et européens utilisant Cursor peuvent adopter ce nouveau paradigme agent-first pour transformer leur workflow de développement logiciel.

OutilsOutil
1 source
Comment installer Google Gemma 4 sur votre smartphone Android ou iPhone : un « ChatGPT » gratuit et sans connexion
3Frandroid 

Comment installer Google Gemma 4 sur votre smartphone Android ou iPhone : un « ChatGPT » gratuit et sans connexion

Google vient de franchir une étape significative dans la démocratisation de l'intelligence artificielle embarquée avec le lancement de Gemma 4, un modèle de langage léger conçu pour fonctionner directement sur les smartphones Android et iOS. Disponible via l'application AI Edge Gallery, ce modèle peut être téléchargé et utilisé sans aucune connexion internet, offrant une expérience comparable à celle de ChatGPT mais entièrement locale. Compatible avec les terminaux Android récents ainsi qu'avec l'iPhone, Gemma 4 s'installe en quelques minutes et ne nécessite aucun abonnement ni compte en ligne. L'enjeu principal est la confidentialité : en traitant toutes les requêtes directement sur l'appareil, aucune donnée ne transite vers des serveurs distants. Pour les professionnels manipulant des informations sensibles, les journalistes, ou simplement les utilisateurs soucieux de leur vie privée, c'est un changement de paradigme concret. L'absence de connexion requise ouvre également l'accès à l'IA dans des zones mal desservies ou lors de déplacements sans réseau fiable, élargissant drastiquement le public potentiel. Cette annonce s'inscrit dans une tendance de fond portée par plusieurs acteurs majeurs : Meta avec ses modèles Llama, Apple avec ses efforts sur l'on-device AI, et désormais Google qui accélère sur les modèles compacts. Gemma 4 est la quatrième itération d'une famille de modèles open-source lancée par Google DeepMind début 2024, pensée dès l'origine pour fonctionner sur du matériel grand public. La course aux modèles embarqués reflète une conviction croissante dans l'industrie : l'avenir de l'IA ne sera pas uniquement dans le cloud, mais aussi dans la poche de chaque utilisateur.

UELes utilisateurs français et européens peuvent désormais utiliser un LLM performant sans transfert de données vers des serveurs distants, en parfaite cohérence avec les exigences du RGPD.

OutilsTuto
1 source
Guide pas à pas : pipeline d'optimisation de modèles avec NVIDIA Model Optimizer, élagage FastNAS et affinage
4MarkTechPost 

Guide pas à pas : pipeline d'optimisation de modèles avec NVIDIA Model Optimizer, élagage FastNAS et affinage

NVIDIA a publié un tutoriel complet détaillant comment construire un pipeline d'optimisation de bout en bout à l'aide de son outil NVIDIA Model Optimizer, combinant entraînement, élagage (pruning) et ajustement fin (fine-tuning) d'un réseau de neurones profond, le tout dans Google Colab sans infrastructure dédiée. Le pipeline repose sur l'architecture ResNet appliquée au jeu de données CIFAR-10, et utilise la technique FastNAS pour réduire la complexité computationnelle du modèle sous une contrainte de 60 millions de FLOPs (opérations en virgule flottante). Concrètement, le modèle est d'abord entraîné sur 12 000 exemples pendant 20 époques pour établir une référence, puis soumis à l'élagage structurel FastNAS qui supprime systématiquement les couches et filtres les moins utiles, avant une phase de fine-tuning de 12 époques pour récupérer la précision perdue. Cette approche répond à un besoin pressant dans l'industrie : déployer des modèles d'IA performants sur des matériels contraints, comme les appareils embarqués, les téléphones mobiles ou les serveurs à faible consommation. En réduisant le nombre de FLOPs sans sacrifier significativement la précision, FastNAS permet de rendre un modèle jusqu'à plusieurs fois plus léger et plus rapide à l'inférence. Pour les équipes ML en entreprise, cela se traduit par des coûts de déploiement réduits, une latence moindre et une empreinte énergétique plus faible. Le fait que l'ensemble du pipeline soit reproductible dans Colab, avec gestion des seeds et des sous-ensembles de données, le rend accessible à des équipes sans cluster GPU dédié. NVIDIA développe Model Optimizer dans le cadre de sa stratégie plus large pour contrôler toute la chaîne de valeur de l'IA, de l'entraînement jusqu'au déploiement sur ses propres puces. FastNAS s'inscrit dans une famille de techniques de compression de modèles qui inclut également la quantification et la distillation, toutes intégrées dans l'écosystème NVIDIA TensorRT. Face à la montée en puissance des outils open source comme la bibliothèque PEFT de Hugging Face ou les approches de pruning de PyTorch, NVIDIA positionne Model Optimizer comme une solution intégrée et orientée production. La prochaine étape logique de ce pipeline serait la conversion du modèle élaguévers le format ONNX ou TensorRT pour un déploiement sur GPU NVIDIA, bouclant ainsi la boucle entre recherche et mise en production industrielle.

OutilsTuto
1 source