
L'automatisation des tâches par Gemini est lente, maladroite et vraiment impressionnante
Gemini franchit un cap symbolique sur mobile en prenant littéralement le contrôle des applications à la place de l'utilisateur. Testé sur le Pixel 10 Pro et le Galaxy S26 Ultra, cette nouvelle fonctionnalité d'automatisation des tâches permet à l'assistant IA de naviguer dans des apps, passer des commandes et déclencher des actions sans intervention humaine — une première sur smartphone grand public.
L'enjeu dépasse la simple commodité. Depuis des années, les assistants vocaux promettent une interaction naturelle avec le téléphone mais se cantonnent à des réponses textuelles ou à des raccourcis basiques. Avec cette approche, Google tente de concrétiser la vision d'un agent IA véritablement opérationnel, capable d'agir dans des interfaces conçues pour les humains — ce que l'industrie appelle l'"agentic AI".
Pour l'heure, la fonctionnalité reste en version bêta et limitée à un nombre restreint de services : quelques plateformes de livraison de repas et d'applications de transport. L'expérience est décrite comme lente et parfois maladroite. Elle ne résout aucun problème urgent que l'utilisateur ne pouvait déjà gérer seul. Mais le principe fonctionne — hors démo contrôlée, hors keynote soigneusement scénarisée.
C'est précisément ce dernier point qui marque une rupture. Les démonstrations d'agents IA sur mobile ont longtemps semblé prometteuses sur scène avant de décevoir en conditions réelles. Que Gemini y parvienne, même imparfaitement, sur du matériel commercialisé suggère que l'automatisation contextuelle sur smartphone n'est plus un horizon lointain — mais une trajectoire engagée.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



