Aller au contenu principal
Android reçoit une refonte majeure axée sur l'IA en 2026
OutilsArs Technica AI2h

Android reçoit une refonte majeure axée sur l'IA en 2026

Résumé IASource uniqueImpact UE
Source originale ↗·

À quelques jours de sa conférence annuelle Google I/O, prévue la semaine prochaine, Google a décidé d'anticiper et de dévoiler en avant-première les grandes évolutions d'Android pour les prochains mois. L'entreprise annonce un déploiement progressif de nouvelles fonctionnalités d'intelligence artificielle regroupées sous la bannière Gemini Intelligence. L'automatisation des applications constitue la pièce maîtresse de cette mise à jour : déjà testée en 2026 avec DoorDash et Uber sur les téléphones Pixel et Samsung, cette fonction s'étend désormais à des scénarios beaucoup plus complexes. Google donne deux exemples concrets : le système pourrait récupérer un programme de cours dans Gmail puis basculer automatiquement vers une application de commerce en ligne pour ajouter les livres nécessaires au panier, ou encore analyser la photo d'une brochure de voyage et réserver un séjour similaire directement via l'application Expedia.

Cette évolution marque un tournant dans la manière dont les assistants IA interagissent avec les smartphones. Jusqu'ici cantonnés à des réponses textuelles ou à des actions isolées, ils deviennent capables d'enchaîner des tâches concrètes à travers plusieurs applications sans intervention de l'utilisateur. Pour les consommateurs, cela signifie déléguer des actions du quotidien, achats, réservations, organisation, à un agent qui agit en leur nom. Pour les développeurs et les commerçants, c'est une nouvelle couche d'interaction avec leurs utilisateurs qui se dessine, portée par l'infrastructure de Google plutôt que par leurs propres interfaces.

Le lancement initial de l'automatisation d'applications avait été accueilli avec frustration, Google reconnaissant implicitement des lacunes en annonçant des mois de travail d'ajustement depuis. Cette annonce anticipée avant Google I/O reflète également la pression concurrentielle intense : Apple Intelligence, Microsoft Copilot et les assistants de Samsung se disputent le même terrain. En faisant de Gemini le système nerveux central d'Android, Google cherche à imposer son modèle d'IA comme standard incontournable sur plus de trois milliards d'appareils Android dans le monde, avec des partenariats applicatifs qui pourraient rapidement s'étendre bien au-delà d'Uber et DoorDash.

Impact France/UE

Les nouvelles fonctionnalités Gemini Intelligence sur Android toucheront directement les millions d'utilisateurs européens, Android étant la plateforme mobile dominante en Europe avec plus de 70 % de parts de marché.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google lance une application pour utiliser son IA en local sur iPhone et Android
1Numerama 

Google lance une application pour utiliser son IA en local sur iPhone et Android

Google a lancé AI Edge Gallery, une nouvelle application disponible sur iPhone et Android permettant de faire tourner des modèles d'intelligence artificielle directement sur l'appareil, sans connexion réseau. L'application s'appuie sur les modèles Gemma 4, la dernière génération de modèles open source légers de Google, conçus pour fonctionner sur des terminaux mobiles aux ressources limitées. Elle propose plusieurs expériences interactives exploitant ces capacités d'inférence locale. Cette initiative marque une étape concrète dans la course à l'IA embarquée sur smartphone. Faire tourner un modèle de langage en local élimine la latence réseau, préserve la confidentialité des données et permet une utilisation hors connexion, trois avantages majeurs pour les utilisateurs mobiles. Pour Google, c'est aussi un moyen de tester l'adoption de Gemma 4 auprès du grand public et de démontrer que ses modèles open source sont compétitifs sur des appareils du quotidien, face à des concurrents comme Apple Intelligence ou les solutions embarquées de Meta. Google s'inscrit ici dans une tendance de fond : après avoir imposé Gemini comme assistant par défaut sur Android, l'entreprise cherche à étendre sa présence sur iOS tout en investissant dans l'IA on-device. Gemma 4, présenté récemment, est précisément optimisé pour ce type de déploiement. AI Edge Gallery fonctionne pour l'instant comme un terrain d'expérimentation ouvert, ce qui laisse supposer qu'une intégration plus profonde dans les produits Google grand public pourrait suivre selon les retours des utilisateurs.

UEL'inférence locale préserve les données sur l'appareil, un avantage concret pour les utilisateurs européens soumis au RGPD, sans transfert vers des serveurs tiers.

OutilsOutil
1 source
Agent View débarque sur Claude Code : votre armée d’agents IA en une vue
2Le Big Data 

Agent View débarque sur Claude Code : votre armée d’agents IA en une vue

Anthropic a lancé une nouvelle fonctionnalité appelée Agent View pour son outil Claude Code, disponible dès la version 2.1.139 de l'application. Accessible via la commande claude agents dans le terminal, cette interface regroupe l'ensemble des sessions d'agents actives dans un tableau de bord unique intégré directement à l'environnement de développement. Elle est disponible pour tous les abonnements Pro, Max, Team et Enterprise, ainsi que via l'API Claude, dans le respect des limites de débit habituelles. Les administrateurs d'organisation disposent par ailleurs de la possibilité de désactiver la fonctionnalité depuis les paramètres centraux. Chaque ligne du tableau de bord représente une session Claude Code avec son état en temps réel : en cours, en attente de réponse humaine, terminée, inactive, arrêtée ou en échec. Pour les équipes de développeurs qui orchestrent plusieurs tâches simultanées, Agent View change concrètement la façon de travailler. Jusqu'ici, gérer plusieurs agents en parallèle signifiait jongler entre de multiples fenêtres de terminal, sans vue d'ensemble claire sur l'état de chaque processus. Désormais, un développeur peut lancer en parallèle des agents chargés de correctifs, de tests, de revues de code ou de mises à jour, passer de l'un à l'autre sans friction, reprendre une session suspendue à tout moment, et surtout identifier immédiatement les agents qui nécessitent une intervention humaine. Ce gain de visibilité est particulièrement précieux dans les environnements d'intégration continue où le temps perdu à chercher quelle tâche est bloquée peut coûter cher. Cette mise à jour s'inscrit dans une stratégie plus large qu'Anthropic mène depuis plusieurs mois pour transformer Claude Code en véritable plateforme de gestion d'agents IA pour les équipes techniques. L'entreprise avait déjà introduit successivement les sous-agents, les équipes d'agents, les compétences personnalisées, les hooks, les commandes à distance, les tâches programmées et une version web de Claude Code. Agent View est en quelque sorte la pièce qui manquait : elle consolide tous ces blocs épars en une interface cohérente. Anthropic cherche clairement à sortir Claude Code du statut d'assistant à l'écriture de code pour en faire un outil d'orchestration de workflows autonomes, en concurrence directe avec des environnements comme GitHub Copilot Workspace ou les solutions agentiques de Google DeepMind. La question qui reste ouverte est celle de la fiabilité à grande échelle : plus les agents sont nombreux et autonomes, plus la capacité à détecter rapidement les échecs devient critique, et c'est précisément ce que vise Agent View.

OutilsOutil
1 source
OpenAI va vous faire oublier Amazon : le shopping sur ChatGPT s’offre une refonte
3Le Big Data 

OpenAI va vous faire oublier Amazon : le shopping sur ChatGPT s’offre une refonte

OpenAI a déployé une refonte majeure de sa fonctionnalité shopping intégrée à ChatGPT, transformant l'expérience d'achat au sein du chatbot en une interface nettement plus visuelle et personnalisée. Fini les blocs de texte : les résultats produits s'affichent désormais sous forme de fiches visuelles, avec des comparaisons côte à côte, des filtres budgétaires et la possibilité d'envoyer des images pour affiner une recherche. Le déploiement est progressif et concerne tous les niveaux d'abonnement, du compte gratuit aux formules professionnelles. En coulisses, la mise à jour repose sur un protocole baptisé ACP (Agentic Commerce Protocol), une infrastructure technique propriétaire qui synchronise en temps réel les données entre marchands et interface conversationnelle. Walmart est le premier grand partenaire à s'y connecter, permettant aux utilisateurs de lier leur compte pour retrouver leurs options de paiement habituelles et leurs avantages fidélité directement dans la conversation. Ce repositionnement marque un virage stratégique important : OpenAI abandonne partiellement la fonctionnalité Instant Checkout — qui permettait d'acheter sans quitter ChatGPT — pour se recentrer sur ce que les utilisateurs plébiscitent réellement, à savoir l'aide à la décision. Les données d'usage ont révélé un paradoxe : les gens apprécient le conseil de l'IA, mais préfèrent finaliser leurs achats sur des plateformes qu'ils connaissent déjà. ChatGPT devient ainsi un intermédiaire d'influence plutôt qu'un point de vente direct, captant l'attention en amont de la transaction là où se joue véritablement la décision d'achat. Pour les marchands, c'est une logique claire : ils gardent la main sur la conversion, tandis qu'OpenAI s'installe comme prescripteur incontournable. Cette évolution s'inscrit dans une bataille plus large pour le contrôle du commerce conversationnel, un marché en pleine structuration. En imposant l'ACP comme standard technique, OpenAI tente de devancer ses concurrents directs — notamment Anthropic avec son propre protocole MCP — et de fédérer un écosystème de partenaires marchands autour de sa plateforme. Le contexte est celui d'une transformation profonde des comportements de recherche produit : Google reste dominant, mais des études récentes montrent une érosion de son usage au profit des chatbots pour les requêtes d'achat complexes. Si ChatGPT parvient à capter même une fraction de ce trafic de décision, les implications pour Amazon, Google Shopping et les comparateurs traditionnels pourraient être considérables. Le partenariat avec Walmart, première enseigne mondiale de distribution physique, donne un signal fort aux autres retailers : l'intégration à l'écosystème OpenAI est désormais un enjeu de visibilité commerciale.

UELes e-commerçants européens devront surveiller l'adoption du protocole ACP d'OpenAI pour maintenir leur visibilité sur ChatGPT, qui s'impose comme prescripteur dans les décisions d'achat au détriment de Google Shopping.

OutilsOutil
1 source
Amazon envisage un mode de recherche IA hybride sur son site marchand
4The Information AI 

Amazon envisage un mode de recherche IA hybride sur son site marchand

Amazon envisage d'intégrer des réponses conversationnelles directement dans sa barre de recherche principale, selon Amanda Doerr, vice-présidente en charge du shopping chez Amazon. Jusqu'ici, l'assistant IA Rufus fonctionnait comme un outil séparé, distinct du moteur de recherche classique utilisé par des centaines de millions d'acheteurs. Le modèle envisagé consisterait à afficher un encart conversationnel au-dessus des résultats de recherche pour certaines requêtes, sans rediriger l'utilisateur vers une interface de chatbot distincte. Ce changement pourrait transformer en profondeur la manière dont les consommateurs naviguent sur Amazon, qui reste l'une des premières destinations mondiales pour la recherche de produits. En fusionnant la navigation, la recherche d'information et l'achat dans un seul flux, Amazon réduirait la friction entre la phase de découverte et l'acte d'achat. Pour les vendeurs et les marques présents sur la plateforme, cela soulèverait également des questions importantes sur la visibilité des produits dans un format où une réponse IA pourrait éclipser les résultats organiques traditionnels. Cette évolution s'inscrit dans une course plus large entre les géants technologiques pour intégrer l'IA générative aux interfaces de recherche. Google expérimente depuis 2023 ses "AI Overviews" dans les résultats de recherche, tandis que Microsoft a ajouté Copilot à Bing. Amazon, dont le cœur de métier reste le commerce, doit trouver un équilibre délicat entre améliorer l'expérience utilisateur et préserver la lisibilité des catalogues produits sur lesquels repose son modèle publicitaire.

UELes millions de consommateurs français et les vendeurs présents sur Amazon.fr seraient directement affectés par ce changement, qui modifierait la visibilité des produits et la dynamique de découverte d'articles sur la plateforme.

💬 Amazon c'est la vraie barre de recherche pour les achats, pas Google, et c'est pour ça que ce changement est plus important qu'il n'y paraît. Une réponse IA qui s'affiche avant les résultats organiques, ça remet à zéro dix ans de stratégie SEO marchand pour des milliers de vendeurs. Reste à voir si Amazon est vraiment prêt à toucher à son modèle pub pour ça, parce que là c'est leur chiffre d'affaires qui est en jeu.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour