Aller au contenu principal
Gemini peut désormais contrôler votre téléphone : les nouvelles fonctionnalités clés
OutilsThe Verge AI2h

Gemini peut désormais contrôler votre téléphone : les nouvelles fonctionnalités clés

Résumé IASource uniqueImpact UE
Source originale ↗·

Google a dévoilé une série de nouvelles fonctionnalités pour son assistant Gemini lors d'un événement Android organisé en amont de sa conférence annuelle Google I/O. Présentées par Ben Greenwood, directeur des expériences Android chez Google, ces nouveautés visent à intégrer Gemini plus profondément dans l'usage quotidien du smartphone : l'assistant s'invite désormais dans Chrome sur Android, dans les suggestions de remplissage automatique, et peut interagir directement au sein des applications tierces. Google en profite pour lancer une nouvelle marque, Gemini Intelligence, destinée à regrouper les fonctionnalités les plus avancées de l'assistant sur les appareils Android haut de gamme.

L'enjeu principal de cette mise à jour est de transformer Gemini en un véritable agent capable d'agir à la place de l'utilisateur sur son téléphone, pas seulement de répondre à des questions. En s'intégrant aux applications et au remplissage automatique, Gemini peut potentiellement exécuter des tâches complexes sans que l'utilisateur ait besoin de naviguer manuellement entre les écrans. Cela représente un saut qualitatif dans l'assistance mobile, particulièrement pour les utilisateurs qui délèguent de plus en plus leurs tâches numériques à l'IA.

Cette annonce s'inscrit dans une compétition acharnée entre Google et Apple, qui prépare sa propre refonte d'Apple Intelligence pour iOS 19. En réservant Gemini Intelligence aux appareils Android les plus récents, Google adopte une stratégie similaire à celle d'Apple, utilisant l'IA comme argument de vente pour pousser les utilisateurs vers le renouvellement de leurs appareils. Les détails complets seront probablement précisés lors de Google I/O dans les prochains jours.

Impact France/UE

Les utilisateurs européens d'Android pourront bénéficier de ces nouvelles capacités agentiques de Gemini, sous réserve de conformité avec le RGPD et le Digital Markets Act qui encadrent l'intégration d'assistants IA dans les systèmes d'exploitation.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Ars Technica AI 

Codex s'enrichit de nouvelles fonctionnalités, dont l'utilisation de votre ordinateur en arrière-plan

OpenAI a déployé aujourd'hui une nouvelle version de son application desktop Codex, apportant un ensemble de fonctionnalités inédites qui étendent son champ d'action bien au-delà du code. Parmi les ajouts les plus notables figure la capacité d'effectuer des tâches sur l'ordinateur de l'utilisateur en arrière-plan, sans interrompre le travail en cours sur le bureau. L'entreprise a détaillé cette mise à jour dans un billet de blog officiel, présentant également des améliorations pour les développeurs et une ouverture vers des usages non techniques. Cette fonctionnalité d'exécution en arrière-plan représente un changement de paradigme significatif : l'agent ne se contente plus de répondre à des requêtes ponctuelles, il agit de manière autonome sur la machine pendant que l'utilisateur continue son activité normale. Pour les développeurs comme pour les professionnels du secteur, cela ouvre la voie à une automatisation plus profonde des tâches répétitives, qu'il s'agisse de refactorisation de code, de recherche ou de traitement de fichiers, sans mobiliser l'attention de l'utilisateur. Cette mise à jour s'inscrit dans la stratégie plus large d'OpenAI de transformer Codex en une "super app" polyvalente, capable de couvrir à la fois les besoins techniques et les tâches de travail du savoir en général. La compétition dans ce segment s'intensifie, avec des concurrents comme Anthropic (Claude) et Google (Gemini) qui proposent également des agents de bureau. OpenAI mise sur l'intégration native et la discrétion d'exécution pour se différencier dans une course qui redéfinit la relation entre l'humain et l'ordinateur.

OutilsOutil
1 source
Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore
2AWS ML Blog 

Créez votre premier agent en quelques minutes : nouvelles fonctionnalités d'Amazon Bedrock AgentCore

Amazon a annoncé de nouvelles fonctionnalités pour Bedrock AgentCore, sa plateforme de développement d'agents IA, qui promettent de réduire drastiquement le temps nécessaire pour passer d'une idée à un agent fonctionnel. La pièce maîtresse de cette mise à jour est le "managed agent harness", une couche d'infrastructure gérée qui permet de déclarer et lancer un agent en trois appels d'API seulement, sans écrire de code d'orchestration. Le développeur n'a qu'à définir quel modèle utiliser, quels outils appeler et quelles instructions suivre : AgentCore assemble automatiquement le calcul, la mémoire, les identités et la sécurité. La plateforme est compatible avec les frameworks déjà en usage dans l'industrie : LangGraph, LlamaIndex, CrewAI et Strands Agents, le framework open source d'AWS qui propulse le harness. AgentCore gère également la persistance de l'état de session sur un système de fichiers durable, ce qui permet à un agent de suspendre une tâche en cours et de la reprendre exactement là où il s'était arrêté. Jusqu'ici, construire l'infrastructure sous-jacente d'un agent, compute, sandbox d'exécution de code, connexions sécurisées aux outils, stockage persistant, gestion des erreurs, représentait plusieurs jours de travail avant de pouvoir tester la moindre logique métier. Avec AgentCore, tester une variante d'agent, changer de modèle ou ajouter un outil devient une modification de configuration et non une réécriture de code. Rodrigo Moreira, VP Engineering chez VTEX, l'un des premiers utilisateurs, confirme que ce qui prenait auparavant des jours de mise en place peut désormais être validé en quelques minutes. Cette accélération du cycle de prototypage est particulièrement significative pour les équipes produit qui veulent itérer rapidement sur la logique agent sans s'embourber dans la plomberie backend. Les patterns "human-in-the-loop", souvent coûteux à implémenter, deviennent pratiques grâce à la persistance native de session, sans nécessiter de refonte architecturale ultérieure. La sortie de ces fonctionnalités s'inscrit dans une concurrence féroce entre les grands fournisseurs cloud pour capter les équipes qui industrialisent l'IA agentique. AWS fait le pari que les développeurs adoptent plus facilement un service géré s'il supprime la friction initiale tout en restant extensible : lorsque les besoins d'orchestration personnalisée ou de coordination multi-agents se précisent, il suffit de basculer d'une configuration déclarative vers du code, sur la même plateforme, avec la même pipeline de déploiement et le même isolement microVM. La prochaine étape annoncée, déployer et opérer les agents depuis le même terminal, vise à unifier le cycle complet de développement, de la première idée jusqu'à la production, dans un seul environnement sans rupture d'outil.

UELes équipes de développement françaises et européennes peuvent réduire leur temps de prototypage d'agents IA, accélérant l'industrialisation de l'IA agentique pour les entreprises du continent.

OutilsOutil
1 source
La fonctionnalité iPhone que vous attendez depuis 2024 arriverait enfin (une bonne nouvelle pour Gemini, Claude et Perplexity)
3Presse-citron 

La fonctionnalité iPhone que vous attendez depuis 2024 arriverait enfin (une bonne nouvelle pour Gemini, Claude et Perplexity)

Apple s'apprêterait à ouvrir Siri à d'autres assistants IA que ChatGPT avec la sortie d'iOS 27, dont la présentation est prévue en juin 2026. Selon les informations disponibles, des services comme Google Gemini, Claude d'Anthropic et Perplexity pourraient bénéficier de la même intégration native qu'OpenAI dans l'interface de Siri sur les appareils compatibles avec Apple Intelligence. Cette ouverture représente un changement majeur pour les utilisateurs d'iPhone qui souhaitent utiliser un assistant IA différent de ChatGPT sans quitter l'écosystème Apple. Concrètement, cela signifierait un accès rapide à ces modèles directement depuis Siri, sans avoir à basculer vers une application tierce — un avantage d'usage considérable qui pourrait redistribuer les parts d'attention entre les grands acteurs de l'IA conversationnelle sur mobile. Jusqu'ici, Apple avait accordé un accès privilégié et exclusif à OpenAI dans le cadre d'un partenariat annoncé lors de la WWDC 2024. L'extension de ce dispositif à des concurrents comme Google ou Anthropic reflète probablement des pressions réglementaires autour de l'interopérabilité, mais aussi la volonté d'Apple de ne pas apparaître comme favorisant un seul acteur. Les détails de ces intégrations — et leur profondeur technique — devraient être dévoilés à la WWDC de juin 2026.

UEL'ouverture de Siri à plusieurs assistants IA s'inscrit probablement dans le cadre des pressions réglementaires européennes liées au DMA, qui impose l'interopérabilité aux gatekeepers, et bénéficierait directement aux utilisateurs d'iPhone en Europe.

OutilsOpinion
1 source
Microsoft prépare de nouvelles fonctionnalités pour Copilot, inspirées d'OpenClaw
4The Information AI 

Microsoft prépare de nouvelles fonctionnalités pour Copilot, inspirées d'OpenClaw

Microsoft développe de nouvelles fonctionnalités pour son assistant Copilot, directement inspirées d'OpenClaw, l'agent IA open source qui a bouleversé le secteur de l'intelligence artificielle ces derniers mois. Selon des déclarations faites dimanche à The Information, Omar Shahine, vice-président de Microsoft, a confirmé la création d'une équipe dédiée chargée d'explorer les possibilités offertes par des technologies comme OpenClaw dans un contexte d'entreprise. L'objectif central est de déployer un réseau d'agents toujours actifs, capables de travailler 24h/24 et 7j/7 pour le compte des utilisateurs au sein des applications Microsoft 365. Cette initiative répond à une pression concurrentielle croissante sur le segment des clients professionnels, notamment de la part d'Anthropic. Pour Microsoft, l'enjeu est de transformer Copilot d'un simple assistant conversationnel en un véritable opérateur autonome capable d'exécuter des tâches complexes sans intervention humaine constante. Ce type d'agents persistants pourrait modifier en profondeur la façon dont les entreprises délèguent des processus entiers à l'IA, allant bien au-delà de la simple génération de texte. Ce virage s'inscrit dans une dynamique plus large où les grandes plateformes logicielles cherchent à intégrer des capacités agentiques avancées avant que des acteurs spécialisés ne s'imposent sur ce marché. OpenClaw, en tant que projet open source, a imposé un nouveau standard d'autonomie et d'exécution de tâches pour les agents IA, forçant des géants comme Microsoft à accélérer leur feuille de route. L'intégration dans l'écosystème Microsoft 365, utilisé par des centaines de millions de professionnels, donnerait à ces agents une portée considérable si le projet aboutit.

UEL'intégration d'agents IA autonomes dans Microsoft 365, massivement adopté par les entreprises françaises et européennes, pourrait transformer en profondeur la façon dont les organisations délèguent leurs processus métier à l'IA.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour