Aller au contenu principal
Google dévoile AppFunctions pour connecter les agents IA aux applications Android
OutilsInfoQ AI1h

Google dévoile AppFunctions pour connecter les agents IA aux applications Android

1 source couvre ce sujet·Source originale ↗·

Google a dévoilé AppFunctions, une nouvelle fonctionnalité en bêta anticipée pour Android, conçue pour permettre aux agents d'intelligence artificielle d'interagir directement avec les applications installées sur l'appareil. L'initiative s'inscrit dans une vision que Google qualifie d'OS « agent-first » : plutôt que d'ouvrir des applications manuellement, l'utilisateur formule un objectif, et un agent IA orchestre les briques fonctionnelles exposées par les apps pour l'accomplir.

Ce changement de paradigme redéfinit le rôle des applications mobiles : elles ne sont plus des interfaces autonomes, mais des fournisseurs de capacités que les assistants IA peuvent assembler à la demande. Concrètement, un utilisateur pourrait demander à son assistant de « réserver un restaurant et d'ajouter l'événement au calendrier » sans jamais toucher manuellement ces deux apps — l'agent s'en chargerait via leurs AppFunctions respectives. Pour les développeurs, cela implique d'exposer leurs fonctionnalités sous une nouvelle forme d'API destinée aux agents.

Cette annonce s'inscrit dans la course que se livrent Apple, Google et Microsoft pour intégrer l'IA générative au cœur des systèmes d'exploitation. Apple a lancé Apple Intelligence avec des capacités similaires via les App Intents, tandis que Microsoft pousse Copilot dans Windows. Google, fort de son modèle Gemini, cherche à faire d'Android la plateforme de référence pour les agents autonomes sur mobile — un terrain stratégique alors que l'usage des LLM sur appareil progresse rapidement.

Impact France/UE

Les développeurs européens d'applications Android devront exposer leurs fonctionnalités via AppFunctions pour rester compatibles avec les agents IA intégrés à Android.

À lire aussi

Bluesky lance une application IA pour personnaliser votre fil d'actualité
1The Verge AI 

Bluesky lance une application IA pour personnaliser votre fil d'actualité

Bluesky a dévoilé Attie lors de la conférence Atmosphere, un assistant IA qui permet aux utilisateurs de construire leurs propres algorithmes de fil d'actualité en langage naturel. L'application a été présentée par l'ancienne PDG de Bluesky, Jay Graber, et le directeur technique Paul Frazee. Attie s'appuie sur Claude, le modèle d'Anthropic, et est construit sur l'AT Protocol (atproto), le protocole ouvert qui sous-tend l'ensemble de l'écosystème Bluesky. Concrètement, un utilisateur peut demander à Attie de lui composer un fil centré sur « le folklore, la mythologie et la musique traditionnelle, notamment les traditions celtiques » — et l'IA génère l'algorithme correspondant. Pour l'instant, ces fils personnalisés sont limités à une application autonome Attie, mais l'équipe prévoit de les intégrer directement dans Bluesky et dans toutes les applications compatibles atproto. Ce changement donne aux utilisateurs un contrôle éditorial réel sur ce qu'ils voient, sans dépendre des choix opaques d'un algorithme centralisé imposé par la plateforme — une rupture directe avec le modèle de TikTok ou de X. Cette annonce s'inscrit dans la montée en puissance de Bluesky comme alternative décentralisée aux grands réseaux sociaux, portée par la vague de départs de X depuis le rachat par Elon Musk. L'AT Protocol, conçu pour être ouvert et interopérable, devient ici un terrain d'expérimentation pour une nouvelle génération d'outils IA communautaires. Si Attie se déploie largement, il pourrait redéfinir la relation entre utilisateurs et algorithmes de recommandation à l'échelle d'un réseau social entier.

UEBluesky étant très populaire en France suite aux migrations massives depuis X, Attie offre aux utilisateurs français un contrôle éditorial concret sur leur fil d'actualité sans dépendre d'algorithmes opaques imposés par la plateforme.

OutilsOutil
1 source
Microsoft lance un agent Azure Copilot pour accélérer la planification des migrations cloud
2InfoQ AI 

Microsoft lance un agent Azure Copilot pour accélérer la planification des migrations cloud

Microsoft a lancé l'Azure Copilot Migration Agent, un assistant IA intégré directement au portail Azure, destiné à accélérer la planification des migrations vers le cloud. L'outil automatise trois tâches clés : la découverte sans agent des environnements VMware, la planification de migration et la création de zones d'atterrissage (landing zones). Présenté comme disponible en général (GA), le service est en réalité toujours en préversion publique — une nuance importante que Microsoft n'a pas mise en avant. La promesse est de réduire significativement le temps consacré à la phase d'évaluation et de préparation, souvent la plus fastidieuse des projets de migration cloud. Pour les équipes IT gérant des parcs VMware importants, la découverte automatique des machines virtuelles sans installation d'agent représente un gain opérationnel réel. Cependant, l'outil ne peut pas exécuter les migrations lui-même : la réplication des données et le basculement (cutover) restent des opérations manuelles dans Azure Migrate, ce qui limite son périmètre à la planification seule. Ce lancement s'inscrit dans un contexte favorable à Microsoft : depuis le rachat de VMware par Broadcom en 2023 et la hausse brutale des licences qui a suivi, de nombreuses entreprises cherchent à migrer leurs workloads vers des alternatives cloud. Azure est l'un des principaux bénéficiaires de cet exode, aux côtés d'AWS et Google Cloud. En automatisant la phase de planification, Microsoft cherche à abaisser la barrière d'entrée et à accélérer les décisions de migration — tout en restant prudent sur ce qu'il promet réellement livrer à ce stade.

UELes entreprises françaises et européennes contraintes de quitter VMware suite aux hausses de licences Broadcom peuvent utiliser cet outil pour accélérer leur planification de migration vers Azure.

OutilsActu
1 source
Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
3MarkTechPost 

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et readdocument, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale. L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prunechunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production. Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

OutilsOpinion
1 source
Google-Agent et Googlebot : Google trace la frontière technique entre accès IA déclenché par l'utilisateur et exploration pour la recherche
4MarkTechPost 

Google-Agent et Googlebot : Google trace la frontière technique entre accès IA déclenché par l'utilisateur et exploration pour la recherche

Google a officiellement documenté un nouvel agent technique qui apparaît dans les logs des serveurs web : Google-Agent. Contrairement à Googlebot, le crawler historique qui parcourt le web de façon autonome pour alimenter l'index de recherche, Google-Agent est déclenché uniquement lorsqu'un utilisateur interagit avec un produit IA de Google — comme AI Overviews ou Gemini — et demande à accéder à un contenu spécifique. Ce fetcher ne suit pas les liens, ne découvre pas de nouvelles pages de son propre chef : il se comporte comme un proxy humain, récupérant une URL précise à la demande. Son User-Agent se présente sous la forme d'une chaîne mobile Chrome standard avec la mention (compatible; Google-Agent) en suffixe, et dans certains cas simplement le token Google-Agent. La distinction technique la plus importante concerne le fichier robots.txt : Google-Agent l'ignore délibérément. La logique avancée par Google est que la requête étant initiée par un humain, le fetcher se rapproche davantage d'un navigateur que d'un crawler automatisé. Concrètement, cela signifie que les développeurs ne peuvent plus compter sur robots.txt pour protéger du contenu sensible ou restreindre l'accès aux outils IA de Google. Seuls des mécanismes d'authentification classiques ou des permissions serveur côté back-end permettent de contrôler ces accès. Par ailleurs, les adresses IP sources de Google-Agent ne suivent pas les plages prévisibles des crawlers de recherche — Google recommande de croiser les requêtes avec ses plages IP publiées en JSON pour valider leur légitimité et éviter des faux positifs dans les WAF ou systèmes de rate-limiting. Cette évolution s'inscrit dans la transformation profonde de la façon dont Google consomme le web. Pendant des décennies, la relation entre les sites et Google reposait sur un modèle d'indexation périodique, géré via robots.txt et les budgets de crawl. L'essor des produits IA conversationnels change cette dynamique : le trafic de Google-Agent sera désormais corrélé à la popularité du contenu auprès des utilisateurs IA, et non aux cycles d'indexation. Pour les équipes infra, cela implique de revoir les règles de traitement des bots dans les firewalls applicatifs, sous peine de bloquer involontairement des utilisateurs Google. Pour les éditeurs, cela pose une question de fond sur le contrôle de l'accès au contenu à l'ère des agents IA, alors que le modèle économique du web — basé sur les clics et les visites directes — est déjà fragilisé par les réponses générées directement dans les interfaces Google.

UELes éditeurs web français et européens doivent revoir leurs dispositifs de contrôle d'accès (authentification, permissions serveur) car robots.txt ne protège plus contre les agents IA de Google, soulevant des questions de souveraineté sur le contenu à l'heure de l'AI Act.

💬 Google vient de rendre le robots.txt officiellement obsolète pour ses outils IA, et c'est un changement de règle en plein match. La logique est cohérente de leur point de vue (un humain déclenche la requête, donc c'est "comme un navigateur"), mais pour les éditeurs qui comptaient sur ce fichier pour garder la main sur leur contenu, ça fait mal. Faut maintenant gérer ça côté auth ou pare-feu, ce qui n'est pas du tout le même niveau de complexité.

OutilsOpinion
1 source