Aller au contenu principal
OutilsThe Decoder6sem

Google DeepMind améliore l'API Gemini avec le chaînage multi-outils et la circulation du contexte

Résumé IASource uniqueImpact UE
Source originale ↗·

Google DeepMind vient d'enrichir son API Gemini avec deux nouvelles capacités majeures : le chaînage multi-outils et la circulation du contexte. Les développeurs peuvent désormais combiner plusieurs outils au sein d'une même requête, et exploiter Google Maps comme source de données directement depuis l'API.

Ces évolutions s'inscrivent dans la course aux capacités agentiques, où les grands modèles de langage doivent orchestrer des flux de travail complexes sans intervention humaine. Permettre à un modèle d'enchaîner plusieurs outils en une seule passe réduit la latence, simplifie l'architecture des applications et ouvre la voie à des agents plus autonomes — un enjeu central pour les développeurs qui construisent des assistants ou des automatisations métier sur Gemini.

L'intégration de Google Maps comme source de données natives est particulièrement notable : elle permet d'enrichir les réponses avec des informations géographiques, d'itinéraires ou de points d'intérêt sans passer par des appels d'API tiers. La circulation du contexte — soit la capacité à maintenir et transmettre le contexte entre les différentes étapes d'un enchaînement d'outils — résout l'un des problèmes récurrents des pipelines agentiques, où la perte d'information entre les appels dégradait la cohérence des résultats.

Ces annonces positionnent Google DeepMind face à des concurrents comme OpenAI et Anthropic, qui développent également leurs propres frameworks d'orchestration d'outils. L'ouverture progressive de l'écosystème Google — Maps, Search, et d'autres services — comme briques natives de l'API Gemini pourrait constituer un avantage différenciant significatif pour attirer les développeurs dans l'orbite de Google Cloud.

Impact France/UE

Les développeurs européens peuvent désormais intégrer le chaînage multi-outils et Google Maps dans leurs applications via l'API Gemini.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google déploie enfin des outils pour contrôler les coûts de l’API Gemini
1Blog du Modérateur 

Google déploie enfin des outils pour contrôler les coûts de l’API Gemini

Google a déployé des outils de contrôle budgétaire pour son API Gemini, permettant de définir des limites de dépenses par projet. Le service intègre désormais un système de paliers tarifaires et des tableaux de bord dédiés au suivi des coûts et de l'usage. Ces fonctionnalités répondent à une demande des développeurs souhaitant mieux maîtriser leur consommation de l'API.

UELes développeurs européens utilisant l'API Gemini peuvent désormais configurer des plafonds de dépenses et suivre leur consommation en temps réel.

OutilsOutil
1 source
Gemini approfondit son intégration dans Google Workspace avec une refonte des outils de création et d'édition de documents
2Ars Technica AI 

Gemini approfondit son intégration dans Google Workspace avec une refonte des outils de création et d'édition de documents

Google refond l'intégration de Gemini dans ses applications Workspace (Drive, Docs, Sheets, Slides) avec de nouvelles fonctionnalités d'IA. Dans Google Docs, une interface de type chatbot permettra désormais de générer des brouillons complets en s'appuyant sur des sources comme Gmail, d'autres documents ou le web. Les nouvelles capacités incluent aussi la mise en forme automatique, la correspondance de styles et l'édition ciblée par sections — toutes les suggestions restant privées jusqu'à validation par l'utilisateur.

OutilsActu
1 source
Google Home améliore la compréhension des commandes vocales grâce à Gemini
3The Verge AI 

Google Home améliore la compréhension des commandes vocales grâce à Gemini

Google a déployé une nouvelle mise à jour de son application Home intégrant des améliorations significatives à son assistant Gemini, rendant le contrôle de la maison connectée plus naturel et fiable. Désormais, les utilisateurs peuvent décrire l'ambiance lumineuse souhaitée en termes abstraits, comme "la couleur de l'océan", et Gemini choisit automatiquement la teinte correspondante. Il est également possible de formuler des commandes précises et conversationnelles, comme "préchauffe le four connecté à 180 degrés" ou définir un taux d'humidité spécifique, sans avoir à naviguer dans des menus. Ces améliorations ciblent directement l'un des points de friction majeurs de la domotique : la rigidité des commandes vocales traditionnelles. En permettant un langage plus libre et contextuel, Google abaisse la barrière d'usage pour des millions de foyers équipés d'appareils connectés. La capacité de Gemini à mieux identifier les appareils spécifiques réduit aussi les erreurs d'interprétation qui frustraient régulièrement les utilisateurs, rendant l'écosystème Home plus compétitif face à Amazon Alexa et Apple HomeKit. Google intensifie depuis plusieurs mois l'intégration de Gemini dans ses produits grand public, après avoir progressivement remplacé Google Assistant sur Android et les enceintes Nest. La maison connectée représente un terrain stratégique où la qualité de compréhension du langage naturel est décisive pour la fidélisation des utilisateurs. Cette mise à jour s'inscrit dans une course à l'IA conversationnelle appliquée au quotidien, où chaque grand acteur technologique cherche à rendre ses assistants indispensables dans les usages les plus concrets.

UEGoogle Home étant disponible en France, les utilisateurs français d'appareils connectés Nest et compatibles bénéficient directement de ces améliorations de compréhension vocale en langage naturel.

OutilsOutil
1 source
Combiner Google Search, Google Maps et fonctions personnalisées dans un appel Gemini avec chaînes d'agents multi-étapes
4MarkTechPost 

Combiner Google Search, Google Maps et fonctions personnalisées dans un appel Gemini avec chaînes d'agents multi-étapes

Google a annonce en mars 2026 une mise a jour majeure de son API Gemini permettant desormais de combiner dans un seul appel API des outils integres comme Google Search et Google Maps avec des fonctions personnalisees definies par le developpeur. Jusqu'ici, ces capacites devaient etre appelees separement, necessitant plusieurs requetes et une orchestration manuelle cote client. La mise a jour introduit egalement trois mecanismes cles : la circulation de contexte, qui preserve l'historique complet de chaque appel d'outil et de chaque reponse entre les tours de conversation ; les identifiants uniques de reponse d'outil, qui permettent de lier precisement chaque appel de fonction parallele a son resultat correspondant ; et le "Grounding with Google Maps", qui injecte des donnees de localisation en temps reel directement dans le raisonnement du modele. Les modeles concernes sont gemini-3-flash-preview pour les combinaisons d'outils et gemini-2.5-flash pour l'ancrage cartographique, les deux etant accessibles sans configuration de facturation. Cette evolution transforme la facon dont les developpeurs peuvent construire des agents IA autonomes. Auparavant, orchestrer plusieurs sources d'information, une recherche web, une donnee meteo via API tierce, et une localisation geographique, exigeait plusieurs allers-retours et une logique de coordination externe complexe. Desormais, un unique appel suffit pour que Gemini planifie, execute et synthetise des informations issues de sources heterogenes en une seule chaine de raisonnement. Pour les applications metier, assistants de voyage, outils de veille concurrentielle, agents de support client, cela reduit la latence, simplifie l'architecture et rend les systemes multi-outils beaucoup plus accessibles aux equipes de taille modeste. L'introduction des identifiants de reponse paralleles resout par ailleurs un probleme concret de fiabilite : quand plusieurs fonctions sont appelees simultanement, il etait auparavant difficile de garantir que chaque reponse correspondait bien a la bonne requete. Ces annonces s'inscrivent dans une competition intense entre Google, OpenAI et Anthropic pour imposer leur API comme la couche d'orchestration de reference pour les agents IA. OpenAI avait deja introduit le "parallel function calling" dans GPT-4 en 2023, et Anthropic a renforce les capacites d'outils de Claude tout au long de 2025. Google repond avec une integration native de son ecosysteme, Search et Maps etant des atouts considerables qu'aucun concurrent ne peut repliquer a l'identique. La prochaine etape probable est une extension de ce modele a d'autres services Google (Gmail, Calendar, Drive), transformant Gemini en un agent capable d'agir directement dans l'infrastructure numerique quotidienne des entreprises. La question qui demeure est celle du controle et de la transparence : a mesure que les chaines agentiques se complexifient, auditer ce qu'un modele a reellement fait, et pourquoi, devient un enjeu critique pour la confiance des utilisateurs professionnels.

OutilsOutil
1 source