Aller au contenu principal
OutilsMarkTechPost8h

Google ajoute des webhooks événementiels à l'API Gemini et supprime le recours au polling pour les tâches IA longues

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :Google AI Blog

Google a intégré des webhooks événementiels à son API Gemini, une fonctionnalité désormais accessible à tous les développeurs utilisant la plateforme. Ce mécanisme de notification en temps réel remplace le système de polling jusqu'ici incontournable dans les pipelines d'intelligence artificielle à long cours. Concrètement, au lieu que le code client envoie des requêtes GET répétées pour vérifier si une tâche est terminée, c'est l'API Gemini qui contacte directement le serveur du développeur dès qu'une opération se conclut, via un HTTP POST instantané. Le système s'applique aux opérations longues durée, appelées Long-Running Operations, comme la génération de vidéos, les sessions Deep Research ou le traitement de milliers de prompts via l'API Batch, des tâches qui peuvent s'étaler sur plusieurs minutes voire plusieurs heures.

Cette évolution répond à un problème concret d'efficacité à grande échelle. Le polling continu consomme inutilement du quota API et des ressources de calcul, tout en introduisant un délai artificiel entre la fin d'une tâche et le moment où l'application en est informée. Pour les architectures agentiques ou les pipelines de traitement en volume, ces frictions se cumulent et deviennent un goulet d'étranglement opérationnel. Avec les webhooks, la latence de notification tombe à zéro et le quota économisé peut être redirigé vers le traitement réel. Deux modes de configuration sont disponibles : les webhooks statiques, configurés une fois au niveau du projet via le WebhookService API pour des intégrations globales comme les notifications Slack ou la synchronisation de bases de données, et les webhooks dynamiques, définis à la demande pour un appel spécifique via un champ webhookconfig, idéaux pour router des tâches vers des files d'attente dédiées dans les systèmes d'orchestration d'agents. Les webhooks dynamiques supportent également un champ usermetadata permettant d'attacher des paires clé-valeur arbitraires à chaque job, comme {"job_group": "nightly-eval", "priority": "high"}, facilitant ainsi le routage différencié vers des processeurs en aval sans infrastructure de suivi supplémentaire.

Sur le plan de la sécurité, Google s'appuie strictement sur la spécification Standard Webhooks : chaque requête est signée via les en-têtes webhook-signature, webhook-id et webhook-timestamp, garantissant l'idempotence et la protection contre les attaques par rejeu. Les webhooks statiques utilisent un HMAC avec un secret partagé symétrique, fourni une seule fois à la création et impossible à récupérer ensuite en cas de perte. La rotation de ce secret intègre un paramètre REVOKEPREVIOUSSECRETSAFTERH24, qui maintient l'ancien secret valide pendant 24 heures pour permettre une transition sans interruption en production, ou une révocation immédiate en cas d'incident. Cette annonce s'inscrit dans la montée en puissance des workflows agentiques dans l'écosystème Gemini, où Google cherche à outiller les développeurs pour des systèmes autonomes capables de traiter des charges massives de manière fiable et économe en ressources.

Impact France/UE

Les développeurs français et européens utilisant l'API Gemini pour des pipelines IA à longue durée peuvent réduire leur consommation de quota et améliorer leurs architectures agentiques en adoptant ces webhooks événementiels.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Gemini Enterprise : Google lance sa plateforme unifiée pour orchestrer des agents IA
1Le Big Data 

Gemini Enterprise : Google lance sa plateforme unifiée pour orchestrer des agents IA

Google a présenté le 22 avril 2026, lors de Google Cloud Next 2026, Gemini Enterprise : une plateforme unifiée conçue pour orchestrer des flottes d'agents IA à l'échelle de l'entreprise. La nouveauté fusionne l'application Gemini Enterprise pour les utilisateurs finaux et la nouvelle Gemini Enterprise Agent Platform pour les développeurs, absorbant au passage Vertex AI qui disparaît en tant que plateforme indépendante. Plus de 200 modèles sont accessibles via Model Garden, dont les dernières générations Gemini mais aussi des modèles tiers d'Anthropic et autres. La marketplace intégrée permet de connecter des agents issus de partenaires comme Oracle, ServiceNow, Adobe, Salesforce ou Workday. Du côté technique, la plateforme introduit Agent Studio pour le développement low-code, un SDK basé sur des graphes pour les systèmes multi-agents, et Agent Runtime pour des agents capables de fonctionner en continu pendant des heures, voire des jours. Des outils d'optimisation complètent l'ensemble : Agent Simulation, Evaluation et Observability. Pour les directions informatiques, la gouvernance est au coeur du dispositif. Chaque agent se voit attribuer une identité cryptographique via Agent Identity, tandis qu'un registre central valide les outils et agents autorisés, et qu'Agent Gateway applique les politiques de sécurité à l'échelle de l'organisation. La couche de protection intègre Model Armor pour contrer les injections malveillantes et les fuites de données, appuyée par Security Command Center pour la détection des vulnérabilités. Du côté des équipes métier, Agent Designer permet de créer et déployer des agents sans écrire de code, depuis une interface unique avec boîte de réception centralisée, espaces projets à mémoire partagée et outil collaboratif Canvas pour produire des documents exportables vers Microsoft Office. Un agent Data Insights natif analyse données structurées et non structurées pour générer visualisations et rapports, tandis que Deep Research synthétise sources web et données internes. Ce lancement s'inscrit dans une course intense entre les grands acteurs du cloud pour capter les budgets IA des entreprises. Microsoft, avec Copilot Studio et Azure AI Foundry, Amazon avec Bedrock Agents, et Salesforce avec Agentforce occupent le même terrain. Google répond en cassant la fragmentation de son offre précédente : Vertex AI, Duet AI, Gemini for Workspace coexistaient sans cohérence claire pour les acheteurs. En absorbant tout dans une plateforme unique, Google vise à simplifier les cycles de vente et à verrouiller les grandes entreprises dans son écosystème. La compatibilité revendiquée avec Microsoft 365 et Google Workspace trahit la volonté de ne pas imposer une migration brutale, mais de s'intégrer aux environnements existants. L'enjeu des prochains mois sera la disponibilité réelle de ces fonctionnalités et leur tenue à l'échelle, deux points sur lesquels les annonces de Cloud Next ont historically précédé des déploiements progressifs.

UELes entreprises européennes utilisant Google Cloud devront évaluer la migration vers cette plateforme unifiée, dont les mécanismes de gouvernance (identité cryptographique des agents, registre central, audit de sécurité) pourraient faciliter la mise en conformité avec l'AI Act.

OutilsOutil
1 source
Google lance une compétence d'agent dans l'API Gemini pour combler les lacunes des modèles IA sur leurs propres SDK
2The Decoder 

Google lance une compétence d'agent dans l'API Gemini pour combler les lacunes des modèles IA sur leurs propres SDK

Google a introduit une nouvelle fonctionnalité baptisée « Agent Skill » dans son API Gemini, conçue pour combler une lacune structurelle des modèles d'IA : leur ignorance des mises à jour de leurs propres SDK survenues après leur date d'entraînement. Ce mécanisme permet au modèle d'accéder dynamiquement à une documentation à jour sur ses propres outils, améliorant significativement la qualité du code généré pour les applications qui utilisent l'API Gemini. L'impact est concret pour les développeurs : un modèle qui ne connaît pas les dernières versions d'un SDK produit du code obsolète, bogué ou incompatible. En injectant automatiquement les bonnes références au moment de la génération, Google réduit les erreurs d'intégration et accélère le développement d'agents IA — un enjeu critique alors que l'écosystème évolue plusieurs fois par mois. Ce problème de « knowledge cutoff » est universel à tous les grands modèles de langage : ChatGPT, Claude et Gemini souffrent tous d'un décalage entre leur entraînement et l'état réel du monde. La réponse de Google illustre une tendance plus large — plutôt que d'attendre le prochain cycle d'entraînement, les éditeurs construisent des couches de récupération dynamique pour maintenir les modèles à jour en temps réel sur des domaines critiques comme leurs propres API.

UELes développeurs et entreprises françaises intégrant des agents IA dans leurs produits bénéficient directement d'une réduction des erreurs d'intégration liées au knowledge cutoff des SDK.

💬 C'est un problème que je rencontre toutes les semaines en intégrant des SDK qui bougent vite. Google répond d'une façon élégante : plutôt que d'attendre le prochain cycle d'entraînement, ils injectent la doc à jour directement au moment de la génération, ce qui évite les erreurs bêtes sur des méthodes dépréciées depuis trois mois. Reste à voir si ça scale quand tous les éditeurs adoptent cette logique, mais c'est clairement la bonne direction.

OutilsOutil
1 source
Apple change de cap : Siri va regrouper ChatGPT, Gemini et toutes les IA !
3Le Big Data 

Apple change de cap : Siri va regrouper ChatGPT, Gemini et toutes les IA !

Apple prépare une transformation majeure de Siri avec iOS 27, prévu pour l'été 2026. Selon Mark Gurman, journaliste de Bloomberg et source fiable sur Apple depuis des années, l'entreprise développerait un système d'extensions permettant à n'importe quel chatbot disponible sur l'App Store de s'interfacer directement avec Siri. Concrètement, des assistants comme Claude d'Anthropic, Google Gemini ou d'autres IA tierces pourraient être sollicités via Siri comme intermédiaire : l'utilisateur précise quel modèle utiliser, et Siri relaie la requête. Cette ouverture marquerait la fin de l'exclusivité dont bénéficie actuellement ChatGPT d'OpenAI, intégré depuis iOS 18. Apple travaille depuis 2024 sur cette version refondue, parfois appelée Siri 2.0, qui inclurait également une application Siri dédiée, une interface repensée dans la Dynamic Island, et une fusion avec Spotlight Search. Pour les utilisateurs, l'impact serait considérable : Siri deviendrait un hub centralisé capable de mobiliser des dizaines de modèles spécialisés selon la tâche — analyse de documents, génération de contenu, planification, code. Plus besoin de jongler entre applications : un seul point d'entrée vocal donnerait accès à l'ensemble de l'écosystème IA disponible sur iPhone et iPad. Pour Apple, l'enjeu financier est tout aussi important : la firme prélèverait une commission sur les abonnements souscrits via l'App Store pour accéder aux IA tierces, transformant Siri en levier de monétisation de l'explosion des assistants intelligents. Cette stratégie permettrait à Apple de rivaliser directement avec Amazon Alexa, Microsoft Copilot et Meta AI, sans avoir à développer elle-même des modèles de pointe. Ce pivot s'inscrit dans un contexte délicat pour Apple sur le terrain de l'IA. L'entreprise a accumulé du retard face à Google, Microsoft et OpenAI, et Siri a longtemps été moqué pour ses limitations face à des concurrents bien plus capables. Le partenariat avec OpenAI, annoncé à la WWDC 2024, était une première réponse, mais insuffisante pour couvrir l'ensemble des usages. L'ouverture à tous les chatbots via un modèle d'extensions — similaire à ce qu'Apple a fait avec les widgets ou les extensions de clavier — serait une façon de contourner le problème sans avoir à choisir un seul gagnant. Des questions réglementaires se poseront inévitablement : l'acheminement de données personnelles vers de multiples fournisseurs d'IA soulève des enjeux de confidentialité que les autorités européennes notamment scruteront de près. Apple devra démontrer que cette ouverture reste compatible avec ses engagements en matière de protection des données, un pilier central de son image de marque.

UEL'acheminement de données personnelles vers de multiples fournisseurs d'IA via Siri soulève des questions de conformité RGPD que la CNIL et les autorités européennes devront examiner.

OutilsOpinion
1 source
4AWS ML Blog 

Des heures aux minutes : comment les agents IA ont redonné du temps aux marketeurs pour l'essentiel

L'équipe Technology, AI, and Analytics (TAA) d'AWS Marketing a développé, en partenariat avec la startup Gradial, une solution d'IA agentique capable de réduire le temps de publication d'une page web de quatre heures à environ dix minutes, soit une diminution de plus de 95 %. Déployée sur Amazon Bedrock, cette solution s'appuie sur les modèles Anthropic Claude et Amazon Nova pour orchestrer l'ensemble du workflow de création de contenu : interprétation des briefs en langage naturel, assemblage des composants de page, validation des standards d'accessibilité et de conformité, jusqu'au lancement effectif sur les canaux digitaux. Le système intègre un serveur Model Context Protocol (MCP) pour la validation en temps réel et se connecte directement aux systèmes de gestion de contenu (CMS) d'entreprise. Cette accélération libère les équipes marketing, Digital Marketing Managers et Product Marketing Managers chez AWS, des tâches de coordination et d'assemblage répétitives qui monopolisaient leur temps. Auparavant, la publication d'une seule page nécessitait un appel de lancement, une file d'attente de priorisation, plusieurs allers-retours entre équipes, puis des cycles de révision successifs pour valider les textes, les visuels, les liens et la conformité technique. Un seul problème d'accessibilité sur une image suffisait à relancer un nouveau cycle complet. En automatisant cette orchestration, les équipes peuvent désormais se concentrer sur les tâches à plus forte valeur ajoutée : identifier les problèmes clients, affiner les messages et concevoir des campagnes plus efficaces. Ce projet s'inscrit dans une tendance de fond où les grandes entreprises tech cherchent à industrialiser leurs workflows marketing grâce à l'IA agentique. AWS, qui opère l'une des infrastructures digitales les plus complexes au monde, fait face à des exigences particulièrement élevées en matière de cohérence de marque, d'accessibilité et de conformité réglementaire à grande échelle. Le recours à Gradial, une startup spécialisée dans la modernisation des organisations marketing, illustre la montée en puissance des solutions verticales construites sur des plateformes d'IA fondationnelles comme Bedrock. L'enjeu dépasse AWS : toute organisation publiant du contenu web en volume est confrontée aux mêmes goulots d'étranglement. La généralisation de ce type d'agent autonome capable de piloter des CMS d'entreprise pourrait profondément transformer les métiers du marketing digital, en faisant de la coordination humaine l'exception plutôt que la règle.

OutilsOutil
1 source