Aller au contenu principal
OutilsThe Decoder1sem

Google lance des agents Deep Research et Deep Research Max pour automatiser la recherche complexe

Résumé IASources croisées · 2Impact UE
Source originale ↗·
Egalement couvert par :Google Blog Tech

Google DeepMind a lancé Deep Research Max, un nouvel agent IA reposant sur Gemini 2.5 Pro, capable de mener des recherches autonomes sur le web et dans des sources de données propriétaires. Pour la première fois, les développeurs peuvent connecter des flux financiers et d'autres sources spécialisées via le Model Context Protocol (MCP). L'agent accompagne une version standard, Deep Research, déjà disponible dans les produits Google, tandis que la variante Max vise davantage les usages professionnels et techniques.

L'enjeu est considérable pour les secteurs où l'analyse de données complexes est chronophage : finance, droit, recherche académique, conseil stratégique. En automatisant la collecte et la synthèse d'informations issues de sources hétérogènes, y compris des bases propriétaires inaccessibles au grand public, ces agents pourraient transformer le travail d'analyste ou de chercheur. La possibilité de brancher des flux financiers en temps réel via MCP représente une ouverture concrète vers des cas d'usage enterprise jusqu'ici difficiles à couvrir avec des LLM généralistes.

Google s'inscrit ici dans une course intense aux agents de recherche autonomes : OpenAI a lancé son propre Deep Research début 2025, et Perplexity propose des fonctionnalités similaires. Le Model Context Protocol, initialement développé par Anthropic, s'impose progressivement comme standard d'interopérabilité entre agents IA et sources de données tierces, ce qui explique l'adoption par Google. Les benchmarks avancés restent peu transparents sur leur méthodologie, un point de vigilance récurrent dans ce secteur où les annonces marketing précèdent souvent les preuves indépendantes.

Impact France/UE

Les entreprises européennes des secteurs finance, droit et conseil stratégique peuvent tester cet agent pour automatiser l'analyse de sources propriétaires via MCP.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google lance des agents Deep Research capables d'explorer le web et vos données privées
1VentureBeat AI 

Google lance des agents Deep Research capables d'explorer le web et vos données privées

Google a dévoilé lundi une mise à jour majeure de ses agents de recherche autonomes, en lançant deux nouvelles versions de son outil Deep Research dans l'API Gemini : Deep Research et Deep Research Max. Construits sur le modèle Gemini 2.5 Pro, ces agents permettent pour la première fois aux développeurs de combiner des données issues du web ouvert avec des informations internes à l'entreprise via un seul appel API. Ils intègrent également la génération native de graphiques et d'infographies directement dans les rapports produits, ainsi que la connexion à des sources de données tierces grâce au protocole MCP (Model Context Protocol). Les deux agents sont disponibles dès aujourd'hui en prévisualisation publique dans les offres payantes de l'API Gemini. Sur le plan des performances, Google annonce des scores de 93,3 % sur le benchmark DeepSearchQA et 54,6 % sur HLE pour la version Max, selon un message du PDG Sundar Pichai publié sur X. Les deux agents répondent à des besoins différents selon une logique de compromis entre vitesse et exhaustivité. Deep Research, la version standard, est optimisée pour des usages interactifs à faible latence : elle convient aux interfaces utilisateurs qui doivent répondre à des questions analytiques complexes en quasi-temps réel, comme un tableau de bord financier. Deep Research Max, à l'inverse, mobilise un calcul étendu à l'inférence pour produire des analyses plus profondes et mieux sourcées, conçues pour des workflows asynchrones en arrière-plan. C'est l'outil pour une équipe d'analystes qui lance une série de rapports de due diligence avant de quitter le bureau et les récupère entièrement traités le lendemain matin. C'est surtout la prise en charge du protocole MCP qui constitue le saut qualitatif le plus significatif : elle permet aux agents d'interroger des bases de données privées, des référentiels documentaires internes et des services de données spécialisés, transformant Deep Research d'un outil de veille web en quelque chose qui s'approche d'un analyste de données universel. Ce lancement s'inscrit dans une course qui s'intensifie entre les grands acteurs de l'IA pour proposer des systèmes capables de conduire de manière autonome des recherches multi-sources, un travail qui mobilise traditionnellement des heures, voire des jours, d'analyse humaine. Google positionne cette infrastructure comme l'épine dorsale des workflows de recherche en entreprise, notamment dans la finance, les sciences du vivant et l'intelligence de marché. La première version de Deep Research avait été lancée en décembre 2025 via l'Interactions API, et le produit aurait « gagné beaucoup de terrain en trois mois », selon Logan Kilpatrick, responsable des relations développeurs chez Google AI. Ce déploiement accéléré signale que Google entend faire de son API Gemini une plateforme centrale pour les applications d'agents d'entreprise, un segment où OpenAI, Anthropic et Microsoft se disputent également une position dominante.

UELes entreprises européennes intégrant leurs données internes via MCP devront vérifier la conformité RGPD avant d'adopter cette API.

OutilsOutil
1 source
Une seule API, des rapports complets : la révolution Deep Research est là
2Le Big Data 

Une seule API, des rapports complets : la révolution Deep Research est là

Google a officiellement lancé le 21 avril 2026 deux nouveaux agents d'analyse accessibles via l'API Gemini : Deep Research et Deep Research Max. Alimentés par le modèle Gemini 3.1 Pro, ces agents transforment une simple requête en rapport d'analyse structuré, en enchaînant automatiquement la collecte de données, le recoupement de sources et la mise en forme des résultats. Deep Research cible les usages interactifs qui privilégient la rapidité, tandis que Deep Research Max adopte une approche plus exhaustive, multipliant les sources et affinant ses conclusions pour une précision accrue. L'API génère également des infographies et des graphiques directement intégrés aux rapports, rendant les données exploitables sans passer par des outils tiers. Des acteurs spécialisés comme FactSet, S&P Global et PitchBook participent déjà à l'écosystème, confirmant l'ancrage industriel de la démarche. Ce lancement change concrètement la façon dont les entreprises peuvent mobiliser l'IA pour l'analyse. Jusqu'ici, les outils de recherche automatisée se limitaient à récupérer des réponses ponctuelles ; l'API Deep Research orchestre un véritable processus d'investigation autonome. Elle connecte le web ouvert aux bases de données internes via le Model Context Protocol, permettant aux organisations d'intégrer leurs données propriétaires dans le flux d'analyse sans les exposer à l'extérieur. L'accès au web peut même être désactivé entièrement, ce qui ouvre la porte aux secteurs soumis à des contraintes de confidentialité strictes, finance, santé, droit. Les utilisateurs conservent par ailleurs un contrôle précis : ils peuvent ajuster le plan de recherche avant son exécution et suivre les étapes en temps réel, ce qui renforce la traçabilité des résultats produits. Cette évolution s'inscrit dans une course technologique qui s'est accélérée depuis que les grands laboratoires ont compris que la valeur des LLM ne réside pas seulement dans la génération de texte, mais dans leur capacité à raisonner sur des corpus complexes et hétérogènes. OpenAI avait ouvert la voie avec son propre produit Deep Research début 2025 ; Google répond aujourd'hui avec une offre directement exposée en API, ciblant les développeurs et les équipes analytiques plutôt que les seuls utilisateurs finaux. Les domaines visés, études de marché, sciences de la vie, analyse financière, sont précisément ceux où le coût de production d'un rapport de qualité est élevé et où la vitesse d'analyse constitue un avantage concurrentiel direct. La prochaine étape sera de mesurer si la qualité des rapports produits tient face aux standards des analystes humains dans ces secteurs exigeants.

UELes entreprises françaises des secteurs finance, santé et droit peuvent intégrer cette API d'analyse autonome dans leurs systèmes propriétaires via le Model Context Protocol, sans exposer leurs données à des services externes.

OutilsOutil
1 source
Gemini Enterprise : Google lance sa plateforme unifiée pour orchestrer des agents IA
3Le Big Data 

Gemini Enterprise : Google lance sa plateforme unifiée pour orchestrer des agents IA

Google a présenté le 22 avril 2026, lors de Google Cloud Next 2026, Gemini Enterprise : une plateforme unifiée conçue pour orchestrer des flottes d'agents IA à l'échelle de l'entreprise. La nouveauté fusionne l'application Gemini Enterprise pour les utilisateurs finaux et la nouvelle Gemini Enterprise Agent Platform pour les développeurs, absorbant au passage Vertex AI qui disparaît en tant que plateforme indépendante. Plus de 200 modèles sont accessibles via Model Garden, dont les dernières générations Gemini mais aussi des modèles tiers d'Anthropic et autres. La marketplace intégrée permet de connecter des agents issus de partenaires comme Oracle, ServiceNow, Adobe, Salesforce ou Workday. Du côté technique, la plateforme introduit Agent Studio pour le développement low-code, un SDK basé sur des graphes pour les systèmes multi-agents, et Agent Runtime pour des agents capables de fonctionner en continu pendant des heures, voire des jours. Des outils d'optimisation complètent l'ensemble : Agent Simulation, Evaluation et Observability. Pour les directions informatiques, la gouvernance est au coeur du dispositif. Chaque agent se voit attribuer une identité cryptographique via Agent Identity, tandis qu'un registre central valide les outils et agents autorisés, et qu'Agent Gateway applique les politiques de sécurité à l'échelle de l'organisation. La couche de protection intègre Model Armor pour contrer les injections malveillantes et les fuites de données, appuyée par Security Command Center pour la détection des vulnérabilités. Du côté des équipes métier, Agent Designer permet de créer et déployer des agents sans écrire de code, depuis une interface unique avec boîte de réception centralisée, espaces projets à mémoire partagée et outil collaboratif Canvas pour produire des documents exportables vers Microsoft Office. Un agent Data Insights natif analyse données structurées et non structurées pour générer visualisations et rapports, tandis que Deep Research synthétise sources web et données internes. Ce lancement s'inscrit dans une course intense entre les grands acteurs du cloud pour capter les budgets IA des entreprises. Microsoft, avec Copilot Studio et Azure AI Foundry, Amazon avec Bedrock Agents, et Salesforce avec Agentforce occupent le même terrain. Google répond en cassant la fragmentation de son offre précédente : Vertex AI, Duet AI, Gemini for Workspace coexistaient sans cohérence claire pour les acheteurs. En absorbant tout dans une plateforme unique, Google vise à simplifier les cycles de vente et à verrouiller les grandes entreprises dans son écosystème. La compatibilité revendiquée avec Microsoft 365 et Google Workspace trahit la volonté de ne pas imposer une migration brutale, mais de s'intégrer aux environnements existants. L'enjeu des prochains mois sera la disponibilité réelle de ces fonctionnalités et leur tenue à l'échelle, deux points sur lesquels les annonces de Cloud Next ont historically précédé des déploiements progressifs.

UELes entreprises européennes utilisant Google Cloud devront évaluer la migration vers cette plateforme unifiée, dont les mécanismes de gouvernance (identité cryptographique des agents, registre central, audit de sécurité) pourraient faciliter la mise en conformité avec l'AI Act.

OutilsOutil
1 source
4MarkTechPost 

TinyFish AI lance une plateforme web complète pour agents autonomes : recherche, fetch, navigateur et agent sous une seule clé API

TinyFish AI, une startup basée à Palo Alto, a lancé ce mois-ci une plateforme d'infrastructure complète pour les agents IA opérant sur le web en temps réel. L'offre regroupe quatre produits sous une seule clé API et un système de crédits unifié : Web Agent, Web Search, Web Browser et Web Fetch. Web Search retourne des résultats structurés en JSON avec une latence médiane de 488 millisecondes, contre plus de 2 800 ms chez les concurrents. Web Browser fournit des sessions Chrome furtives via le protocole CDP avec un démarrage à froid inférieur à 250 ms, là où les alternatives prennent 5 à 10 secondes. Le module intègre 28 mécanismes anti-bot codés en C++, une approche bien plus difficile à détecter que l'injection JavaScript habituellement utilisée. Web Fetch convertit n'importe quelle URL en Markdown, HTML ou JSON propre, en éliminant les scripts, publicités et éléments de navigation superflus. Web Agent, lui, exécute des workflows autonomes en plusieurs étapes sur des sites réels, sans scripts manuels. Ce qui rend cette plateforme particulièrement pertinente pour les développeurs d'agents IA, c'est la façon dont elle résout un problème structurel : la pollution de la fenêtre de contexte. Lorsqu'un agent utilise un outil de fetch classique, il ingère la page entière, y compris des milliers de tokens de balisage inutile, avant d'atteindre le contenu utile. TinyFish affirme réduire ce coût de 87 % en mode CLI, passant d'environ 1 500 tokens par opération via MCP à seulement 100 tokens. L'architecture CLI écrit les résultats sur le système de fichiers plutôt que de les injecter directement dans le contexte, ce qui préserve la cohérence sur les tâches longues et permet la composition via les pipes Unix natifs. Sur des workflows complexes en plusieurs étapes, la société revendique un taux de complétion deux fois supérieur en mode CLI par rapport à une exécution via MCP. Jusqu'ici, les équipes qui construisaient des agents web devaient assembler plusieurs prestataires distincts pour la recherche, l'automatisation du navigateur et la récupération de contenu, ce qui introduisait de la friction et des points de défaillance multiples. TinyFish avait déjà livré un agent web standalone avant ce lancement, et s'appuie sur cette expérience pour proposer une intégration directe avec les principaux environnements de coding agents du marché, dont Claude Code, Cursor, Codex et OpenCode, via un fichier SKILL.md installable en une commande. Le CLI s'installe via npm avec npm install -g @tiny-fish/cli. Dans un secteur où les agents autonomes passent de la démonstration à la production, la capacité à interagir de façon fiable et rapide avec le web vivant devient une infrastructure critique, et TinyFish se positionne explicitement comme la couche sur laquelle ces agents doivent s'appuyer.

OutilsOutil
1 source