Aller au contenu principal
Google lance des agents Deep Research capables d'explorer le web et vos données privées
OutilsVentureBeat AI1h

Google lance des agents Deep Research capables d'explorer le web et vos données privées

1 source couvre ce sujet·Source originale ↗·

Google a dévoilé lundi une mise à jour majeure de ses agents de recherche autonomes, en lançant deux nouvelles versions de son outil Deep Research dans l'API Gemini : Deep Research et Deep Research Max. Construits sur le modèle Gemini 2.5 Pro, ces agents permettent pour la première fois aux développeurs de combiner des données issues du web ouvert avec des informations internes à l'entreprise via un seul appel API. Ils intègrent également la génération native de graphiques et d'infographies directement dans les rapports produits, ainsi que la connexion à des sources de données tierces grâce au protocole MCP (Model Context Protocol). Les deux agents sont disponibles dès aujourd'hui en prévisualisation publique dans les offres payantes de l'API Gemini. Sur le plan des performances, Google annonce des scores de 93,3 % sur le benchmark DeepSearchQA et 54,6 % sur HLE pour la version Max, selon un message du PDG Sundar Pichai publié sur X.

Les deux agents répondent à des besoins différents selon une logique de compromis entre vitesse et exhaustivité. Deep Research, la version standard, est optimisée pour des usages interactifs à faible latence : elle convient aux interfaces utilisateurs qui doivent répondre à des questions analytiques complexes en quasi-temps réel, comme un tableau de bord financier. Deep Research Max, à l'inverse, mobilise un calcul étendu à l'inférence pour produire des analyses plus profondes et mieux sourcées, conçues pour des workflows asynchrones en arrière-plan. C'est l'outil pour une équipe d'analystes qui lance une série de rapports de due diligence avant de quitter le bureau et les récupère entièrement traités le lendemain matin. C'est surtout la prise en charge du protocole MCP qui constitue le saut qualitatif le plus significatif : elle permet aux agents d'interroger des bases de données privées, des référentiels documentaires internes et des services de données spécialisés, transformant Deep Research d'un outil de veille web en quelque chose qui s'approche d'un analyste de données universel.

Ce lancement s'inscrit dans une course qui s'intensifie entre les grands acteurs de l'IA pour proposer des systèmes capables de conduire de manière autonome des recherches multi-sources, un travail qui mobilise traditionnellement des heures, voire des jours, d'analyse humaine. Google positionne cette infrastructure comme l'épine dorsale des workflows de recherche en entreprise, notamment dans la finance, les sciences du vivant et l'intelligence de marché. La première version de Deep Research avait été lancée en décembre 2025 via l'Interactions API, et le produit aurait « gagné beaucoup de terrain en trois mois », selon Logan Kilpatrick, responsable des relations développeurs chez Google AI. Ce déploiement accéléré signale que Google entend faire de son API Gemini une plateforme centrale pour les applications d'agents d'entreprise, un segment où OpenAI, Anthropic et Microsoft se disputent également une position dominante.

Impact France/UE

Les entreprises européennes intégrant leurs données internes via MCP devront vérifier la conformité RGPD avant d'adopter cette API.

À lire aussi

Orchestration d'agents
1MIT Technology Review 

Orchestration d'agents

Les agents IA orchestrés en réseau constituent désormais la prochaine grande rupture technologique. Alors que ChatGPT a rendu les grands modèles de langage accessibles au grand public, les outils multi-agents représentent une étape qualitativement différente : des systèmes capables de déléguer, coordonner et exécuter des tâches complexes en parallèle. Claude Code, lancé par Anthropic l'année dernière, permet par exemple de piloter simultanément plusieurs dizaines de sous-agents, chacun affecté à une portion distincte d'une base de code. Chez OpenAI, Codex joue un rôle similaire. Anthropic affirme avoir développé son application de productivité Claude Cowork en seulement dix jours grâce à Claude Code, là où un projet comparable aurait nécessité plusieurs mois. Perplexity a également lancé Computer, un outil généraliste pour professionnels. Google DeepMind propose de son côté Co-Scientist, une plateforme qui permet aux chercheurs de confier à des équipes d'agents la recherche bibliographique, la génération d'hypothèses et la conception d'expériences. L'enjeu dépasse largement le secteur du logiciel. Ces outils s'adressent désormais à tous les cols blancs : gestion de boîtes mail, suivi d'inventaires, traitement des réclamations clients. La promesse centrale est de transformer le travailleur qualifié en chef de projet capable de superviser une équipe d'agents, multipliant ainsi sa productivité. Les partisans de cette technologie évoquent une rupture comparable à ce que la chaîne d'assemblage de Henry Ford a représenté pour l'industrie manufacturière au siècle dernier : une réorganisation profonde du travail de connaissance, potentiellement synonyme de suppressions massives de postes dans les fonctions tertiaires ou, à l'inverse, d'un bond de productivité sans précédent pour ceux qui sauront maîtriser ces outils. La montée en puissance de ces systèmes s'inscrit dans une dynamique portée par les géants de la tech. Des entreprises comme Nvidia et Tencent ont déjà commencé à développer leurs propres agents en s'appuyant sur des bases open source, comme celles popularisées par OpenClaw, un assistant personnel vocal qui avait capté l'attention malgré des failles de sécurité notoires. La vraie question qui se pose aujourd'hui n'est plus technique mais systémique : jusqu'où peut-on laisser des agents autonomes interagir avec des infrastructures critiques, des systèmes de santé, des plateformes financières ou des réseaux sociaux ? Les grands modèles de langage restent imprévisibles, et ce qui n'est qu'une erreur bénigne dans une interface de chat peut devenir un incident grave lorsque l'agent agit directement dans le monde réel. Le secteur avance vite, mais le cadre de contrôle, lui, peine à suivre.

UELa prolifération d'agents autonomes dans les fonctions tertiaires et les infrastructures critiques interpelle directement le cadre réglementaire européen, notamment l'AI Act qui classe certains usages d'agents autonomes comme systèmes à haut risque nécessitant audit et supervision humaine.

OutilsOutil
1 source
Windows et Copilot : 5 astuces secrètes à connaître
2Le Big Data 

Windows et Copilot : 5 astuces secrètes à connaître

Microsoft intègre depuis plusieurs mois Copilot directement dans Windows 11, transformant l'assistant d'intelligence artificielle en outil natif accessible depuis n'importe quel contexte de travail. Parmi les fonctionnalités les moins connues, le raccourci clavier Alt + Barre d'espace permet d'invoquer Copilot instantanément par-dessus toute application ouverte, sans quitter l'écran actif. Sur les PC labellisés Copilot+, une touche physique dédiée remplit la même fonction. L'interface s'affiche soit en panneau latéral fixe, soit en fenêtre flottante compacte, selon les préférences configurées dans les paramètres système. Par ailleurs, Windows 11 intègre désormais un mode vocal accessible via une icône micro dans l'interface de l'assistant, permettant des échanges parlés en temps réel, avec transcription immédiate et réponse écrite, ou lue à voix haute selon le matériel. Le raccourci Win + H active quant à lui la dictée globale du système comme alternative complémentaire. Ces fonctionnalités changent concrètement la manière dont les professionnels interagissent avec leur machine. L'objectif affiché de Microsoft est de réduire les micro-interruptions : consulter l'IA sans minimiser ses fenêtres, poser une question vocalement sans structurer sa phrase, obtenir une aide sur une formule Excel ou une reformulation sans changer d'application. Pour les utilisateurs qui passent de longues heures sur des tâches cognitives, le gain en concentration est réel. Le mode vocal est particulièrement pertinent pour le brainstorming ou l'explication de problèmes complexes, où la fluidité orale dépasse la rapidité de frappe. Ces usages font de Copilot moins un moteur de recherche amélioré qu'un véritable partenaire de travail intégré au flux quotidien. Cette évolution s'inscrit dans la stratégie globale de Microsoft de placer l'IA au coeur de Windows, accélérée depuis l'investissement massif dans OpenAI et le lancement de Copilot en 2023. La certification Copilot+ PC, introduite en 2024, définit un nouveau standard matériel incluant une puce NPU dédiée aux traitements d'IA locaux, permettant des fonctions comme Recall ou la génération d'images en temps réel. L'enjeu pour Microsoft est double : différencier Windows face à macOS sur le terrain de l'IA embarquée, et pousser les entreprises vers des abonnements Microsoft 365 Copilot, facturés 30 dollars par utilisateur par mois. La question qui reste ouverte est celle de l'adoption réelle : beaucoup de ces raccourcis et modes restent ignorés du grand public, ce qui explique la multiplication de guides pratiques pour démocratiser des usages que Microsoft juge pourtant centraux dans sa vision de l'informatique personnelle de demain.

UELes entreprises françaises et européennes sous Microsoft 365 sont directement concernées par l'abonnement Copilot à 30 $/utilisateur/mois, un surcoût à peser dans leurs décisions d'adoption.

OutilsOutil
1 source
Agents IA autonomes : les meilleurs outils à installer en local sur son PC
3Le Big Data 

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

OutilsOutil
1 source
Google révolutionne la maison connectée : Gemini devient vraiment naturel
4Le Big Data 

Google révolutionne la maison connectée : Gemini devient vraiment naturel

Google a annoncé le 21 avril 2026 le déploiement de la fonctionnalité "Conversation continue" sur ses appareils équipés de l'assistant Gemini pour la maison connectée. Répondant à une demande largement exprimée par les utilisateurs du programme d'accès anticipé, cette mise à jour supprime l'obligation de répéter le mot d'activation "Hey Google" à chaque nouvelle commande. Concrètement, après une première interaction, le micro reste actif quelques secondes, permettant d'enchaîner les échanges sans relancer la commande vocale. Le déploiement s'accompagne de plusieurs évolutions : conservation du contexte conversationnel entre les répliques, prise en charge multilingue étendue à toutes les langues compatibles avec Google Home, amélioration de la détection pour distinguer les conversations informelles des vraies commandes, et ouverture de la fonctionnalité à l'ensemble des occupants d'un foyer, invités compris. L'activation se fait depuis les paramètres de l'application Google Home, et s'applique automatiquement à tous les appareils compatibles du domicile. Ce changement est significatif car il s'attaque à l'un des principaux freins à l'adoption quotidienne des assistants vocaux : la friction liée aux déclencheurs répétitifs. En rendant les échanges plus continus et moins mécaniques, Google cherche à transformer Gemini en interlocuteur réel plutôt qu'en outil à commandes isolées. Pour les foyers avec plusieurs occupants, la compatibilité multi-utilisateurs sans configuration individuelle représente un gain d'accessibilité concret. Pour les professionnels du secteur de la maison connectée, fabricants de dispositifs compatibles Google Home inclus, cette évolution redéfinit le niveau d'expérience utilisateur attendu, et pousse indirectement à réévaluer la conception des interactions vocales dans leurs propres produits. Cette mise à jour s'inscrit dans une course à la naturalité entre les grands acteurs de l'assistant vocal domestique. Amazon avec Alexa, Apple avec Siri HomeKit et Google se livrent depuis plusieurs années une compétition où la qualité de la conversation est devenue l'enjeu central, après avoir longtemps misé sur l'étendue du catalogue d'appareils compatibles. L'intégration de Gemini dans l'écosystème Google Home, amorcée progressivement depuis le tournant LLM de 2023-2024, marque l'aboutissement d'une stratégie visant à remplacer l'ancien Assistant par un modèle de langage plus capable. La prochaine étape probable concerne la mémoire à long terme entre sessions et la personnalisation contextuelle poussée, deux axes sur lesquels OpenAI et Anthropic exercent également une pression indirecte via leurs propres interfaces conversationnelles. La maison connectée entre dans une phase où l'intelligence du dialogue prime sur le simple catalogue de commandes.

UELa fonctionnalité 'Conversation continue' est disponible pour les utilisateurs francophones de Google Home, le français étant inclus dans les langues compatibles dès le déploiement.

OutilsOutil
1 source