Aller au contenu principal
Baidu lance GenFlow 4.0 et améliore ses agents de stockage cloud et de bureautique
OutilsPandaily1h

Baidu lance GenFlow 4.0 et améliore ses agents de stockage cloud et de bureautique

Résumé IASource uniqueImpact UE
Source originale ↗·

Le 27 avril, Baidu a présenté GenFlow 4.0 lors de son événement AI Day, une mise à jour majeure de son système d'agents IA généraliste. Cette nouvelle version est désormais disponible sur les versions PC et mobile de Baidu Netdisk, le service de stockage cloud de l'entreprise, et intègre des agents spécialisés pour les tâches bureautiques sur PowerPoint, Excel et Word. Les utilisateurs peuvent lancer une tâche depuis leur mobile et la faire exécuter sur PC, créant ainsi des flux de travail multi-appareils fluides. Depuis son lancement initial en avril 2025, GenFlow a atteint 100 millions d'utilisateurs actifs mensuels et 200 millions d'exécutions de tâches par mois. La version 4.0 améliore particulièrement la reconnaissance d'intention, la décomposition de tâches complexes, la coordination entre outils et la restitution des résultats.

En pratique, GenFlow 4.0 permet des enchaînements bureautiques complets : analyser des données dans Excel, générer automatiquement une présentation PowerPoint à partir des résultats, puis compiler un rapport Word, le tout sans intervention manuelle entre chaque étape. Le système s'étend également à l'édition vidéo, à la gestion de photos et aux usages pédagogiques, en exploitant les fichiers déjà stockés dans le cloud. Pour renforcer la sécurité des données, Baidu introduit une fonctionnalité "espace de travail" qui limite l'accès de l'IA aux seuls fichiers autorisés. Côté entreprise, une fonctionnalité "Team Space" permet la collaboration multi-utilisateurs et la gestion de tâches par agents, déjà adoptée par plus de 10 000 organisations.

Cette annonce s'inscrit dans la course acharnée que se livrent les géants technologiques chinois pour intégrer l'IA agentique dans leurs écosystèmes productifs. Baidu, qui doit faire face à une concurrence accrue d'Alibaba, Tencent et de nouveaux acteurs comme DeepSeek, mise sur Netdisk comme point d'ancrage stratégique pour déployer ses agents au quotidien. L'intégration directe dans un service de stockage à 100 millions d'utilisateurs actifs constitue un levier de diffusion considérable, et la direction prise vers l'automatisation de tâches complexes multi-applications pourrait redéfinir les standards attendus des assistants IA en milieu professionnel.

Dans nos dossiers

À lire aussi

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud
1AWS ML Blog 

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud

Amazon Web Services a annoncé la disponibilité générale de deux agents autonomes d'intelligence artificielle lors de son événement re:Invent : AWS Security Agent, dédié aux tests d'intrusion, et AWS DevOps Agent, spécialisé dans les opérations cloud. Ces systèmes appartiennent à une nouvelle catégorie baptisée « frontier agents » — des IA capables de travailler de façon autonome pendant des heures, voire des jours, sans supervision humaine continue. Selon AWS, les retours des clients en phase de préversion sont significatifs : AWS Security Agent réduit les délais de tests de pénétration de plusieurs semaines à quelques heures, tandis qu'AWS DevOps Agent accélère la résolution d'incidents de 3 à 5 fois. Des entreprises comme Bamboo Health et HENNGE K.K. témoignent de résultats concrets, cette dernière affirmant avoir réduit la durée de ses cycles de sécurité de plus de 90 %. L'enjeu pour les équipes de sécurité et d'exploitation est majeur. La plupart des organisations ne peuvent aujourd'hui faire réaliser des tests de pénétration manuels que sur leurs applications les plus critiques, faute de temps et de budget — laissant la majorité de leur portefeuille logiciel vulnérable entre deux cycles d'audit. AWS Security Agent change cette équation en analysant le code source, les diagrammes d'architecture et la documentation pour reconstituer des chaînes d'attaque complexes que les scanners traditionnels ne détectent pas. Côté opérations, AWS DevOps Agent s'intègre avec les principaux outils du marché — CloudWatch, Datadog, Dynatrace, Splunk, Grafana, GitHub, GitLab — et corrèle télémétrie, code et données de déploiement pour identifier la cause racine d'un incident, qu'il s'agisse d'infrastructures AWS, Azure, hybrides ou on-premise. Pour les équipes SRE débordées, c'est la promesse d'un coéquipier disponible en permanence. Ces annonces s'inscrivent dans une course à l'automatisation des opérations IT qui s'intensifie depuis l'essor des grands modèles de langage. Les hyperscalers — AWS, Microsoft Azure, Google Cloud — cherchent tous à proposer des agents capables de gérer des tâches complexes et durables, au-delà des simples assistants conversationnels. AWS positionne explicitement ces outils non comme des aides ponctuelles, mais comme de véritables extensions de l'équipe humaine, capables de prendre des décisions en plusieurs étapes sans intervention constante. Amy Herzog, vice-présidente et RSSI d'AWS, indique que l'entreprise utilise elle-même AWS Security Agent en interne. La question qui se posera à mesure de l'adoption est celle de la gouvernance : jusqu'où déléguer à une IA des décisions critiques sur la sécurité ou la stabilité des systèmes de production ?

UELes entreprises européennes utilisant AWS peuvent adopter ces agents pour réduire leurs coûts et délais de tests de sécurité, mais la délégation de décisions critiques à une IA soulève des questions de conformité avec le RGPD et l'AI Act.

OutilsOutil
1 source
Créer des agents Strands avec les modèles SageMaker AI et MLflow
2AWS ML Blog 

Créer des agents Strands avec les modèles SageMaker AI et MLflow

Amazon Web Services a publié un guide technique détaillant la construction d'agents d'intelligence artificielle en combinant trois de ses outils : le SDK open source Strands Agents, les endpoints de modèles Amazon SageMaker AI, et la plateforme d'observabilité MLflow hébergée sur SageMaker Serverless. Le SDK Strands, à approche pilotée par le modèle, permet de créer un agent fonctionnel en quelques lignes de code en associant un modèle de langage, un prompt système et un ensemble d'outils. Les modèles sont déployés via SageMaker JumpStart, un hub machine learning qui permet d'évaluer et de sélectionner rapidement des modèles de fondation selon des critères de qualité et de responsabilité prédéfinis. L'intégration de MLflow permet ensuite de tracer les appels d'agents, de versionner les modèles et d'implémenter des tests A/B entre plusieurs variantes de modèles pour en évaluer les performances à l'aide de métriques objectives. Cette architecture répond à un besoin concret des grandes entreprises qui ne peuvent pas se contenter des services de modèles entièrement gérés : contrôle précis sur les instances de calcul, politiques de mise à l'échelle, configuration réseau compatible avec les architectures de sécurité existantes, et conformité en matière de résidence des données. Là où Amazon Bedrock simplifie l'accès aux modèles de fondation en masquant l'infrastructure, SageMaker AI laisse à l'organisation la maîtrise de l'endroit et de la manière dont l'inférence se produit, ce qui est décisif pour les secteurs réglementés comme la finance ou la santé. La couche MLflow ajoute une dimension industrielle : les équipes peuvent comparer les performances de différents modèles dans des conditions réelles, réduire les coûts en sélectionnant le modèle le plus efficace pour chaque tâche, et maintenir un historique d'expériences exploitable dans le temps. La publication de ce guide s'inscrit dans une course plus large pour capter les déploiements d'agents IA en production. AWS répond ainsi à la demande croissante des équipes MLOps qui veulent bénéficier de la commodité du cloud tout en conservant une maîtrise fine de l'infrastructure, une position souvent impossible avec les APIs gérées de type Bedrock ou OpenAI. Strands Agents, rendu open source par Amazon, concurrence directement des frameworks comme LangChain ou CrewAI, avec l'avantage d'une intégration native dans l'écosystème AWS. L'accent mis sur les tests A/B et l'évaluation continue des agents signale que le secteur entre dans une phase de maturité : il ne s'agit plus seulement de faire fonctionner un agent, mais de le mesurer, le comparer, et l'améliorer de façon systématique en production.

UECette architecture de déploiement d'agents avec contrôle fin sur la résidence des données répond aux exigences du RGPD, la rendant pertinente pour les secteurs réglementés européens comme la finance et la santé.

OutilsOutil
1 source
Nous avons testé la nouvelle app bureau Claude Code et les 'Routines' : ce que les entreprises doivent savoir
3VentureBeat AI 

Nous avons testé la nouvelle app bureau Claude Code et les 'Routines' : ce que les entreprises doivent savoir

Le 14 avril 2026, Anthropic a lancé deux mises à jour majeures pour Claude Code : une refonte complète de l'application desktop (Mac et Windows) et l'introduction des « Routines » en aperçu de recherche. L'application redessinée s'articule autour d'une nouvelle fonctionnalité centrale appelée « Mission Control » : une barre latérale permettant de gérer toutes les sessions actives et récentes en un seul écran, filtrables par statut, projet ou environnement. En parallèle, les Routines se déclinent en trois catégories : les Routines planifiées (exécution sur un calendrier, comme un cron job sophistiqué), les Routines API (endpoints dédiés avec tokens d'authentification pour déclencher Claude via HTTP depuis des outils comme Datadog), et les Routines Webhook (déclenchées par des événements GitHub, comme des commentaires de pull request ou des échecs CI/CD). Les limites quotidiennes sont fixées à 5 Routines pour les utilisateurs Pro, 15 pour Max, et 25 pour les abonnements Team et Enterprise, avec possibilité d'acheter des quotas supplémentaires. Ces mises à jour marquent un changement de philosophie profond : Anthropic abandonne le paradigme du « copilote » à fil unique pour celui de l'orchestration multi-agents. Un développeur peut désormais piloter simultanément un refactoring dans un dépôt, une correction de bugs dans un second et l'écriture de tests dans un troisième, tout en surveillant l'avancement depuis un seul tableau de bord. La fonctionnalité « Side Chat » (accessible via ⌘ + ;, ou via la commande /btw en terminal) répond à un problème concret du travail agentique : poser une question de clarification sans polluer l'historique de la tâche principale. Surtout, les Routines déplacent l'exécution vers l'infrastructure cloud d'Anthropic, ce qui signifie qu'une tâche critique, comme le tri nocturne de bugs depuis un backlog Linear, peut tourner à 2h du matin sans que l'ordinateur du développeur soit allumé. Ces annonces s'inscrivent dans une tendance de fond qui voit les grands acteurs de l'IA transformer leurs outils de développement en plateformes d'automatisation d'entreprise. Pendant des années, le secteur s'est concentré sur des assistants réactifs intégrés aux IDE ; l'évolution vers des agents autonomes capables d'agir sur plusieurs dépôts en parallèle, et de s'intégrer directement dans les pipelines CI/CD ou les systèmes d'alerte, représente une rupture architecturale. Anthropic doit cependant convaincre les développeurs attachés au terminal, plus léger et mieux intégré aux workflows shell existants, que l'interface graphique apporte une valeur réelle. La bataille pour devenir l'environnement de référence du développeur augmenté est désormais ouverte, avec OpenAI, Google et des acteurs comme Cursor en embuscade.

UELes développeurs et entreprises européens peuvent intégrer Claude Code directement dans leurs pipelines CI/CD et systèmes d'alerte, mais l'exécution des Routines sur l'infrastructure cloud d'Anthropic soulève des questions de conformité RGPD pour les équipes soumises à des contraintes de résidence des données.

OutilsOutil
1 source
Google lance des agents Deep Research capables d'explorer le web et vos données privées
4VentureBeat AI 

Google lance des agents Deep Research capables d'explorer le web et vos données privées

Google a dévoilé lundi une mise à jour majeure de ses agents de recherche autonomes, en lançant deux nouvelles versions de son outil Deep Research dans l'API Gemini : Deep Research et Deep Research Max. Construits sur le modèle Gemini 2.5 Pro, ces agents permettent pour la première fois aux développeurs de combiner des données issues du web ouvert avec des informations internes à l'entreprise via un seul appel API. Ils intègrent également la génération native de graphiques et d'infographies directement dans les rapports produits, ainsi que la connexion à des sources de données tierces grâce au protocole MCP (Model Context Protocol). Les deux agents sont disponibles dès aujourd'hui en prévisualisation publique dans les offres payantes de l'API Gemini. Sur le plan des performances, Google annonce des scores de 93,3 % sur le benchmark DeepSearchQA et 54,6 % sur HLE pour la version Max, selon un message du PDG Sundar Pichai publié sur X. Les deux agents répondent à des besoins différents selon une logique de compromis entre vitesse et exhaustivité. Deep Research, la version standard, est optimisée pour des usages interactifs à faible latence : elle convient aux interfaces utilisateurs qui doivent répondre à des questions analytiques complexes en quasi-temps réel, comme un tableau de bord financier. Deep Research Max, à l'inverse, mobilise un calcul étendu à l'inférence pour produire des analyses plus profondes et mieux sourcées, conçues pour des workflows asynchrones en arrière-plan. C'est l'outil pour une équipe d'analystes qui lance une série de rapports de due diligence avant de quitter le bureau et les récupère entièrement traités le lendemain matin. C'est surtout la prise en charge du protocole MCP qui constitue le saut qualitatif le plus significatif : elle permet aux agents d'interroger des bases de données privées, des référentiels documentaires internes et des services de données spécialisés, transformant Deep Research d'un outil de veille web en quelque chose qui s'approche d'un analyste de données universel. Ce lancement s'inscrit dans une course qui s'intensifie entre les grands acteurs de l'IA pour proposer des systèmes capables de conduire de manière autonome des recherches multi-sources, un travail qui mobilise traditionnellement des heures, voire des jours, d'analyse humaine. Google positionne cette infrastructure comme l'épine dorsale des workflows de recherche en entreprise, notamment dans la finance, les sciences du vivant et l'intelligence de marché. La première version de Deep Research avait été lancée en décembre 2025 via l'Interactions API, et le produit aurait « gagné beaucoup de terrain en trois mois », selon Logan Kilpatrick, responsable des relations développeurs chez Google AI. Ce déploiement accéléré signale que Google entend faire de son API Gemini une plateforme centrale pour les applications d'agents d'entreprise, un segment où OpenAI, Anthropic et Microsoft se disputent également une position dominante.

UELes entreprises européennes intégrant leurs données internes via MCP devront vérifier la conformité RGPD avant d'adopter cette API.

OutilsOutil
1 source