Aller au contenu principal
OutilsMarkTechPost2sem

ByteDance dévoile DeerFlow 2.0 : un SuperAgent open-source qui orchestre des sous-agents, la mémoire et les sandboxes pour accomplir des tâches complexes

1 source couvre ce sujet·Source originale ↗·
Résumé IA

ByteDance a lancé DeerFlow 2.0, un framework "SuperAgent" open-source capable d'exécuter des tâches complexes de manière autonome — recherche, développement, création de sites web, présentations et vidéos. Sa particularité est d'opérer dans un vrai conteneur Docker isolé, lui donnant un système de fichiers réel, un terminal bash et une mémoire persistante entre les sessions. Il fonctionne via une orchestration multi-agents : un agent principal décompose les tâches et coordonne des sous-agents qui travaillent en parallèle, avant de fusionner les résultats en un livrable final.

The era of the ‘Copilot’ is officially getting an upgrade. While the tech world has spent the last two years getting comfortable with AI that suggests code or drafts emails, ByteDance team is moving the goalposts. They released DeerFlow 2.0, a newly open-sourced ‘SuperAgent’ framework that doesn’t just suggest work; it executes it. DeerFlow is designed to research, code, build websites, create slide decks, and generate video content autonomously. The Sandbox: An AI with a Computer of Its Own The most significant differentiator for DeerFlow is its approach to execution. Most AI agents operate within the constraints of a text-box interface, sending queries to an API and returning a string of text. If you want that code to run, you—the human—have to copy, paste, and debug it. DeerFlow flips this script. It operates within a real, isolated Docker container . For software developers, the implications are massive. This isn’t an AI ‘hallucinating’ that it ran a script; it is an agent with a full filesystem, a bash terminal, and the ability to read and write actual files. When you give DeerFlow a task, it doesn’t just suggest a Python script to analyze a CSV—it spins up the environment, installs the dependencies, executes the code, and hands you the resulting chart. By providing the AI with its own ‘computer,’ ByteDance team has solved one of the biggest friction points in agentic workflows: the hand-off. Because it has stateful memory and a persistent filesystem, DeerFlow can remember your specific writing styles, project structures, and preferences across different sessions. Multi-Agent Orchestration: Divide, Conquer, and Converge The ‘magic’ of DeerFlow lies in its orchestration layer. It utilizes a SuperAgent harness —a lead agent that acts as a project manager. When a complex prompt is received—for example, ‘Research the top 10 AI startups in 2026 and build me a comprehensive presentation ‘—DeerFlow doesn’t try to do it all in one linear thought process. Instead, it employs task decomposition: The Lead Agent breaks the prompt into logical sub-tasks. Sub-agents are spawned in parallel. One might handle web scraping for funding data, another might conduct competitor analysis, and a third might generate relevant images. Convergence: Once the sub-agents complete their tasks in their respective sandboxes, the results are funneled back to the lead agent. Final Delivery: A final agent compiles the data into a polished deliverable, such as a slide deck or a full web application. This parallel processing significantly reduces the time-to-delivery for ‘heavy’ tasks that would traditionally take a human researcher or developer hours to synthesize. From Research Tool to Full-Stack Automation Interestingly, DeerFlow wasn’t originally intended to be this expansive. It started its life at ByteDance as a specialized deep research tool. However, as the internal community began utilizing it, they pushed the boundaries of its capabilities. Users began leveraging its Docker-based execution to build automated data pipelines, spin up real-time dashboards, and even create full-scale web applications from scratch. Recognizing that the community wanted an execution engine rather than just a search tool, ByteDance rewrote the framework from the ground up. The result is DeerFlow 2.0, a versatile framework that can handle: Deep Web Research: Gathering cited sources across the entire web. Content Creation: Generating reports with integrated charts, images, and videos. Code Execution: Running Python scripts and bash commands in a secure environment. Asset Generation: Creating complete slide decks and UI components. Key Takeaways Execution-First Sandbox: Unlike traditional AI agents, DeerFlow operates in an isolated Docker-based sandbox . This gives the agent a real filesystem, a bash terminal, and the ability to execute code and run commands rather than just suggesting them. Hierarchical Multi-Agent Orchestration: The framework uses a ‘SuperAgent’ lead to break down complex tasks into sub-tasks. It spawns parallel sub-agents to handle different components—such as scraping data, generating images, or writing code—before converging the results into a final deliverable. The ‘SuperAgent’ Pivot: Originally a deep research tool, DeerFlow 2.0 was entirely rewritten to become a task-agnostic harness. It can now build full-stack web applications, generate professional slide decks, and automate complex data pipelines autonomously. Complete Model Agnosticism: DeerFlow is designed to be LLM-neutral . It integrates with any OpenAI-compatible API, allowing engineers to swap between models like GPT-4, Claude 3.5, Gemini 1.5, or even local models via DeepSeek and Ollama without changing the underlying agent logic. Stateful Memory & Persistence: The agent features a persistent memory system that tracks user preferences, writing styles, and project context across multiple sessions. This allows it to function as a long-term ‘AI employee’ rather than a

À lire aussi

1The Verge AI1h

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
2Blog du Modérateur1h

ChatGPT enrichit son expérience shopping et abandonne Instant Checkout

OpenAI a mis à jour l'interface shopping de ChatGPT, la rendant plus visuelle et intuitive. La nouvelle version permet de comparer les produits plus facilement et introduit une recherche par image. En parallèle, la fonctionnalité Instant Checkout, qui permettait d'acheter directement depuis le chatbot, a été abandonnée. Ce repositionnement transforme ChatGPT en outil de découverte et de comparaison plutôt qu'en canal de vente directe. Cela redirige les utilisateurs vers les marchands pour finaliser leurs achats, ce qui soulage les tensions avec les retailers tout en conservant ChatGPT comme point d'entrée dans le parcours d'achat. Cette évolution s'inscrit dans la montée en puissance des assistants IA comme moteurs de recherche commerciale, en concurrence directe avec Google Shopping et Amazon.

OutilsOutil
1 source
3NVIDIA AI Blog1h

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
4InfoQ AI1h

Podcast : [Vidéo] Systèmes agentiques sans chaos : premiers modèles opérationnels pour agents autonomes

Shweta Vohra et Joseph Stein consacrent un épisode de podcast à la question des systèmes agentiques — ces logiciels capables de planifier, d'agir et de prendre des décisions de manière autonome. Les deux experts y examinent ce qui distingue véritablement un agent IA d'une simple automatisation traditionnelle, et comment concevoir ces systèmes sans perdre le contrôle. La discussion porte sur les défis concrets pour les architectes et ingénieurs : comment définir les limites d'action d'un agent, comment orchestrer plusieurs agents entre eux, et quels modèles organisationnels adopter dès les premières phases de déploiement. L'enjeu est de tirer parti de l'autonomie de ces systèmes tout en évitant le chaos opérationnel. Le sujet s'inscrit dans une réflexion plus large sur la maturité croissante des agents IA, qui passent progressivement du statut d'assistants réactifs à celui d'acteurs autonomes dans les infrastructures logicielles.

OutilsOpinion
1 source