Aller au contenu principal
Le fil AI : tout converge vers Conductor
OutilsLatent Space5h

Le fil AI : tout converge vers Conductor

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·
Le fil AI : tout converge vers Conductor
▶ Voir sur YouTube

GitHub a annoncé le 13 mai 2026 une préversion technique de son application GitHub Copilot App, un environnement de bureau conçu pour gérer des flux de travail parallèles, le cycle de vie des dépôts et des pull requests, avec flexibilité sur le choix de modèle. Dans le même mouvement, OpenAI a étendu son agent Codex vers les usages mobiles : les utilisateurs peuvent désormais lancer des tâches depuis l'application ChatGPT sur mobile, examiner les sorties, approuver des commandes et piloter l'exécution à distance pendant que Codex continue de tourner sur un laptop, un Mac mini ou un serveur de développement. OpenAI a également rendu généralement disponible le Remote SSH pour les environnements distants gérés, et ajouté des hooks ainsi que des jetons d'accès programmatiques pour l'automatisation Business et Enterprise autour du pipeline Codex. VS Code, de son côté, a livré une nouvelle fenêtre Agents pour les flux multi-agents et multi-projets, avec support navigateur et mobile via vscode.dev/agents, ainsi que des améliorations d'efficacité comme la compression des sorties terminal.

Ces annonces convergentes signalent un basculement de l'écosystème entier vers une interface dite "agent-first" : les outils ne sont plus centrés sur l'édition de fichiers, mais sur la supervision d'agents autonomes qui exécutent des tâches longues en parallèle. Pour les développeurs, cela signifie pouvoir déléguer des chantiers entiers à un agent depuis son téléphone, tout en gardant le contrôle à distance. Pour les entreprises, les nouveaux tokens d'accès programmatiques d'OpenAI ouvrent la voie à des pipelines de développement entièrement automatisés. Du côté de l'infrastructure d'agents, LangChain a frappé fort avec le lancement de SmithDB, une base de données conçue spécifiquement pour les traces d'agents, et de LangSmith Engine, qui consomme ces traces, regroupe les échecs, identifie les problèmes dans le code et propose des correctifs, transformant l'observabilité passive en boucle d'amélioration continue.

Derrière cette effervescence se profile une dynamique que les observateurs comparent à l'évolution convergente en biologie : tout comme le "plan crab" a émergé indépendamment sept fois dans l'évolution, l'interface "agent-first" est en train de s'imposer simultanément chez GitHub, Microsoft, OpenAI et d'autres. Conductor, la startup qui a popularisé ce paradigme, voit ses idées reprises à grande échelle, ce qui soulève une question structurante pour les pionniers : comment monétiser une innovation de forme quand les géants de l'industrie l'adoptent en quelques mois ? Garry Tan, PDG de Y Combinator, s'est montré publiquement enthousiaste à propos de Conductor, signal que l'écosystème startup suit de près ces convergences. Les prochains mois diront si les premiers à avoir défriché ce terrain peuvent transformer leur avance conceptuelle en avantage durable, ou si la compétition sur la forme laisse place à une guerre sur l'exécution et la distribution.

Impact France/UE

Les développeurs et entreprises européens peuvent adopter ces nouveaux outils d'orchestration d'agents, mais aucune réglementation ou institution française ou européenne n'est directement concernée.

💬 Le point de vue du dev

C'est le genre de semaine où tout s'aligne. GitHub, OpenAI, VS Code, en même temps, sur le même paradigme : superviser des agents depuis ton mobile pendant qu'ils bossent en arrière-plan, c'est plus une démo, c'est la nouvelle interface standard. Conductor a visé juste, mais se faire copier par Microsoft et OpenAI en six mois, ça n'a jamais vraiment été une stratégie de sortie.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud
1Le Big Data 

Coder sans développeur ? Mistral lance des agents IA qui font tout dans le cloud

Mistral AI a franchi une étape décisive le 29 avril 2026 avec le lancement des agents distants dans sa plateforme Vibe. Jusqu'à présent cantonnés à la machine locale de l'utilisateur, ces agents peuvent désormais s'exécuter entièrement dans le cloud, lancés depuis la ligne de commande ou depuis Le Chat, l'interface conversationnelle de Mistral. Le moteur de cette évolution est Mistral Medium 3.5, un nouveau modèle conçu spécifiquement pour gérer le raisonnement, le suivi d'instructions complexes et la génération de code. Une fois une tâche lancée, l'agent travaille en arrière-plan, peut poser des questions si nécessaire, suit les modifications de fichiers en temps réel et, en fin de session, crée automatiquement une pull request sur GitHub pour validation. Plusieurs agents peuvent fonctionner en parallèle, et une session locale peut être basculée dans le cloud sans interruption. Ce changement modifie profondément la position du développeur dans le cycle de production. L'utilisateur n'est plus un point de blocage : il confie une tâche, reprend ses activités, et n'intervient qu'au moment de la validation finale. Chaque session s'exécute dans un environnement isolé où l'agent peut installer des dépendances, tester des correctifs et modifier du code de façon autonome. La portée dépasse le seul développement logiciel : le mode Travail intégré à Le Chat étend la même logique à la recherche, à l'analyse et à la rédaction, permettant de préparer automatiquement une réunion, de gérer des tickets ou de traiter des e-mails. Vibe s'intègre directement dans les écosystèmes existants, GitHub, Jira, Linear, Slack, Teams, sans remplacer ces outils mais en les activant via l'IA. Cette annonce s'inscrit dans une compétition acharnée autour du "vibe coding" et des agents d'ingénierie autonomes, un segment où Cursor, GitHub Copilot Workspace et Devin se disputent déjà le marché. Mistral, qui a levé 1,1 milliard de dollars fin 2024 et revendique une position d'alternative européenne aux géants américains, accélère sa montée en gamme vers des cas d'usage professionnels à forte valeur ajoutée. La sortie simultanée de Mistral Medium 3.5 comme socle technique des agents Vibe signale une stratégie de verticalisation : contrôler à la fois le modèle et la couche applicative. Les prochaines étapes probables concerneront l'élargissement des intégrations d'outils, la gestion de projets multi-dépôts et une tarification adaptée aux équipes d'ingénierie qui délèguent des workflows entiers à ces agents.

UEMistral, entreprise française, consolide sa position dans la course aux agents de codage autonomes et offre aux équipes européennes une alternative souveraine aux outils américains comme Cursor ou GitHub Copilot Workspace.

💬 Mistral fait enfin le truc qu'on attendait : contrôler à la fois le modèle et la couche applicative, pas juste vendre une API. La PR automatique en fin de session, c'est le petit détail qui change tout dans le quotidien d'une équipe, parce que c'est là que la supervision humaine a encore du sens. Reste à voir si Medium 3.5 tient la comparaison avec ce que Cursor fait tourner depuis des mois.

OutilsOutil
1 source
Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout
2Le Big Data 

Le « Claude-Killer » est là : OpenAI dévoile un Codex pour (presque) tout

OpenAI a annoncé le 16 avril 2026 une mise à jour majeure de Codex, son assistant de développement intégré à ChatGPT, transformant profondément ce qui était jusqu'alors un outil de génération de code en un agent capable d'interagir avec l'ensemble d'un environnement informatique. La nouveauté la plus spectaculaire est le mode "computer use" : Codex peut désormais s'exécuter en arrière-plan sur macOS, ouvrir des applications, naviguer, cliquer et saisir du texte via son propre curseur, exactement comme le ferait un utilisateur humain. Plusieurs instances peuvent tourner en parallèle sans interférer avec le travail en cours. S'y ajoutent un navigateur intégré permettant d'annoter des pages web pour guider l'agent, la génération et l'amélioration d'images via gpt-image-1, une fonction mémoire qui retient les préférences et habitudes de travail entre les sessions, ainsi que plus de 90 nouveaux plugins incluant Jira via Atlassian Rovo, CircleCI, GitLab Issues et la suite Microsoft. Codex gère également les commentaires GitHub, plusieurs onglets de terminal et les connexions SSH en accès anticipé. Cette mise à jour repositionne Codex comme un véritable agent de travail autonome, et non plus comme un simple copilote de code. Pour les développeurs, la capacité à tester des interfaces sans API, à itérer visuellement sur du front-end ou à orchestrer des tâches répétitives sans intervention manuelle représente un gain de productivité substantiel. La fonction mémoire va plus loin encore : Codex peut analyser des commentaires dans Google Docs, récupérer du contexte depuis Slack ou Notion, et produire une liste d'actions priorisées pour reprendre un projet là où il a été laissé. Sam Altman lui-même a déclaré que le mode computer use s'est révélé "encore plus utile que prévu" lors des démonstrations internes, soulignant l'ampleur du changement par rapport aux attentes initiales. Cette évolution s'inscrit dans une compétition directe avec Anthropic et son assistant Claude, clairement visé par le titre "Claude-Killer" employé dans la presse spécialisée. OpenAI cherche à consolider ChatGPT comme plateforme centrale du travail des développeurs, en absorbant des workflows qui nécessitaient jusqu'ici plusieurs outils distincts. La stratégie des plugins MCP et des intégrations tierces rappelle l'approche d'un système d'exploitation plutôt que d'un simple assistant IA. Le déploiement reste progressif : le mode computer use est limité à macOS dans un premier temps, certaines fonctions de personnalisation et de mémoire seront déployées graduellement pour les entreprises, et les utilisateurs européens et britanniques ainsi que les établissements éducatifs bénéficieront également de ces nouveautés selon un calendrier non précisé.

UELes utilisateurs européens et britanniques sont explicitement mentionnés comme futurs bénéficiaires des nouvelles fonctionnalités de Codex, mais selon un calendrier non encore précisé par OpenAI.

💬 Le "Claude-Killer", ok, le titre fait vendre. Ce qui m'intéresse vraiment, c'est la combinaison computer use plus mémoire persistante, parce que là on a un agent qui reprend le contexte d'une session à l'autre et clique dans tes apps sans passer par une API. Reste à voir si ça tient sur de vrais projets (pas juste des démos internes où Sam dit que c'est "encore mieux que prévu"), et côté Europe on attendra sagement un calendrier "non précisé".

OutilsOutil
1 source
[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création
3Latent Space 

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création

OpenAI a déployé cette semaine une mise à jour majeure de Codex, repositionnant l'outil bien au-delà du code pour en faire un agent universel de travail sur ordinateur. Intitulée « Codex for Work », cette évolution introduit un navigateur réactif 42 % plus rapide, de nouvelles commandes comme /chronicle et /goal, une interface de planification inédite et un éditeur de fichiers intégré pour les formats Microsoft Office, avec des connexions directes aux suites Microsoft, Google et Salesforce. Sam Altman a personnellement amplifié le lancement sur X en invitant les utilisateurs à « essayer Codex pour les tâches non-coding ». Dans le même temps, Anthropic a lancé Claude Security, un outil de revue de code axé sur la détection de vulnérabilités, et a annoncé le support de logiciels créatifs majeurs : Blender, Autodesk, Adobe Creative Cloud, Ableton, Splice, Canva et Affinity. Sur le front des évaluations, le UK AI Security Institute a signalé que GPT-5.5 est devenu le deuxième modèle à compléter de bout en bout une simulation d'attaque informatique multi-étapes, avec un taux de réussite moyen de 71,4 % contre 68,6 % pour Claude Mythos Preview. Ces annonces marquent un tournant stratégique dans la compétition entre les deux leaders de l'IA générative. En transformant Codex en agent généraliste, OpenAI cherche à capturer un marché bien plus large que le développement logiciel : les travailleurs du savoir, analystes, juristes, marketeurs et consultants, qui passent leurs journées entre documents, présentations et feuilles de calcul. L'interface dynamique adoptée par Codex, qui laisse l'agent choisir lui-même l'expérience utilisateur selon la nature de la tâche plutôt qu'un simple bouton de bascule, illustre une ambition de « SuperApp » pleinement assumée. Du côté d'Anthropic, l'intégration aux outils créatifs professionnels ouvre Claude à un public radicalement différent : graphistes, musiciens, vidéastes. Quant aux résultats cyber de GPT-5.5, ils remettent en cause l'avantage qu'Anthropic était supposé détenir dans l'automatisation offensive, les performances du modèle continuant de progresser au-delà de 100 millions de tokens d'inférence sans signe de saturation visible. Ces évolutions s'inscrivent dans une dynamique que les observateurs du secteur nomment « la sortie de confinement des agents de coding » : les outils initialement conçus pour les développeurs commencent à coloniser l'ensemble du travail sur ordinateur. OpenAI productise désormais activement l'interface « agent computer-use », tandis qu'Anthropic mise sur la sécurité et la créativité pour différencier Claude. GPT-5.5 Pro envoie également un signal économique notable : selon Artificial Analysis, il améliore légèrement les scores sur le benchmark CritPt par rapport à GPT-5.4 Pro tout en réduisant les coûts d'environ 60 %, suggérant qu'OpenAI parie autant sur l'efficacité que sur la puissance brute. Les prochaines semaines diront si ces repositionnements trouvent un écho réel auprès des utilisateurs non-techniques que les deux entreprises cherchent désormais à conquérir.

UELes nouveaux outils d'OpenAI et Anthropic (Codex for Work, Claude Security, intégrations créatives) sont accessibles aux professionnels européens, mais les résultats du UK AI Security Institute sur les capacités offensives de GPT-5.5 interpellent les régulateurs de l'UE sur les implications de l'AI Act pour les modèles à double usage.

💬 OpenAI fait sortir Codex du code pour aller chercher les consultants et les juristes, et l'interface qui s'adapte toute seule à la tâche sans bascule manuelle, c'est là que le truc est sérieux. Claude dans Blender et Ableton, je l'attendais pas, mais ça a du sens comme différenciation. Et GPT-5.5 qui boucle des simulations d'attaque cyber à 71%, ça, ça va faire causer bien au-delà du secteur IA.

OutilsOutil
1 source
Conseil sur le feedback des agents
4Ben's Bites 

Conseil sur le feedback des agents

Un développeur partage une technique récente pour fluidifier ses échanges avec des agents IA : plutôt que de taper ses retours ou d'utiliser la dictée vocale, il enregistre son écran en commentant à voix haute ce qu'il fait, puis fournit cette vidéo directement à l'agent. Ce dernier analyse les images, transcrit la voix, extrait les moments clés horodatés et génère un rapport HTML structuré, avec des GIFs illustrant les points importants et une liste d'actions à accomplir. La méthode permet aussi de naviguer vers d'autres applications pour montrer des exemples de référence, que l'agent intègre dans son analyse. Ben a formalisé cette approche en une "skill" réutilisable baptisée video-to-html, qui instruit l'agent pour convertir n'importe quelle vidéo en document HTML structuré avec keyframes, horodatages et animations courtes. Les fichiers générés servent également de journal de bord du projet, consultables à tout moment. Cette technique s'attaque à un problème concret dans les workflows avec des agents : la difficulté à communiquer un retour visuel précis et contextualisé. Là où les feedbacks textuels restent abstraits et les captures d'écran statiques, la vidéo permet de montrer l'interface en situation réelle, de naviguer entre applications, et de commenter en temps réel ce qui fonctionne ou non. L'approche consomme davantage de tokens, mais l'auteur note que les agents analysent efficacement les frames extraites, rendant une compression préalable via ffmpeg superflue pour la plupart des usages. Pour les équipes travaillant régulièrement avec des agents de développement ou de design, ce type de boucle de feedback visuel structuré pourrait accélérer les itérations de manière significative, en réduisant les allers-retours d'éclaircissement. Cette semaine apporte également plusieurs annonces importantes pour l'écosystème IA. Anthropic a annoncé un changement de politique à compter du 15 juin : les utilisateurs de Claude via des outils tiers comme Cursor, Zed ou T3 Code disposeront d'un quota distinct, équivalent en valeur à leur abonnement mensuel, sans report possible ni tokens subventionnés au-delà. En compensation, les limites hebdomadaires augmentent de 50 % pendant les deux prochains mois. Vercel, de son côté, a publié un index de production basé sur l'usage réel de son AI Gateway : Anthropic capte 61 % des dépenses (porté par Opus), Google représente 38 % des volumes de tokens (grâce à Flash), et les workloads agentiques constituent désormais 59 % de la totalité des tokens consommés. Notion a lancé une plateforme développeur avec une API markdown permettant la synchronisation de données externes et l'intégration d'agents comme Claude directement dans l'outil, accompagnée d'un CLI nommé ntn. Google a présenté "Gemini Intelligence" pour Android, incluant l'autocomplétion de formulaires et la transformation de notes vocales en texte structuré, à quelques jours de sa conférence I/O.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour