
Les 4 derniers métiers qui résisteront à l'IA dans la tech
L'intelligence artificielle est en train de remodeler en profondeur les organigrammes des entreprises technologiques. Yoni Rechtman, dans sa newsletter 99D, propose un cadre conceptuel pour penser les nouveaux rôles post-IA dans le travail en col blanc, que Karri Saarinen, PDG de Linear, a popularisé en l'analogisant aux rôles de jeu d'équipe apparus dans World of Warcraft. Cette semaine a aussi été marquée par plusieurs avancées majeures côté outils : Anthropic a intégré l'utilisation de l'ordinateur (computer use) directement dans Claude Code, permettant à l'agent d'ouvrir des applications, de cliquer dans des interfaces et de tester ce qu'il vient de construire depuis la ligne de commande — une fonctionnalité en préversion pour les abonnés Pro et Max. Parallèlement, OpenAI a publié un plugin Codex pour Claude Code, capable de déclencher des revues de code, des contre-analyses adversariales et des flux de "sauvetage" depuis l'outillage d'Anthropic, en utilisant un abonnement ChatGPT. OpenAI a également révélé que les tâches Codex lancées vers 23h ont 60 % de chances de durer plus de trois heures, confirmant la tendance à déléguer refactorisations et planifications à des agents en arrière-plan.
Ces évolutions ont des conséquences très concrètes sur la façon dont les équipes de développement travaillent. L'intégration de computer use dans Claude Code ferme la boucle entre l'écriture du code, son exécution et la vérification visuelle de l'interface — ce que plusieurs ingénieurs décrivent comme la pièce manquante pour une itération fiable sur les applications. Le fait qu'OpenAI et Anthropic rendent leurs outils interopérables via un plugin standard signale que les stacks de développement évoluent vers des architectures composables plutôt que des produits monolithiques. Par ailleurs, Theo a démontré qu'Opus obtient environ 20 % de meilleures performances dans Cursor que dans Claude Code, soulignant que la qualité du harness — l'environnement d'exécution et d'orchestration — est désormais une variable de premier ordre, parfois plus déterminante que les capacités intrinsèques du modèle lui-même.
Dans l'écosystème open source, Nous Research a publié une mise à jour majeure de Hermes Agent qui a provoqué une vague de migrations depuis des configurations concurrentes. Les nouveaux profils multi-agents permettent à chaque bot de disposer de sa propre mémoire, de ses compétences et de son historique, transformant Hermes d'un assistant personnel en une abstraction de système d'exploitation pour agents. Autour de ce noyau se construit un écosystème : opentraces.ai propose un flux CLI pour publier des traces d'agents sur Hugging Face à des fins d'évaluation et de fine-tuning ; d'autres projets permettent aux agents de journaliser leurs décisions, de se fine-tuner sur leur propre historique et de basculer vers des modèles moins coûteux. La bataille entre infrastructure d'agents ouverte et propriétaire s'intensifie, avec des acteurs comme Clément Delangue d'Hugging Face qui prennent position publiquement dans ce débat structurant pour l'avenir du secteur.
Clément Delangue d'Hugging Face (entreprise française) s'implique publiquement dans le débat structurant sur l'infrastructure d'agents ouverte vs propriétaire, un enjeu direct pour la souveraineté numérique européenne.



