Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi
L'ère des agents IA autonomes est désormais une réalité concrète, portée par trois outils majeurs qui redéfinissent ce que les logiciels peuvent accomplir sans intervention humaine. OpenClaw, anciennement connu sous les noms Moltbot et Clawdbot, a dépassé les 150 000 étoiles sur GitHub en quelques jours après son lancement et s'installe directement sur les machines locales avec un accès profond au système : tri de boîte mail, réponses automatiques, curation de contenu, planification de voyages. Google Antigravity, lui, est un agent de développement doté d'un environnement intégré capable de passer d'une simple instruction à une application fonctionnelle, écriture, test, intégration et correction de bugs compris. Enfin, Anthropic a dévoilé Claude Cowork, un agent spécialisé pour des secteurs comme le droit et la finance, capable d'automatiser la revue de contrats ou le tri de documents juridiques. Son annonce a provoqué une chute notable des actions de sociétés de legal-tech et de SaaS, un phénomène rapidement baptisé "SaaSpocalypse" par les observateurs du marché.
L'impact de ces agents va bien au-delà de la simple automatisation de tâches répétitives. En confiant à ces systèmes un accès à des données sensibles, fichiers personnels, détails financiers, documents légaux, les utilisateurs délèguent une autorité réelle sur des décisions à fort enjeu. Les risques sont proportionnels à la puissance accordée : un agent fiscal pourrait manquer des économies importantes ou, à l'inverse, inclure des déductions illégales ; un agent de développement pourrait injecter du code défectueux ou introduire des failles invisibles dans des systèmes critiques. La question de la confiance envers les fournisseurs comme Anthropic ou Google devient donc centrale, d'autant qu'OpenClaw, en tant que projet open source, ne dispose d'aucune autorité centrale de gouvernance pour encadrer les usages.
Ce basculement vers l'IA agentique s'inscrit dans une trajectoire commencée fin 2022 avec l'émergence des chatbots conversationnels, mais qui s'accélère désormais vers des systèmes capables d'agir, pas seulement de répondre. La crainte d'une intelligence artificielle générale (AGI) n'est plus de la science-fiction pour de nombreux chercheurs. Face à ce chaos organisé, les experts s'accordent sur quelques impératifs : journalisation des actions des agents, validation humaine sur les décisions critiques, et développement d'une ontologie partagée permettant à des agents hétérogènes de communiquer dans un langage commun. Un cadre de responsabilité, de transparence et de sécurité, associé à une infrastructure d'identité distribuée, apparaît comme la condition sine qua non pour que ces écosystèmes agentiques tiennent leurs promesses sans déclencher la prochaine grande panique technologique.
La disruption des secteurs legal-tech et SaaS par des agents IA autonomes (droit, finance) menace directement des entreprises européennes positionnées sur ces marchés, sans cadre réglementaire adapté à ce niveau d'autonomie agentique.