Aller au contenu principal
Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi
OutilsVentureBeat AI2j

Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi

1 source couvre ce sujet·Source originale ↗·

L'ère des agents autonomes d'intelligence artificielle est désormais une réalité concrète. Trois outils dominent aujourd'hui ce nouveau paysage : OpenClaw (anciennement Moltbot et Clawdbot), qui a dépassé les 150 000 étoiles sur GitHub en quelques jours et s'installe directement sur les machines locales avec un accès profond au système ; Google Antigravity, un agent de codage intégré à un environnement de développement capable de mener un projet de l'idée à la production de façon interactive ; et Claude Cowork d'Anthropic, qui automatise des tâches juridiques et financières spécialisées comme la révision de contrats et le tri de NDA. Son lancement a d'ailleurs provoqué une chute notable des cours boursiers de plusieurs sociétés de legal-tech et de SaaS, un phénomène baptisé « SaaSpocalypse » par les analystes. Ces trois outils représentent trois modèles distincts d'autonomie : l'agent généraliste avec accès système, l'agent spécialiste du code, et l'agent expert métier.

L'impact de ces technologies est déjà mesurable. Claude Cowork, en s'attaquant au droit et à la finance, menace directement des catégories entières de logiciels professionnels et de prestataires humains. La valeur de ces agents repose précisément sur l'étendue de l'accès qu'on leur accorde, fichiers, données sensibles, systèmes critiques, ce qui démultiplie leur efficacité mais aussi leur potentiel de nuisance. Un agent fiscal pourrait manquer des opportunités d'économies importantes, ou pire, intégrer des déductions illégales. Un agent de code pourrait injecter des failles silencieuses dans une infrastructure entière. La question centrale n'est plus technique mais systémique : jusqu'où faire confiance à des entités comme Anthropic ou Google pour que leurs agents ne causent pas de préjudice, ne fuient pas des données ou ne favorisent pas certains acteurs de façon illicite ?

Ce virage agentic s'inscrit dans une accélération amorcée avec ChatGPT fin 2022, mais qui prend aujourd'hui une dimension inédite avec des agents capables d'agir, pas seulement de répondre. OpenClaw complique davantage l'équation en étant open source : sans autorité centrale de gouvernance, le contrôle des usages devient pratiquement impossible. Face à ce chaos organisé, plusieurs conditions apparaissent indispensables pour tirer parti de ces outils sans en subir les effets négatifs : journalisation systématique de chaque action de l'agent, validation humaine sur les décisions critiques, et surtout l'établissement d'une ontologie partagée entre systèmes hétérogènes pour définir un cadre commun de comportement. Combinés à des mécanismes d'identité distribuée et de confiance mutuelle entre agents, ces garde-fous pourraient permettre à l'écosystème agentic de tenir ses promesses sans déclencher la panique que redoutent les observateurs les plus prudents.

Impact France/UE

La disruption des marchés legal-tech et SaaS décrite menace des entreprises européennes opérant dans ces secteurs, dans un vide réglementaire concernant les agents autonomes.

💬 Le point de vue du dev

La SaaSpocalypse, c'est pas un buzzword de journaliste en manque d'inspiration, c'est ce qui arrive quand un agent fait en 30 secondes ce pour quoi une boîte facturait 300€ par mois. Ce qui me préoccupe vraiment, c'est OpenClaw : open source sans gouvernance centrale, le contrôle des usages devient une blague. Les logs et la validation humaine, bonne idée sur le papier, mais ça n'empêchera pas le premier incident sérieux.

À lire aussi

Cloudflare et GoDaddy s’allient pour permettre aux sites de bloquer les bots IA
1Siècle Digital 

Cloudflare et GoDaddy s’allient pour permettre aux sites de bloquer les bots IA

Cloudflare et GoDaddy ont annoncé un partenariat visant à donner aux propriétaires de sites web un contrôle direct sur les robots d'intelligence artificielle qui explorent leurs pages. Concrètement, GoDaddy va intégrer l'outil AI Crawl Control de Cloudflare dans sa plateforme d'hébergement, utilisée par des millions de sites à travers le monde. Via un tableau de bord simplifié, les propriétaires pourront autoriser ou bloquer individuellement les crawlers des grands modèles d'IA, ceux d'OpenAI, Anthropic, Google, Meta ou d'autres acteurs, sans avoir à modifier manuellement leur fichier robots.txt. L'enjeu est considérable pour les créateurs de contenu, éditeurs et développeurs indépendants qui voient leurs textes, images et données aspirés massivement par des entreprises d'IA sans consentement ni compensation. Ce type d'outil leur restitue une capacité de négociation concrète : bloquer certains acteurs, en autoriser d'autres, voire conditionner l'accès à des accords commerciaux. Pour l'industrie, c'est un signal fort que la question du droit à l'extraction de données web entre dans une phase de normalisation technique. Ce partenariat s'inscrit dans un contexte de tension croissante entre les éditeurs de contenu et les entreprises d'IA générative. Plusieurs procès sont en cours, notamment contre OpenAI et Google, pour utilisation non autorisée de contenus protégés dans l'entraînement de modèles. Cloudflare, qui traite une part massive du trafic internet mondial, se positionne ainsi comme un acteur clé de la gouvernance du web à l'ère de l'IA, aux côtés de partenaires comme GoDaddy dont la base d'utilisateurs garantit une adoption rapide et large.

UELes éditeurs et créateurs de contenu européens hébergés chez GoDaddy disposent désormais d'un outil concret pour bloquer individuellement les crawlers IA, ce qui renforce leur position dans les débats européens sur le droit d'auteur et l'extraction de données encadrée par l'AI Act.

OutilsActu
1 source
Le succès de l'IA dans le développement logiciel et les besoins de pilotage centralisé
2AI News 

Le succès de l'IA dans le développement logiciel et les besoins de pilotage centralisé

Selon une enquête menée par OutSystems auprès de 1 879 responsables informatiques dans dix pays, l'intelligence artificielle agentique a franchi le cap du pilote pour entrer en production dans de nombreuses entreprises. Le rapport, intitulé The State of AI Development 2026, révèle que 97 % des répondants explorent une forme de stratégie agentique, et que près de la moitié d'entre eux indiquent que plus de 50 % de leurs projets IA ont quitté la phase expérimentale. Les gains les plus concrets ne proviennent pas de la réduction des coûts, pourtant citée en premier par les dirigeants, mais de l'outillage des développeurs logiciels avec des assistants de génération de code : seuls 22 % des répondants jugent leurs déploiements les plus efficaces en matière d'efficience opérationnelle, contre une majorité qui pointe le développement assisté par IA comme premier vrai succès. Ce décalage entre les attentes et les résultats illustre un problème structurel : les organisations adoptent l'IA plus vite qu'elles ne parviennent à en cadrer l'usage. OutSystems avertit que la gouvernance et l'intégration aux systèmes existants constituent les deux véritables points de blocage. Ainsi, 48 % des répondants identifient l'intégration aux systèmes legacy comme la capacité la plus critique pour élargir l'usage agentique, et 38 % y voient la principale raison pour laquelle les projets restent bloqués entre pilote et production. Contrairement à ce que prônent de nombreux éditeurs IA, une vaste opération de nettoyage des données n'est pas un préalable obligatoire : des agents peuvent fonctionner efficacement dans des environnements de données complexes, à condition que la gouvernance soit renforcée en parallèle. La géographie de l'adoption révèle des disparités profondes. L'Inde domine nettement, avec 50 % des entreprises indiennes déclarant un taux de réussite de leurs projets IA entre 51 % et 75 %, et la plus forte proportion d'utilisateurs se qualifiant d'"experts". À l'inverse, la France et l'Allemagne restent les marchés les plus sceptiques, l'Allemagne enregistrant la plus haute proportion de dirigeants n'utilisant aucune forme d'IA agentique. Les secteurs financier et technologique montrent la progression la plus rapide du pilote vers la production, car ils disposent d'une ligne de vue claire entre automatisation et retour sur investissement mesurable. Le rapport suggère aux secteurs plus lents de s'inspirer de ce modèle : commencer par des workflows à fort volume et périmètre étroit, où les performances se mesurent et les échecs se contiennent, en se concentrant d'abord sur la fonction IT.

UELa France et l'Allemagne sont identifiées comme les marchés les plus sceptiques en matière d'IA agentique, signalant un retard européen que les DSI français devraient prendre en compte dans leur feuille de route d'adoption.

OutilsOutil
1 source
L'état des lieux des assistants de codage IA
3InfoQ AI 

L'état des lieux des assistants de codage IA

Birgitta Böckeler, experte chez Thoughtworks, dresse un état des lieux lucide des assistants de codage par IA en 2025. Dans une présentation intitulée State of Play: AI Coding Assistants, elle analyse comment ces outils ont évolué bien au-delà du simple "vibe coding", cette pratique consistant à générer du code de manière intuitive sans structure rigoureuse, pour entrer dans une phase de maturité plus exigeante, centrée sur ce qu'elle appelle le "context engineering" : l'art de fournir aux modèles le bon contexte au bon moment pour produire du code fiable. Le coeur de son argument porte sur la notion de "harness engineering", soit la conception de contraintes architecturales et de filets de sécurité qui permettent à des agents autonomes de générer du code sans introduire de régressions ou de failles critiques. Pour les responsables techniques, cela implique un arbitrage constant entre vitesse de développement et maintenabilité du code, avec en toile de fond des risques de sécurité réels liés à l'autonomie croissante des modèles, et des coûts d'inférence qui peuvent rapidement s'emballer. Cette réflexion s'inscrit dans un moment charnière pour l'industrie du développement logiciel, où des outils comme GitHub Copilot, Cursor ou les agents de codage d'Anthropic et OpenAI redéfinissent le rôle des ingénieurs. La question n'est plus de savoir si l'IA peut écrire du code, mais comment encadrer cette capacité pour qu'elle soit viable en production, à grande échelle et sur le long terme.

OutilsOutil
1 source
Comment garantir le succès d’un projet d’IA agentielle en entreprise
4Le Big Data 

Comment garantir le succès d’un projet d’IA agentielle en entreprise

Les projets d'intelligence artificielle agentielle explosent dans les entreprises, mais la réalité des déploiements reste bien en deçà des ambitions affichées. Selon McKinsey, le marché mondial de l'IA agentielle pourrait bondir de 5 à 7 milliards de dollars en 2024 à plus de 199 milliards d'ici 2034. Pourtant, Gartner estime que plus de 40 % de ces projets seront abandonnés avant fin 2027, et une étude Qlik révèle que si 97 % des entreprises ont prévu un budget dédié, seulement 18 % sont parvenues à un déploiement complet. Le fossé entre l'enthousiasme et l'exécution est immense, et il s'explique avant tout par des infrastructures de données insuffisamment matures. Contrairement aux outils d'IA générative, qui assistent les employés dans des tâches ponctuelles et peuvent être contrôlés avant toute action, les agents IA agissent directement dans les flux de travail opérationnels : ils détectent des anomalies financières, ajustent la chaîne d'approvisionnement, déclenchent des processus automatiquement. Cette autonomie réduit drastiquement la marge d'erreur tolérée. Un agent qui s'appuie sur des données fragmentées, dupliquées ou mal attribuées peut prendre des décisions erronées sans possibilité de correction immédiate. Les données non structurées, courriels, documents internes, bases de connaissances, aggravent le problème : leur propriétaire est rarement identifié, leur exactitude difficile à vérifier. Résultat : les entreprises découvrent au moment du déploiement que leurs fondations de données ne sont tout simplement pas prêtes à supporter ce niveau de responsabilité. La gouvernance des données et la clarté des responsabilités humaines constituent donc le vrai enjeu stratégique de l'IA agentielle. Définir qui est propriétaire des données, qui valide les décisions automatisées et à quel moment une intervention humaine s'impose n'est pas une formalité administrative : c'est la condition pour que les équipes fassaient confiance au système et pour garantir conformité et traçabilité. En Europe, la loi sur l'IA impose d'ailleurs des exigences de transparence et de gestion des risques dès la conception, ce qui, malgré la contrainte perçue, offre un cadre structurant pour une adoption plus maîtrisée. La prolifération des outils ajoute une couche de complexité supplémentaire : les entreprises qui empilent des solutions sans architecture cohérente se retrouvent avec des silos technologiques qui reproduisent exactement les problèmes de données qu'elles cherchaient à résoudre. La consolidation préalable des données n'est pas un prérequis technique parmi d'autres, c'est le fondement sans lequel aucun projet d'IA agentielle sérieux ne peut tenir ses promesses à grande échelle.

UEL'AI Act européen impose des exigences de transparence et de gestion des risques dès la conception pour les projets d'IA agentielle, structurant directement les déploiements en entreprise sur le marché européen.

OutilsOpinion
1 source