Aller au contenu principal
OutilsVentureBeat AI2h

Les agents IA d'Intuit atteignent 85 % d'utilisation répétée grâce à la supervision humaine

1 source couvre ce sujet·Source originale ↗·
Les agents IA d'Intuit atteignent 85 % d'utilisation répétée grâce à la supervision humaine
▶ Voir sur YouTube

Intuit, la maison mère de QuickBooks, TurboTax et Mailchimp, a déployé ses agents d'IA auprès de 3 millions de clients et enregistre un taux de réutilisation de 85 %. Ce résultat, présenté par Marianna Tessel, vice-présidente exécutive de l'entreprise, repose sur un pari contre-intuitif : maintenir des experts humains dans la boucle plutôt que d'automatiser entièrement. La plateforme, baptisée Intuit Intelligence, propose des agents spécialisés en comptabilité, fiscalité, paie, ventes et gestion de projets, accessibles en langage naturel. Les clients rapportent que leurs factures sont désormais payées à 90 % et cinq jours plus tôt, et que le travail manuel a diminué de 30 %. Un cas concret illustre l'enjeu : un utilisateur a découvert une fraude significative en interrogeant un agent sur des montants suspects — ce que des outils purement automatisés n'auraient probablement pas déclenché sans l'initiative humaine.

L'impact est direct pour les PME et les professionnels de la finance : clôtures comptables accélérées, catégorisation automatique des transactions, relances de factures et détection d'anomalies sans intervention manuelle. Mais ce qui distingue l'approche d'Intuit, c'est que la plateforme est conçue pour orienter les utilisateurs vers un expert humain — comptable, fiscaliste ou spécialiste de la paie — dès que la décision devient critique ou que l'IA atteint ses limites. Tessel parle de moments "à enjeux élevés" où la validation humaine apporte une confiance que l'automatisation seule ne peut pas garantir. Cette combinaison intelligence artificielle / intelligence humaine devient, selon elle, "plus nécessaire et plus puissante aux bons moments", et non moins pertinente à mesure que l'IA progresse.

Intuit avait lancé sa plateforme GenOS dès juin dernier, bien avant que la vague de l'IA générative ne force les éditeurs SaaS à repenser leur modèle face au risque de désintermédiation. L'entreprise a rapidement abandonné le modèle chatbot classique, jugé insuffisant en environnement entreprise, pour construire une couche d'agents métiers plus structurée. La prochaine étape vise le "vibe coding" : permettre à des non-développeurs de créer leurs propres agents automatisés en exprimant simplement ce qu'ils veulent accomplir. L'exemple avancé est celui d'un fleuriste qui configure un agent analysant ses ventes passées pour anticiper les stocks de la fête des mères — sans écrire une ligne de code. Avec 600 000 points de données par client, Intuit estime disposer d'un avantage concurrentiel structurel que ses concurrents auront du mal à répliquer, les données propriétaires devenant le véritable fossé défensif de l'ère des agents IA.

Impact France/UE

Les PME européennes utilisant QuickBooks ou d'autres outils SaaS financiers peuvent s'inspirer de cette approche hybride IA/humain pour améliorer leur gestion comptable et leur détection de fraude.

À lire aussi

1Ars Technica AI 

Voici ce que la fuite du code source de Claude Code révèle sur les plans d'Anthropic

La fuite inattendue du code source de Claude Code, l'outil de développement d'Anthropic, a mis en lumière les coulisses techniques de ce produit phare. Plus de 512 000 lignes de code réparties sur plus de 2 000 fichiers ont été rendues accessibles, permettant à de nombreux observateurs de les analyser en détail. Au-delà de l'architecture existante, les chercheurs ont découvert des références à des fonctionnalités désactivées, cachées ou inactives — offrant un aperçu inédit de la feuille de route potentielle d'Anthropic. La découverte la plus marquante est celle d'un système baptisé Kairos : un démon persistant conçu pour fonctionner en arrière-plan, même lorsque la fenêtre du terminal Claude Code est fermée. Ce système utiliserait des invitations périodiques appelées ` pour évaluer régulièrement si de nouvelles actions sont nécessaires, ainsi qu'un drapeau PROACTIVE destiné à "remonter proactivement quelque chose que l'utilisateur n'a pas demandé mais qu'il a besoin de voir maintenant." Kairos s'appuie sur un système de mémoire basé sur des fichiers, permettant une continuité d'opération entre les sessions utilisateur. Un prompt découvert derrière le drapeau désactivé KAIROS` précise que l'objectif est que le système "dispose d'une image complète de qui est l'utilisateur, comment il souhaite collaborer, quels comportements éviter ou reproduire, et le contexte derrière son travail." Cette fuite intervient dans un contexte de compétition intense entre les assistants de développement — GitHub Copilot, Cursor, et Windsurf se disputant le même marché. L'émergence d'un agent autonome et persistant comme Kairos marquerait un tournant majeur : on passerait d'un outil réactif à une IA proactive capable d'initiative. Cela soulève également des questions sur la vie privée et la surveillance des développeurs, puisque le système est explicitement conçu pour profiler les habitudes de travail et anticiper les besoins. Si Anthropic confirme et déploie ces fonctionnalités, Claude Code ne serait plus seulement un assistant — il deviendrait un collaborateur permanent, toujours actif en fond de session.

UELe système Kairos, conçu pour profiler en continu les habitudes de travail des développeurs, soulève des questions de conformité au RGPD pour les entreprises et développeurs européens utilisant Claude Code.

OutilsOutil
1 source
2AWS ML Blog 

Amazon Nova Act automatise l'analyse concurrentielle des prix

Amazon a lancé Nova Act, un SDK open-source de navigation web conçu pour construire des agents capables d'automatiser des tâches complexes dans un navigateur via des instructions en langage naturel. Présenté comme un service AWS, Nova Act permet aux développeurs de structurer des automatisations en Python en combinant des commandes ciblées et une logique programmatique — tests, assertions, parallélisation par thread-pooling. Son cas d'usage phare : la surveillance automatisée des prix des concurrents dans le e-commerce, un domaine où des équipes entières passent encore des heures chaque jour à consulter manuellement des dizaines de sites rivaux, à relever des prix et à consolider ces données dans des tableurs. Le problème que Nova Act cherche à résoudre est réel et coûteux. Dans un environnement où les prix fluctuent plusieurs fois par jour, décider sur la base de données vieilles de quelques heures suffit à faire perdre des revenus ou à rater des opportunités. Les scripts traditionnels basés sur des sélecteurs CSS rigides cassent dès qu'un site concurrent modifie son interface — ce qui arrive constamment avec les promotions éphémères et les rotations de composants. Nova Act contourne ce problème grâce à une approche pilotée par le langage naturel, ce qui rend les agents plus résilients face aux évolutions de layout. L'impact dépasse le e-commerce : assureurs comparant des contrats, banques analysant des taux de crédit, agences de voyage suivant les tarifs de vols et d'hôtels — tous sont confrontés aux mêmes goulets d'étranglement. Amazon Nova Act s'inscrit dans une tendance de fond : la course des grands clouds à proposer des outils d'automatisation web capables de rivaliser avec des solutions comme Playwright ou Puppeteer, mais orientés vers des agents IA plutôt que vers de simples tests. AWS positionne Nova Act directement dans l'écosystème du "commerce agentique", un segment en pleine émergence où des agents autonomes prennent en charge des workflows multi-étapes — surveillance, mise à jour de catalogues, validation de contenus. En rendant le SDK open-source et en l'intégrant nativement à ses services cloud, Amazon cherche à attirer les équipes techniques qui construisent des pipelines de veille concurrentielle à grande échelle, tout en ancrant ces workloads dans l'infrastructure AWS.

UELes équipes e-commerce et retail européennes peuvent adopter Nova Act pour automatiser leur veille tarifaire concurrentielle, réduisant une charge manuelle coûteuse dans des secteurs comme la grande distribution, les assurances et le voyage.

OutilsOutil
1 source
3Le Big Data 

Une IA qui rêve la nuit ? Les incroyables secrets du méga-leak d’Anthropic

Le 31 mars 2026, Anthropic a commis l'une des erreurs de déploiement les plus coûteuses de l'histoire récente de l'IA. En publiant la mise à jour 2.1.88 de Claude Code, son agent de programmation autonome, l'entreprise a oublié de retirer un fichier de débogage de 59,8 mégaoctets — un fichier .map qui contenait l'intégralité du code source original de l'outil : plus de 512 000 lignes de TypeScript. En quelques heures, ce code a été partagé plus de 50 000 fois sur GitHub et disséqué par des développeurs du monde entier. Anthropic, qui génère 2,5 milliards de dollars de revenus annuels et dont Claude Code est devenu l'outil de référence dans les équipes techniques des plus grandes entreprises tech, venait d'exposer publiquement la mécanique interne de son produit phare. Ce qui rend cette fuite particulièrement grave n'est pas la compromission de données personnelles ou d'identifiants — il n'y en a pas. C'est la nature même de ce qui a été exposé : l'architecture d'orchestration complète de Claude Code, c'est-à-dire la logique qui lui permet de raisonner, de planifier et de maintenir une cohérence sur des tâches longues. Les concurrents disposent désormais d'un manuel opérationnel détaillé pour construire des agents autonomes comparables. Parmi les découvertes les plus significatives figure un drapeau d'activation nommé KAIROS — référence au concept grec du « moment opportun » — mentionné plus de 150 fois dans le code. Il correspond à un mode « démon autonome » inédit : Claude Code serait capable de continuer à fonctionner en arrière-plan, même terminal fermé, même utilisateur déconnecté. Associée à ce mode, une fonction baptisée autoDream simule une forme de consolidation mémorielle nocturne : lorsque l'utilisateur est inactif, un sous-agent se lance pour trier les observations de la journée, fusionner les informations contradictoires et transformer des déductions vagues en connaissances structurées — un mécanisme directement inspiré du rôle du sommeil paradoxal dans la mémoire humaine. Cette fuite intervient dans un contexte de course effrénée entre les grands laboratoires d'IA pour développer des agents capables d'opérer de façon véritablement autonome sur des horizons temporels longs. Anthropic, OpenAI, Google DeepMind et plusieurs challengers financent massivement cette direction depuis 2024. KAIROS et autoDream montrent qu'Anthropic avait une longueur d'avance significative sur ces capacités — et que ces fonctionnalités n'étaient pas encore annoncées publiquement au moment du leak. La question qui agite désormais la communauté est double : dans quelle mesure des concurrents comme Google ou xAI vont-ils exploiter ce code pour accélérer leurs propres développements, et Anthropic parviendra-t-il à maintenir son avantage malgré la mise à nu involontaire de son infrastructure technique la plus stratégique ?

OutilsOpinion
1 source
4ZDNET AI 

J'ai utilisé l'outil IA de Gmail pour faire des heures de travail en 10 minutes, avec 3 prompts

Le contenu de l'article fourni est quasi-vide — seule la phrase d'accroche est présente ("I just had a 'living in the future' moment with Gmail, of all things. Here's what happened."), sans les faits, chiffres, ni détail des 3 prompts utilisés. Je ne peux pas rédiger un article factuel et précis (paragraphe 1 exige "qui, quoi, quand, chiffres précis") sans inventer des informations — ce que je refuse de faire. Pour que je puisse rédiger le résumé, colle le corps complet de l'article (les sections suivant l'intro).

OutilsOutil
1 source