Aller au contenu principal
OutilsAWS ML Blog1sem

IA agentique en entreprise – Partie 2 : Conseils par persona

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Dans la deuxième partie de cette série de l'AWS Generative AI Innovation Center, les auteurs s'adressent directement aux dirigeants d'entreprise pour leur expliquer comment déployer concrètement des agents IA selon leur rôle. Pour les responsables métier (P&L owners), la recommandation clé est de rédiger une "fiche de poste" pour l'agent — avec des objectifs précis liés aux KPIs existants (délais, coûts, taux d'erreurs) — avant de penser à la technologie. L'entrée en matière idéale est un agent qui consolide les handoffs entre équipes et pré-instruit les dossiers, générant des économies rapides qui permettent d'obtenir le soutien du CFO pour des projets plus ambitieux.

This is Part II of a two-part series from the AWS Generative AI Innovation Center. If you missed Part I, refer to Operationalizing Agentic AI Part 1: A Stakeholder’s Guide . The biggest barrier to agentic AI isn’t the technology—it’s the operating model. In Part I , we established that organizations generating real value from agents share three traits: they define work in precise detail, they bound autonomy deliberately, and they treat improvement as a continuous habit rather than a one-time project. We also introduced the four ingredients of work that is truly “agent-shaped”: a clear start and end, judgment across tools, observable and measurable success, and a safe failure mode. Without these foundations, even the most sophisticated agent will stall in the lab. Now comes the harder question: who makes it work, and how ? In Part II, we speak directly to the leaders who must turn that shared foundation into action. Each role carries a distinct set of responsibilities, risks, and leverage points. Whether you own a P&L, run enterprise architecture, lead security, govern data, or manage compliance, this section is written in the language of your job—because that’s where agentic AI either succeeds or quietly dies. Part II – Guidance by persona For the line-of-business owner: put the agent on the hook for your KPIs. If you own a P&L, you don’t need another technology toy. You need fewer open tickets, fewer days in your cash conversion cycle, fewer abandoned carts, fewer compliance exceptions. An agent is useful only if it can be tied directly to those numbers. The first step is to write a job description for the agent the same way you would for a new hire. “This agent takes inbound X, checks Y, does Z, and hands off to this team when it’s done.” Include what done means in your operational terms: time to respond, quality threshold, escalation triggers, and customer-facing commitments. The second step is to anchor the business case in numbers your own team already tracks. How many units per week pass through this workflow? What does each unit cost in labor, rework, and write-offs? How long does it spend waiting in queues? How often does it bounce back because something was missing or wrong? If you can’t answer these questions today, your first project isn’t an agent—it’s instrumenting the workflow. The third step is sequencing. Early in the journey, the most useful agent is often the one that collapses handoffs: it reads the inbound request, gathers context from multiple systems, proposes a plan, and drops that plan into your team’s lap with everything pre-staged. It may not close the loop by itself, but it can remove hours or days of back-and-forth. Cost-saving wins like this help build credibility with the CFO and give you political capital to pursue more ambitious, revenue-focused use cases later. The line-of-business owner doesn’t need to understand models or prompts. They need to own a small portfolio of agent jobs tied directly to their metrics, and they need to insist that every initiative starts with a written job contract, not a slide with a label. For the CTO or chief architect: Decide whether you want ten agents or one hundred If you’re the CTO, one of your biggest risks is success. Once the first agent lands well, other teams will want one. If each team builds its own stack—own framework, own connectors, own access model—you’ll end up with a zoo of agents that look different, are tested differently, and are impossible to monitor as a whole. The architecture question is simple to state and hard to execute: do you want ten impressive one-off agents, or do you want a system that can support one hundred agents safely? The system path asks you to do some hard work early. It means standardizing how tools are exposed so that every agent calls the same integration when it needs to read customer data, update a ticket, or book a payment. It means separating thinking from doing in your design: one component plans, another calls tools, another checks compliance, another explains decisions back to users. It means capturing decision traces in a consistent format so observability and debugging work across use cases. It also asks you to think about agents as long-lived services, not short-lived scripts. They need identities, permissions, rotation, lifecycle management, and a way to be upgraded without breaking their consumers. That’s more work on day one, but it’s what allows you to say “Yes” to the tenth team that wants an agent without starting from scratch. The CTO’s job isn’t to pick the best agent framework in a vacuum. It’s to build a sturdy floor—identity, policy enforcement, logging, connectors, and evaluation hooks—that allows many teams to ship agents safely, quickly, and consistently. For the CISO: Treat agents like colleagues, not code If you’re responsible for security, you’re used to thinking in assets: systems, data stores, credentials. Agents add something new to your threat model: authorized entities

À lire aussi

1The Verge AI1h

Le mode automatique de Claude Code d'Anthropic devient plus sûr

Anthropic a lancé un nouveau mode appelé « auto mode » pour Claude Code, son outil de codage assisté par IA. Cette fonctionnalité permet à l'agent de prendre des décisions autonomes concernant les permissions, sans nécessiter une validation manuelle constante de l'utilisateur. Elle s'adresse particulièrement aux développeurs qui souhaitent déléguer davantage de tâches à l'IA tout en conservant un filet de sécurité. L'enjeu est de taille : Claude Code peut agir de manière indépendante, ce qui présente des risques réels comme la suppression de fichiers, la fuite de données sensibles ou l'exécution d'instructions malveillantes. L'auto mode vise à combler le fossé entre une supervision permanente — jugée contraignante — et une autonomie totale jugée dangereuse. Concrètement, le système détecte et bloque les actions potentiellement risquées avant leur exécution, tout en proposant à l'agent une alternative plus sûre. Anthropic positionne ainsi Claude Code dans un segment en pleine expansion : les outils d'IA « agentiques » capables d'agir seuls sur un poste de travail, un marché où la gestion des risques devient un argument commercial différenciant.

OutilsOutil
1 source
2Blog du Modérateur1h

ChatGPT enrichit son expérience shopping et abandonne Instant Checkout

OpenAI a mis à jour l'interface shopping de ChatGPT, la rendant plus visuelle et intuitive. La nouvelle version permet de comparer les produits plus facilement et introduit une recherche par image. En parallèle, la fonctionnalité Instant Checkout, qui permettait d'acheter directement depuis le chatbot, a été abandonnée. Ce repositionnement transforme ChatGPT en outil de découverte et de comparaison plutôt qu'en canal de vente directe. Cela redirige les utilisateurs vers les marchands pour finaliser leurs achats, ce qui soulage les tensions avec les retailers tout en conservant ChatGPT comme point d'entrée dans le parcours d'achat. Cette évolution s'inscrit dans la montée en puissance des assistants IA comme moteurs de recherche commerciale, en concurrence directe avec Google Shopping et Amazon.

OutilsOutil
1 source
3NVIDIA AI Blog1h

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Lors du match de l'Euro 2020 entre l'Angleterre et l'Allemagne, des millions de téléspectateurs britanniques ont allumé leur bouilloire à la mi-temps simultanément, provoquant un pic de demande d'environ 1 gigawatt sur le réseau électrique national — l'équivalent d'un réacteur nucléaire standard. C'est ce phénomène, surnommé le "TV pickup", qui a inspiré une démonstration inédite menée en décembre 2025 à Londres par Emerald AI, en collaboration avec NVIDIA, EPRI, National Grid et Nebius. L'expérience s'est déroulée dans une "usine IA" construite sur l'infrastructure NVIDIA de Nebius, équipée de 96 GPU NVIDIA Blackwell Ultra connectés via la plateforme InfiniBand NVIDIA Quantum-X800. En simulant ce même pic d'énergie lié au match de football, le cluster IA a automatiquement réduit sa consommation pour absorber le choc — sans interrompre les charges de travail prioritaires. Cette technologie, baptisée Emerald AI Conductor Platform, ouvre une perspective concrète pour la gestion des réseaux électriques sous tension. Les usines IA, habituellement perçues comme de nouveaux fardeau énergétiques, deviennent ici des actifs flexibles capables d'ajuster leur consommation en quelques secondes selon des signaux envoyés par les gestionnaires de réseau. Lors des tests, le système a respecté 100 % des plus de 200 cibles de puissance définies par EPRI et National Grid, couvrant non seulement les GPU mais aussi les CPU et l'ensemble des équipements informatiques. En pratique, cela signifie que le réseau peut gérer les pics de demande avec les capacités existantes, sans avoir à construire d'infrastructures permanentes surdimensionnées pour les scénarios les plus extrêmes — ce qui contribue directement à limiter la hausse des tarifs pour les consommateurs. Pour les opérateurs de centres de données, l'avantage est également majeur : cette flexibilité leur permet d'obtenir des raccordements au réseau bien plus rapidement, sans attendre des années de travaux d'infrastructure. Après des essais probants dans trois États américains — Arizona, Virginie et Illinois —, Emerald AI a transposé son approche au Royaume-Uni, dans un contexte où la croissance explosive des besoins énergétiques liés à l'IA met sous pression les gestionnaires de réseaux du monde entier.

UELes gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

OutilsActu
1 source
4InfoQ AI1h

Podcast : [Vidéo] Systèmes agentiques sans chaos : premiers modèles opérationnels pour agents autonomes

Shweta Vohra et Joseph Stein consacrent un épisode de podcast à la question des systèmes agentiques — ces logiciels capables de planifier, d'agir et de prendre des décisions de manière autonome. Les deux experts y examinent ce qui distingue véritablement un agent IA d'une simple automatisation traditionnelle, et comment concevoir ces systèmes sans perdre le contrôle. La discussion porte sur les défis concrets pour les architectes et ingénieurs : comment définir les limites d'action d'un agent, comment orchestrer plusieurs agents entre eux, et quels modèles organisationnels adopter dès les premières phases de déploiement. L'enjeu est de tirer parti de l'autonomie de ces systèmes tout en évitant le chaos opérationnel. Le sujet s'inscrit dans une réflexion plus large sur la maturité croissante des agents IA, qui passent progressivement du statut d'assistants réactifs à celui d'acteurs autonomes dans les infrastructures logicielles.

OutilsOpinion
1 source