Aller au contenu principal
OutilsNVIDIA AI Blog1h

NVIDIA et ServiceNow s'associent pour développer des agents IA autonomes pour les entreprises

Résumé IASource uniqueImpact UE
Source originale ↗·

Lors de la conférence ServiceNow Knowledge 2026, Jensen Huang, fondateur et PDG de NVIDIA, est monté sur scène aux côtés de Bill McDermott, PDG de ServiceNow, pour annoncer l'extension de leur collaboration dans le domaine de l'intelligence artificielle en entreprise. Au coeur de cette annonce figure Project Arc, un agent autonome de bureau conçu pour fonctionner en continu et évoluer de façon autonome, destiné aux travailleurs du savoir comme les développeurs, les équipes IT et les administrateurs systèmes. Contrairement aux agents IA classiques, Project Arc s'intègre nativement à la plateforme ServiceNow via ServiceNow Action Fabric, et s'appuie sur OpenShell, un moteur d'exécution open source développé par NVIDIA permettant de déployer des agents dans des environnements sandbox gouvernés par des politiques de sécurité. L'agent peut accéder aux systèmes de fichiers locaux, aux terminaux et aux applications installées sur un poste de travail, et exécuter des tâches complexes en plusieurs étapes que l'automatisation traditionnelle ne peut pas prendre en charge.

Ce partenariat marque un tournant dans la manière dont les grandes entreprises envisagent l'IA. Jusqu'ici cantonnée à la génération de texte ou au raisonnement assisté, l'intelligence artificielle passe désormais à l'action de façon autonome, durable et auditable. Pour les organisations, l'enjeu est considérable : déployer des agents capables d'agir sur de vraies infrastructures sans exposer des données sensibles ni contourner les règles de conformité. Project Arc répond à cette exigence en combinant l'AI Control Tower de ServiceNow, qui assure la gouvernance et la traçabilité de chaque action, avec le runtime sécurisé OpenShell de NVIDIA, qui définit précisément ce qu'un agent peut voir, quels outils il peut utiliser et comment chaque action est isolée du reste du système.

L'annonce s'inscrit dans une tendance de fond : après des années d'investissements massifs dans les grands modèles de langage, les acteurs technologiques cherchent à concrétiser l'IA agentique dans des environnements professionnels réels. NVIDIA et ServiceNow misent sur un écosystème ouvert, fondé sur les modèles Nemotron de NVIDIA et des compétences spécialisées développées pour les ServiceNow AI Specialists, pour permettre aux entreprises d'adapter ces systèmes à leurs propres données et processus métier. Les deux sociétés co-développent également NOWAI-Bench, une suite de benchmarks ouverte pour évaluer les performances des agents IA en entreprise, intégrée à la bibliothèque NVIDIA NeMo Gym. L'environnement EnterpriseOps-Gym, l'un des plus exigeants du secteur, fait partie de cet effort pour établir des standards communs dans une course à l'agentique qui mobilise désormais tous les grands acteurs du cloud et de l'infrastructure.

Impact France/UE

Les entreprises européennes pourraient déployer Project Arc en s'appuyant sur ses mécanismes de gouvernance et de traçabilité pour répondre aux exigences d'auditabilité imposées par l'AI Act.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1NVIDIA AI Blog 

Adobe déploie des agents IA autonomes à grande échelle avec NVIDIA et WPP pour booster la créativité

Adobe, NVIDIA et WPP ont annoncé un renforcement de leur collaboration stratégique pour déployer des agents IA au cœur des opérations marketing d'entreprise, une annonce faite à l'occasion de l'Adobe Summit, dont la keynote du deuxième jour est prévue le 21 avril 2026. Le dispositif repose sur trois briques complémentaires : les plateformes créatives d'Adobe, dont le nouvel Adobe CX Enterprise Coworker, le runtime sécurisé NVIDIA OpenShell combiné aux modèles ouverts Nemotron et au NVIDIA Agent Toolkit, et l'expertise mondiale de WPP en conseil marketing. Concrètement, ces agents sont capables de générer, adapter et versionner des visuels, du texte et des offres commerciales à travers des millions de combinaisons de produits, d'audiences et de canaux, en quelques minutes plutôt qu'en plusieurs mois. L'enjeu central de cette collaboration est le contrôle. Quand des agents IA orchestrent des flux de travail en plusieurs étapes, accèdent à des données sensibles et déclenchent des actions automatisées à grande échelle, la question de la gouvernance devient critique pour les grandes entreprises. NVIDIA OpenShell répond à ce problème en faisant tourner chaque agent dans un environnement conteneurisé, isolé et auditable, avec une gestion de politiques vérifiable qui définit précisément ce que l'agent est autorisé à faire, et pas seulement quelles règles sont théoriquement en place. Adobe Firefly Foundry, accéléré par l'infrastructure NVIDIA, permet par ailleurs aux organisations d'entraîner des modèles personnalisés sur leurs propres actifs pour produire du contenu commercialement sûr, aligné sur l'identité de marque. Cette annonce s'inscrit dans une course industrielle à l'automatisation du marketing de masse personnalisé, portée par la demande explosive d'expériences client sur mesure à travers tous les canaux numériques. Adobe complète son offre avec une solution de jumeaux numériques 3D désormais disponible en général, construite sur les bibliothèques NVIDIA Omniverse et le standard OpenUSD : ces répliques virtuelles de produits servent d'identités persistantes que les agents exploitent pour automatiser la production de contenus haute fidélité dans différents formats et marchés. La convergence entre Adobe, spécialiste du creative cloud et de l'expérience client, NVIDIA, fournisseur d'infrastructure d'accélération et de couches logicielles agentiques, et WPP, premier groupe mondial de communication, dessine un modèle où les grandes marques pourraient déléguer l'essentiel de leur production créative à des systèmes autonomes, tout en conservant un contrôle granulaire sur chaque action déclenchée.

UEWPP, premier groupe mondial de communication avec une forte présence en Europe, est au cœur de ce déploiement, ce qui pourrait accélérer l'adoption d'agents IA dans les agences marketing européennes travaillant sur des campagnes multicanal à grande échelle.

OutilsOutil
1 source
2MarkTechPost 

xAI lance des API autonomes de reconnaissance et synthèse vocale Grok pour les développeurs entreprise

xAI, la société d'intelligence artificielle d'Elon Musk, a lancé deux nouvelles API audio autonomes : une API de transcription vocale (Speech-to-Text) et une API de synthèse vocale (Text-to-Speech), toutes deux basées sur la même infrastructure qui alimente Grok Voice sur les applications mobiles, les véhicules Tesla et le support client Starlink. L'API STT est disponible dès maintenant, avec transcription en 25 langues, modes batch et temps réel, à des tarifs de 0,10 dollar par heure en batch et 0,20 dollar en streaming. L'API TTS, elle, est facturée 4,20 dollars par million de caractères, prend en charge 20 langues et propose cinq voix distinctes. Les deux API entrent directement en concurrence avec les acteurs établis du marché : ElevenLabs, Deepgram et AssemblyAI. Ces nouveaux outils s'adressent en priorité aux développeurs qui construisent des agents vocaux, des systèmes de transcription de réunions, des centres d'appels automatisés ou des fonctionnalités d'accessibilité. Sur le plan technique, l'API STT intègre des horodatages au niveau du mot, la diarisation des locuteurs (identification de qui parle à quel moment), le support de 12 formats audio et une normalisation intelligente du texte qui convertit automatiquement les formes orales en formats lisibles. L'API TTS se distingue par sa capacité à injecter des balises expressives dans le texte, comme [laugh], [sigh] ou des balises enveloppantes comme whisper et emphasis, permettant une synthèse vocale naturelle et nuancée, loin de la monotonie des systèmes classiques. Sur les benchmarks internes, xAI revendique un taux d'erreur de 5,0 % pour la reconnaissance d'entités sur appels téléphoniques, contre 12,0 % pour ElevenLabs, 13,5 % pour Deepgram et 21,3 % pour AssemblyAI. Ce lancement s'inscrit dans une stratégie d'expansion agressive de xAI, qui cherche à monétiser ses capacités audio au-delà de l'écosystème Grok et à conquérir un marché entreprise où la qualité de transcription et la latence sont des critères décisifs. Le marché des API vocales connaît une forte croissance portée par l'essor des agents IA conversationnels, des outils de réunion automatisés et des interfaces vocales embarquées. Si les performances annoncées se confirment en production, xAI dispose d'un avantage compétitif tangible face à des concurrents bien établis, mais les développeurs attendront des validations indépendantes avant de migrer leurs infrastructures critiques vers une plateforme encore jeune.

💬 Les chiffres du benchmark STT sont impressionnants, 5% d'erreur contre 21% pour AssemblyAI, bon, sur le papier. Le pricing est agressif et les features (diarisation, balises expressives) montrent qu'ils ont bossé le sujet sérieusement, pas juste un wrapper OpenAI Whisper habillé. Reste à voir si ça tient en prod sur des accents français ou du bruit ambiant réel, parce que les benchmarks internes de xAI, j'attends la validation communautaire avant de migrer quoi que ce soit.

OutilsOutil
1 source
3Le Big Data 

Agents IA autonomes : définition, fonctionnement et cas d’usage en entreprise

En 2026, les entreprises ne se limitent plus à utiliser l'intelligence artificielle pour générer du contenu : elles lui confient désormais des pans entiers de leur exécution opérationnelle. Les agents IA autonomes représentent cette nouvelle catégorie de systèmes capables d'atteindre des objectifs complexes sans supervision humaine constante. Contrairement à un chatbot classique comme ChatGPT qui attend une instruction pour produire un texte ou une image, un agent reçoit une intention globale et agit en conséquence : si on lui demande d'organiser un voyage d'affaires, il recherche les vols, compare les hôtels et effectue les réservations de lui-même. Ces systèmes fonctionnent selon une boucle logique permanente, perception, raisonnement, action, apprentissage, en s'appuyant sur des grands modèles de langage pour décider de la meilleure marche à suivre, et sur des outils comme des API, des navigateurs web ou des accès directs aux logiciels métier pour exécuter leurs décisions. L'impact concret pour les entreprises est avant tout économique et opérationnel. Ces agents travaillent sans interruption, traitent des volumes de données inaccessibles à un humain, et peuvent gérer de bout en bout des flux financiers, des chaînes logistiques ou des cycles de relation client, rédiger un e-mail, mettre à jour un CRM, déclencher un paiement. Leur mémoire persistante leur permet de capitaliser sur les interactions passées pour optimiser leurs actions futures, réduisant progressivement le besoin de supervision technique. La logique n'est plus celle d'un outil à piloter, mais d'un collaborateur proactif doté d'une capacité de raisonnement contextuel. De nombreuses applications métier devraient intégrer ces agents d'ici la fin de l'année 2026, ce qui en fait un impératif stratégique plutôt qu'une expérimentation. Cette évolution s'inscrit dans une transition plus large de l'IA générative vers ce qu'on appelle la « révolution agentique ». Pendant des années, les entreprises ont utilisé l'IA comme un assistant réactif ; la rupture consiste à lui déléguer une autonomie décisionnelle réelle sur des processus à enjeux. Mais cette agilité nouvelle soulève des défis de gouvernance sérieux : prolifération d'agents non supervisés, exposition des données sensibles aux outils tiers, traçabilité des décisions automatisées. Les acteurs qui tireront parti de ce tournant ne seront pas ceux qui accumulent le plus d'outils, mais ceux qui construisent une architecture IA solide, avec des garde-fous clairs sur ce que les agents sont autorisés à faire en leur nom. La question centrale pour les dirigeants n'est plus technique, elle est stratégique : jusqu'où laisser agir une entité qui possède sa propre logique d'exécution.

UELes entreprises européennes devront encadrer leur déploiement d'agents IA autonomes en conformité avec les exigences de traçabilité et de gouvernance imposées par l'AI Act.

OutilsOutil
1 source
Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick
4AWS ML Blog 

Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick

Visier, plateforme d'intelligence des ressources humaines basée dans le cloud, et Amazon Quick, l'espace de travail agentique d'IA d'Amazon, ont annoncé une intégration technique permettant à leurs systèmes de fonctionner de concert via le Model Context Protocol (MCP), un standard ouvert d'interopérabilité pour agents IA. Concrètement, Visier centralise les données RH d'une organisation, SIRH, paie, gestion des talents, suivi des candidatures, et les rend accessibles en temps réel à travers son assistant IA interne appelé Vee. Amazon Quick, de son côté, sert d'interface unifiée où les collaborateurs posent leurs questions, automatisent des processus et construisent des agents travaillant en leur nom. Le MCP joue le rôle d'adaptateur universel entre les deux systèmes, sans nécessiter d'intégration personnalisée. L'intérêt concret de cette connexion est illustré par deux profils types : Maya, Business Partner RH qui prépare un bilan de santé organisationnel pour un comité de direction, et David, responsable financier qui suit l'évolution des effectifs par rapport aux budgets prévisionnels. Avant cette intégration, chacun devait interroger plusieurs outils séparément, recouper manuellement des données issues de sources hétérogènes, et passer d'un tableau de bord à l'autre. Désormais, depuis Amazon Quick, ils peuvent poser une question en langage naturel et obtenir une réponse qui croise simultanément les données live de Visier, les politiques internes de recrutement, les objectifs financiers et le contexte historique, sans changer d'outil. Pour Maya, cela signifie accéder instantanément aux taux d'attrition, aux performances moyennes par département ou à la durée de tenure. Pour David, obtenir les chiffres d'effectifs en temps réel mesurés contre les cibles budgétaires. Cette intégration s'inscrit dans une tendance de fond : la multiplication des architectures dites "multi-agents", où des plateformes spécialisées exposent leurs capacités via des protocoles standardisés plutôt que des connecteurs ad hoc. Le MCP, popularisé depuis fin 2024, est devenu le langage commun qui permet à des outils comme Visier de s'insérer dans des écosystèmes IA plus larges sans friction technique. Visier, qui s'appuie sur des données anonymisées de millions de salariés pour ses benchmarks sectoriels, cherche ainsi à étendre sa portée au-delà des équipes RH vers l'ensemble des décideurs de l'entreprise. Amazon Quick, en agrégeant ces sources d'intelligence métier dans un seul espace conversationnel, parie sur le fait que la valeur de l'IA en entreprise réside moins dans les modèles eux-mêmes que dans leur capacité à connecter des silos de données jusqu'ici cloisonnés.

OutilsOutil
1 source