Aller au contenu principal
OutilsFrandroid6sem

Shazam est désormais accessible via ChatGPT… si vous aimez vous compliquer la vie

1 source couvre ce sujet·Source originale ↗·

ChatGPT intègre désormais Shazam, lui permettant d'identifier des chansons en plus de ses fonctionnalités natives. Cette collaboration entre OpenAI et Shazam renforce le positionnement de ChatGPT comme application polyvalente.

À lire aussi

1Le Big Data 

Revenium AI Outcomes : les CFOs enfin armés contre l’Agent Debt

Revenium, une startup spécialisée dans l'observabilité économique de l'IA, vient de lancer AI Outcomes, une fonctionnalité qui relie chaque dollar dépensé en agents IA à un résultat business mesurable. Portée par une levée de 13,5 millions de dollars auprès de Two Bear Capital, la plateforme s'attaque au problème que son CEO John Rowell appelle l'"Agent Debt" : l'accumulation de coûts techniques, tokens et appels API, qui s'envolent sans générer de valeur concrète pour l'entreprise. Le cas concret mis en avant est frappant : une fintech traitait auparavant 1 000 dossiers de prêts en 200 heures pour 7 000 dollars. Avec les agents IA supervisés par Revenium, le même volume est traité en trois minutes pour 2 950 dollars, avec un taux d'approbation en hausse de 95 %, soit un ROI annoncé de 13 000 % et un coût par conversion de 3,78 dollars. L'enjeu est directement financier et organisationnel. Jusqu'ici, les directions techniques pouvaient difficilement justifier leurs budgets IA face aux CFOs : les métriques disponibles étaient des indicateurs de performance technique (latence, taux d'erreur, tokens consommés) sans lien clair avec le chiffre d'affaires. Revenium comble ce fossé en séparant l'état technique d'un agent de son résultat métier réel, une conversion aboutie, un transfert vers un humain, un prêt validé à 500 dollars, et en affichant dans un tableau de bord unique ce qu'a coûté l'IA versus ce qu'elle a rapporté. Pour les équipes financières, c'est la différence entre un rapport flou et une ligne comptable vérifiable : 2 950 dollars investis, 390 000 dollars de revenus générés. La plateforme s'inscrit dans un mouvement plus large de maturité autour de l'IA en entreprise, à mi-chemin entre le FinOps, la discipline de contrôle des coûts cloud, et ce que certains appellent déjà le GreenOps, l'optimisation de l'empreinte énergétique des modèles. À mesure que les entreprises déploient des agents autonomes en production, la question n'est plus "l'IA fonctionne-t-elle ?" mais "l'IA est-elle rentable ?". Revenium parie que les agents IA, traités comme de véritables employés devant justifier leur coût, deviendront la norme dans les grandes organisations. Avec un premier outil de "Tool Registry" déjà en place et cette deuxième brique centrée sur les résultats économiques, la startup cherche à s'imposer comme la couche de gouvernance financière incontournable pour tout déploiement d'IA à l'échelle.

OutilsOutil
1 source
Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick
2AWS ML Blog 

Développer des agents IA pour la gestion des effectifs avec Visier et Amazon Quick

Visier, plateforme d'intelligence des ressources humaines basée dans le cloud, et Amazon Quick, l'espace de travail agentique d'IA d'Amazon, ont annoncé une intégration technique permettant à leurs systèmes de fonctionner de concert via le Model Context Protocol (MCP), un standard ouvert d'interopérabilité pour agents IA. Concrètement, Visier centralise les données RH d'une organisation, SIRH, paie, gestion des talents, suivi des candidatures, et les rend accessibles en temps réel à travers son assistant IA interne appelé Vee. Amazon Quick, de son côté, sert d'interface unifiée où les collaborateurs posent leurs questions, automatisent des processus et construisent des agents travaillant en leur nom. Le MCP joue le rôle d'adaptateur universel entre les deux systèmes, sans nécessiter d'intégration personnalisée. L'intérêt concret de cette connexion est illustré par deux profils types : Maya, Business Partner RH qui prépare un bilan de santé organisationnel pour un comité de direction, et David, responsable financier qui suit l'évolution des effectifs par rapport aux budgets prévisionnels. Avant cette intégration, chacun devait interroger plusieurs outils séparément, recouper manuellement des données issues de sources hétérogènes, et passer d'un tableau de bord à l'autre. Désormais, depuis Amazon Quick, ils peuvent poser une question en langage naturel et obtenir une réponse qui croise simultanément les données live de Visier, les politiques internes de recrutement, les objectifs financiers et le contexte historique, sans changer d'outil. Pour Maya, cela signifie accéder instantanément aux taux d'attrition, aux performances moyennes par département ou à la durée de tenure. Pour David, obtenir les chiffres d'effectifs en temps réel mesurés contre les cibles budgétaires. Cette intégration s'inscrit dans une tendance de fond : la multiplication des architectures dites "multi-agents", où des plateformes spécialisées exposent leurs capacités via des protocoles standardisés plutôt que des connecteurs ad hoc. Le MCP, popularisé depuis fin 2024, est devenu le langage commun qui permet à des outils comme Visier de s'insérer dans des écosystèmes IA plus larges sans friction technique. Visier, qui s'appuie sur des données anonymisées de millions de salariés pour ses benchmarks sectoriels, cherche ainsi à étendre sa portée au-delà des équipes RH vers l'ensemble des décideurs de l'entreprise. Amazon Quick, en agrégeant ces sources d'intelligence métier dans un seul espace conversationnel, parie sur le fait que la valeur de l'IA en entreprise réside moins dans les modèles eux-mêmes que dans leur capacité à connecter des silos de données jusqu'ici cloisonnés.

OutilsOutil
1 source
Les agents IA ont besoin d'une infrastructure d'interaction
3AI News 

Les agents IA ont besoin d'une infrastructure d'interaction

Band, une startup fondée à Tel Aviv et San Francisco, est sortie de sa phase stealth avec un tour de table de 17 millions de dollars pour résoudre un problème fondamental de l'IA en entreprise : l'absence d'infrastructure dédiée à la coordination entre agents autonomes. Dirigée par le CEO Arick Goomanovsky et le CTO Vlad Luzin, la société part du constat que les réseaux d'entreprise hébergent désormais des dizaines d'agents IA capables de raisonner et d'agir de manière indépendante, qu'il s'agisse de gérer des pipelines d'ingénierie, de traiter des tickets de support client ou de surveiller la sécurité informatique. Mais quand ces agents doivent collaborer, partager du contexte ou opérer ensemble dans des environnements cloud hétérogènes, les intégrations se fragilisent et les opérateurs humains se retrouvent à jouer les intermédiaires manuels entre des systèmes déconnectés. Le problème n'est pas anodin sur le plan financier. Sans couche de gouvernance centralisée, les workflows multi-agents génèrent des coûts incontrôlés : chaque échange entre agents déclenche des appels API vers des grands modèles de langage coûteux, et une simple erreur de routage ou une boucle entre deux agents peut engloutir des budgets cloud en quelques heures. Band entend imposer des disjoncteurs financiers stricts, capables d'interrompre automatiquement les interactions qui dépassent des seuils prédéfinis en tokens ou en calcul. L'enjeu dépasse le coût technique : une négociation non surveillée entre un agent d'achat interne et un modèle fournisseur externe pourrait déclencher des centaines de cycles d'inférence pour une transaction sans réelle valeur commerciale. Le timing de Band s'explique par trois évolutions simultanées du marché. Les agents IA ne sont plus des expérimentations : ils opèrent en production dans des grandes entreprises, souvent développés par des équipes différentes, sur des frameworks distincts, hébergés chez des cloud providers concurrents. Cette fragmentation est structurelle et durable. Par ailleurs, des standards émergent, comme le Model Context Protocol (MCP) pour l'accès aux outils externes, ou les initiatives A2A pour standardiser les communications inter-agents. Mais ces protocoles définissent le langage commun, pas l'environnement opérationnel : ils ne gèrent ni le routage, ni la reprise sur erreur, ni les frontières d'autorisation, ni la supervision humaine. Band compare sa position à celle des API gateways face aux microservices dans les années 2010 : quand les systèmes distribués prolifèrent, ajouter de la logique métier ne suffit plus, il faut une infrastructure d'interaction dédiée pour maintenir fiabilité et contrôle à l'échelle.

OutilsOutil
1 source
Google Cloud propose un nouvel outil pour organiser les données de votre entreprise
4Le Big Data 

Google Cloud propose un nouvel outil pour organiser les données de votre entreprise

Google Cloud a annoncé le 22 avril 2026, lors de son événement Google Cloud Next, le lancement de Knowledge Catalog, un moteur de contexte unifié intégré à sa plateforme Dataplex. L'outil agrège les métadonnées issues de multiples systèmes, aussi bien natifs comme BigQuery que des plateformes tierces, pour créer une source unique de vérité accessible en temps réel. Au-delà du simple inventaire technique, Knowledge Catalog automatise l'enrichissement des données en analysant schémas, requêtes et contenus non structurés pour générer des descriptions en langage naturel, construire des glossaires métiers et cartographier les relations entre entités. Des agents spécialisés, dont un basé sur LookML, permettent de générer et harmoniser automatiquement les règles métier. Des entreprises comme Bloomberg Media exploitent déjà cette approche pour permettre à des utilisateurs non techniques d'interroger des lacs de données complexes via des requêtes en langage courant. Le problème que Google Cloud cherche à résoudre est structurel : les agents d'IA en entreprise produisent des résultats médiocres non pas par manque de puissance de calcul, mais par manque de contexte fiable. Lorsque les mêmes indicateurs coexistent sous plusieurs définitions selon les équipes, l'automatisation devient fragile et l'analyse peu fiable. En unifiant ce socle sémantique, Knowledge Catalog permet aux agents de raisonner sur des bases cohérentes et partagées, réduisant les erreurs d'interprétation et accélérant l'accès à l'information. L'intégration avec Gemini renforce encore ce dispositif : même des fichiers bruts non structurés deviennent exploitables directement dans l'écosystème data. Google introduit également la notion de "produits de données", des ensembles packagés conçus pour être consommés directement par des agents ou des équipes métier, ce qui marque un changement de paradigme dans la façon dont les organisations distribuent l'accès à la donnée. La sortie de Knowledge Catalog s'inscrit dans une course que se livrent les grands fournisseurs cloud pour devenir la couche d'infrastructure de référence des entreprises qui déploient des agents d'IA à grande échelle. Microsoft, avec son écosystème Fabric et ses connecteurs Copilot, et AWS, avec son offre autour de Bedrock et des catalogues de données Lake Formation, avancent sur le même terrain. Le défi commun est de dépasser la promesse technique pour s'imposer comme le standard de gouvernance des données en contexte agentique. Pour Google Cloud, qui dispose d'un avantage compétitif avec Gemini et BigQuery, ce catalogue universel représente un levier pour verrouiller les grands comptes dans son écosystème. La prochaine étape sera d'observer si l'enrichissement automatique tient ses promesses à l'échelle, là où la curation manuelle a toujours montré ses limites.

UELes entreprises européennes déployant des agents IA sur Google Cloud peuvent améliorer la gouvernance de leurs données métier, sans impact réglementaire ou institutionnel spécifique pour la France ou l'UE.

OutilsOutil
1 source