Aller au contenu principal
ChatGPT intègre DoorDash, Spotify, Uber et d'autres applications : mode d'emploi
OutilsTechCrunch AI49min

ChatGPT intègre DoorDash, Spotify, Uber et d'autres applications : mode d'emploi

1 source couvre ce sujet·Source originale ↗·

OpenAI a lancé une série de nouvelles intégrations tierces directement dans l'interface de ChatGPT, permettant aux utilisateurs d'interagir avec des services comme Spotify, DoorDash, Uber, Canva, Figma et Expedia sans quitter la conversation. Ces connecteurs fonctionnent via des actions natives : commander un repas, réserver un trajet, créer un design ou planifier un voyage, le tout piloté par le modèle en langage naturel.

L'impact est significatif pour les utilisateurs quotidiens : ChatGPT cesse d'être un simple assistant textuel pour devenir un point d'entrée unique vers des dizaines de services. Pour les entreprises partenaires, c'est un accès direct à la base d'utilisateurs d'OpenAI, qui dépasse les 200 millions d'utilisateurs hebdomadaires actifs. Pour les concurrents comme Google Assistant ou Apple Intelligence, la pression s'intensifie sur le terrain de l'assistant universel.

Cette initiative s'inscrit dans la stratégie d'OpenAI de transformer ChatGPT en plateforme, à l'image de ce qu'avait tenté le système de plugins en 2023, abandonné puis repensé. Avec l'émergence des agents autonomes et du protocole MCP (Model Context Protocol), OpenAI positionne ChatGPT comme couche d'orchestration centrale entre l'utilisateur et l'ensemble de son environnement numérique, un terrain sur lequel Apple, Google et Microsoft jouent également des enjeux considérables.

Impact France/UE

Spotify et Uber étant disponibles en France, les utilisateurs européens de ChatGPT pourraient accéder à ces intégrations, mais le déploiement reste centré sur le marché américain à ce stade.

À lire aussi

Amazon Bedrock AgentCore Gateway permet désormais de connecter des serveurs MCP via le flux Authorization Code
1AWS ML Blog 

Amazon Bedrock AgentCore Gateway permet désormais de connecter des serveurs MCP via le flux Authorization Code

Amazon a enrichi son service Bedrock AgentCore Gateway d'une nouvelle capacité majeure : la prise en charge du flux OAuth 2.0 Authorization Code, permettant aux agents d'IA de se connecter de manière sécurisée à des serveurs MCP protégés par authentification déléguée. Cette fonctionnalité, disponible via Amazon Bedrock AgentCore Identity, s'adresse aux organisations qui déploient des agents à grande échelle et qui doivent gérer des dizaines de connexions vers des serveurs tiers, dont ceux d'AWS, GitHub, Salesforce et Databricks. Concrètement, AgentCore Gateway joue le rôle de point d'entrée unique : les équipes configurent une seule URL Gateway au lieu de paramétrer chaque serveur MCP individuellement dans chaque IDE ou environnement de développement. L'authentification, l'observabilité et l'application des politiques de sécurité sont désormais centralisées en un seul plan de contrôle. Pour les organisations qui adoptent des agents d'IA en production, cette évolution résout un problème concret de gouvernance : jusqu'ici, chaque connexion à un serveur MCP devait être configurée et sécurisée séparément, ce qui devenait ingérable à mesure que le nombre de serveurs augmentait. Avec le flux Authorization Code, un agent peut agir au nom d'un utilisateur réel, obtenir un jeton d'accès via une authentification humaine, sans que les développeurs aient besoin d'embarquer des identifiants en dur dans le code applicatif ni de gérer manuellement le cycle de vie des tokens. Deux méthodes de création de cibles sont proposées : une synchronisation implicite où l'administrateur complète le flux d'autorisation lors de la création de la cible, et une méthode où le schéma d'outils est fourni directement à l'avance, recommandée quand une intervention humaine n'est pas possible en phase de déploiement. L'émergence du protocole MCP (Model Context Protocol) comme standard de connexion entre agents et outils externes a multiplié le nombre de serveurs que les équipes doivent orchestrer. Les grandes entreprises se retrouvent désormais à gérer des accès vers des systèmes hétérogènes, certains protégés par des fournisseurs d'identité fédérés, d'autres par leurs propres serveurs d'autorisation. AWS positionne AgentCore Gateway comme la réponse d'infrastructure à cette fragmentation, en apportant une couche de centralisation comparable à ce qu'une API Gateway classique fait pour les services REST. La prise en charge de l'Authorization Code flow, distincte des méthodes machine-à-machine comme Client Credentials, signale que Bedrock vise désormais des scénarios où des utilisateurs humains délèguent explicitement leurs droits à des agents, un cas d'usage clé pour les assistants d'entreprise qui accèdent à des outils SaaS au nom de leurs utilisateurs.

UELes entreprises européennes déployant des agents IA sur Amazon Bedrock peuvent centraliser la gestion des authentifications MCP, facilitant la conformité avec les exigences de sécurité du RGPD.

OutilsActu
1 source
Les abonnés Claude doivent désormais payer pour utiliser OpenClaw
2AI Business 

Les abonnés Claude doivent désormais payer pour utiliser OpenClaw

OpenClaw, le système d'agent personnel développé par Peter Steinberger, ne sera plus accessible gratuitement aux abonnés Claude d'Anthropic. Steinberger, qui avait initialement collaboré avec Anthropic pour intégrer son outil populaire, a décidé de migrer OpenClaw vers l'infrastructure d'OpenAI, rendant de facto payant l'accès pour les utilisateurs qui avaient jusqu'ici bénéficié d'une intégration native avec leur abonnement Claude. Ce changement affecte directement les utilisateurs d'OpenClaw qui comptaient sur leur abonnement Anthropic comme passerelle d'accès. Le départ vers OpenAI implique une rupture de la chaîne d'accès existante : ceux qui ne souhaitent pas migrer vers l'écosystème OpenAI devront soit payer séparément, soit chercher une alternative. Pour Anthropic, c'est la perte d'un outil tiers populaire qui valorisait son offre abonnement. OpenClaw s'est imposé comme l'un des agents personnels les plus utilisés dans l'espace des assistants IA, ce qui fait de ce basculement un signal fort sur la compétition entre plateformes pour attirer les développeurs d'outils tiers. La décision de Steinberger illustre la bataille que se livrent Anthropic et OpenAI pour capter l'écosystème applicatif gravitant autour des LLMs, un levier stratégique autant que commercial.

OutilsOpinion
1 source
NeuBird lance Falcon et FalconClaw, des agents IA pour prévenir, détecter et corriger les incidents logiciels
3VentureBeat AI 

NeuBird lance Falcon et FalconClaw, des agents IA pour prévenir, détecter et corriger les incidents logiciels

La startup américaine NeuBird AI a annoncé le lancement de Falcon, son agent autonome de nouvelle génération pour la gestion des infrastructures de production, accompagné d'une levée de fonds de 19,3 millions de dollars. Fondée en 2023, l'entreprise avait déjà déployé un premier agent baptisé Hawkeye, centré sur la résolution d'incidents. Falcon représente une évolution majeure : trois fois plus rapide que son prédécesseur, il atteint en moyenne 92 % de score de confiance selon le PDG Gou Rao. Sa capacité de prédiction s'étend sur une fenêtre de 72 heures, avec une précision qui s'affine à mesure que l'horizon se rapproche, devenant très fiable à 24 heures. Le lancement coïncide avec la publication du rapport 2026 State of Production Reliability and AI Adoption Report, une enquête menée auprès de plus de 1 000 professionnels tech. Ce rapport révèle un fossé alarmant entre direction et terrain : 74 % des dirigeants pensent que leur organisation utilise activement l'IA pour gérer les incidents, contre seulement 39 % des ingénieurs opérationnels. Concrètement, les équipes d'ingénierie consacrent en moyenne 40 % de leur temps à la gestion d'incidents plutôt qu'au développement de nouveaux produits. Plus grave encore, 83 % des organisations ont des équipes qui ignorent ou rejettent des alertes de façon régulière, et 44 % des entreprises ont subi une panne l'an dernier directement liée à une alerte supprimée ou ignorée. Dans certains cas, ce sont les clients qui signalent les défaillances avant que les outils de monitoring ne les détectent. NeuBird positionne Falcon non pas comme un outil de réponse aux incidents, mais comme un système d'évitement des incidents, un changement de paradigme que le COO Venkat Ramakrishnan résume ainsi : "La gestion d'incidents, c'est has been. L'évitement d'incidents, c'est ce que l'IA va rendre possible." NeuBird s'inscrit dans un secteur en pleine mutation, celui du Site Reliability Engineering (SRE) et du DevOps, où la complexité des infrastructures hybrides, microservices et clusters éphémères a rendu la surveillance manuelle structurellement insuffisante. Là où les outils traditionnels se contentent de rendre les interventions plus rapides, Falcon ambitionne de les rendre inutiles grâce à une carte de contexte avancée (Advanced Context Map), une vue en temps réel des dépendances d'infrastructure et de l'état des services. Ancré dans le contexte opérationnel réel de l'entreprise plutôt que dans le seul raisonnement LLM, l'agent cible les équipes on-call surchargées par la fatigue des alertes. Avec 18 mois de déploiements en production à son actif, NeuBird s'apprête à présenter Falcon lors de la conférence HumanX, dans un marché où les géants du cloud et les acteurs spécialisés en observabilité se livrent une concurrence intense sur l'automatisation opérationnelle.

OutilsOutil
1 source
Codex et Claude Code peuvent fonctionner ensemble
4The Information AI 

Codex et Claude Code peuvent fonctionner ensemble

OpenAI et Anthropic, deux concurrents directs dans la course aux outils de codage par IA, viennent de franchir un pas surprenant vers l'interopérabilité. La semaine dernière, OpenAI a publié un plugin permettant aux utilisateurs de Claude Code d'intégrer Codex directement dans leur environnement de travail. Concrètement, Codex peut relire le code généré par Claude ou prendre le relais lorsque Claude se retrouve bloqué. Romain Huet, responsable de l'expérience développeur chez OpenAI, a expliqué sur X : "Nous avons vu des utilisateurs de Claude Code faire appel à Codex pour la revue de code, alors nous avons décidé de faciliter cette pratique." Cette collaboration inattendue signale un changement de paradigme dans l'industrie : plutôt que de se battre pour une exclusivité d'usage, les grands acteurs misent sur la complémentarité. Pour les développeurs, cela ouvre la possibilité de combiner les points forts de chaque outil dans un même flux de travail, sans avoir à choisir un camp. La qualité du code produit et la capacité à débloquer des situations complexes pourraient ainsi s'en trouver améliorées. Ce mouvement s'inscrit dans une tendance plus large portée également par Cursor, qui a annoncé jeudi une nouvelle version de son application permettant de travailler simultanément avec des agents de plusieurs fournisseurs, dont Claude Code et Codex. Alors que la concurrence entre OpenAI, Anthropic et les éditeurs tiers comme Cursor s'intensifie, l'interopérabilité devient un argument commercial à part entière, les développeurs refusant de plus en plus d'être enfermés dans un écosystème unique.

UELes développeurs français et européens peuvent désormais combiner Codex et Claude Code dans un même flux de travail, limitant la dépendance à un écosystème propriétaire unique.

💬 Deux concurrents qui jouent la complémentarité plutôt que la guerre d'écosystème, c'est le genre de truc qu'on attendait depuis longtemps. Bon, sur le papier c'est malin : tu laisses Claude coder, Codex relit, et tu n'es plus coincé à choisir ton camp. Cursor qui fait pareil en parallèle, ça confirme que le lock-in commence à coûter trop cher aux éditeurs en termes d'adoption.

OutilsOutil
1 source