Aller au contenu principal
Gemini veut récupérer vos conversations issues de ChatGPT et Claude
OutilsBlog du Modérateur2h

Gemini veut récupérer vos conversations issues de ChatGPT et Claude

1 source couvre ce sujet·Source originale ↗·

Google a lancé deux nouvelles fonctionnalités pour Gemini conçues explicitement pour attirer les utilisateurs de ChatGPT et Claude : un importateur de conversations et un outil de comparaison côte à côte. L'importateur permet de transférer l'historique de ses échanges depuis les assistants concurrents directement dans Gemini, tandis que le comparateur affiche en parallèle les réponses de Gemini et d'un autre modèle sur la même requête. Ces outils sont actuellement déployés aux États-Unis, mais restent indisponibles en France et dans l'Union européenne.

Pour Google, l'enjeu est de réduire le coût du changement qui freine les utilisateurs à quitter un assistant IA pour un autre. L'historique de conversations représente une forme de fidélisation puissante — perdre ses échanges passés, ses contextes de travail, ses habitudes de prompt, c'est recommencer à zéro. En supprimant cette friction, Google espère convertir une partie des 400 millions d'utilisateurs hebdomadaires déclarés par OpenAI pour ChatGPT.

Cette offensive intervient dans un contexte de guerre d'attrition entre les grands acteurs de l'IA grand public. OpenAI domine toujours le marché avec ChatGPT, Anthropic consolide Claude comme alternative premium, et Google cherche à capitaliser sur son intégration native dans Android, Search et Workspace pour imposer Gemini. L'absence de déploiement européen reflète probablement des contraintes liées au RGPD, notamment sur le transfert et le traitement des données personnelles issues de services tiers — un obstacle réglementaire qui pourrait retarder l'arrivée de ces fonctionnalités en France.

Impact France/UE

Les fonctionnalités d'importation de conversations et de comparaison ne sont pas disponibles en France ni dans l'UE, probablement bloquées par le RGPD sur le transfert de données personnelles issues de services tiers concurrents.

À lire aussi

1InfoQ AI 

OpenAI étend son API Responses pour en faire une base pour les agents autonomes

OpenAI a annoncé une extension majeure de son API Responses, transformant cette interface en fondation dédiée à la création d'agents autonomes. Parmi les nouvelles fonctionnalités dévoilées figurent un outil shell intégré, une boucle d'exécution agentique native, un espace de travail conteneurisé hébergé par OpenAI, un mécanisme de compaction du contexte pour gérer les longues sessions, et un système de compétences réutilisables permettant de composer des agents modulaires. Cette mise à jour positionne explicitement l'API Responses comme le socle recommandé pour les workflows multi-étapes et les agents capables d'agir de manière prolongée sans intervention humaine. Pour les développeurs, ces ajouts réduisent considérablement la complexité de construire des agents fiables. Auparavant, gérer une boucle d'exécution, maintenir un contexte cohérent sur de longues chaînes d'actions ou orchestrer des outils système nécessitait une infrastructure personnalisée lourde. En intégrant ces mécanismes directement dans l'API, OpenAI abaisse la barrière d'entrée et permet à des équipes réduites de déployer des agents capables d'accomplir des tâches complexes — automatisation de code, analyse de données, interactions avec des systèmes externes — sans réinventer l'infrastructure sous-jacente. Cette annonce s'inscrit dans une course intense entre les grands acteurs de l'IA pour capter l'écosystème développeur autour de l'agentique. Anthropic pousse son SDK Claude Agent, Google déploie ses propres outils d'orchestration, et des frameworks comme LangChain ou AutoGen tentent de rester pertinents face à ces offres natives. En intégrant l'outillage directement dans son API, OpenAI cherche à fidéliser les développeurs dans son écosystème et à standardiser sa vision de ce que doit être un agent — une pression supplémentaire sur les concurrents pour accélérer leurs propres offres.

UELes développeurs européens peuvent adopter directement ces nouvelles capacités agentiques natives via l'API Responses d'OpenAI, réduisant la dépendance aux frameworks tiers comme LangChain ou AutoGen.

OutilsOutil
1 source
2The Decoder 

Le Codex d'OpenAI s'intègre à Slack, Notion, Figma et d'autres outils via une place de marché de plugins

OpenAI enrichit son assistant de codage Codex avec une place de marché de plugins permettant de l'intégrer directement aux outils de travail les plus répandus : Slack, Figma, Notion, Gmail et Google Drive sont parmi les premières intégrations annoncées. Cette extension transforme Codex, jusqu'ici centré sur la génération et la révision de code, en un hub connecté à l'environnement de travail quotidien des équipes techniques. L'enjeu est de supprimer les frictions entre l'assistant IA et les workflows existants. Un développeur pourra, par exemple, demander à Codex de lire un ticket Notion, générer le code correspondant et poster un résumé dans un canal Slack, sans quitter l'interface. Pour les équipes produit et design, la connexion à Figma ouvre la possibilité de transformer des maquettes directement en code, réduisant les allers-retours entre designers et ingénieurs. Cette annonce s'inscrit dans la course que se livrent OpenAI, GitHub Copilot (Microsoft) et Google avec Gemini Code Assist pour dominer le marché des outils de développement assistés par IA. En misant sur l'intégration aux outils de collaboration plutôt que sur la seule performance du modèle, OpenAI adopte une stratégie d'écosystème similaire à celle qui a fait le succès de Slack ou Notion eux-mêmes — et qui pourrait rendre Codex difficile à déloger une fois ancré dans les habitudes des équipes.

OutilsOutil
1 source
3Blog du Modérateur 

iOS 27 : Apple va ouvrir Siri à ChatGPT, Claude, Gemini et aux IA tierces

Apple prépare pour iOS 27 un système baptisé Extensions qui permettra à des assistants IA tiers — dont Gemini de Google, Claude d'Anthropic et Perplexity — de s'intégrer directement à Siri. Cette ouverture met fin à l'exclusivité dont bénéficiait jusqu'ici OpenAI, dont ChatGPT avait été intégré à Siri dans iOS 18 comme seul partenaire IA externe. Ce changement représente une rupture stratégique majeure pour l'écosystème mobile. Les utilisateurs pourront choisir leur assistant IA préféré et l'invoquer via Siri sans quitter l'interface native d'Apple, ce qui transforme l'iPhone en plateforme neutre plutôt qu'en porte d'entrée exclusive vers un seul fournisseur. Pour les entreprises comme Anthropic, Google et Perplexity, c'est un accès direct à plus d'un milliard d'appareils Apple actifs. Ce mouvement intervient alors qu'Apple subit des critiques persistantes sur le retard de Siri face à des concurrents comme ChatGPT ou Gemini. Plutôt que de tout miser sur le développement interne de son IA, Apple adopte une approche de plateforme ouverte — une stratégie qui rappelle ce qu'elle a fait avec les extensions de navigateur ou les widgets. La question reste entière : Apple conservera-t-elle un contrôle éditorial sur quels modèles peuvent s'intégrer, et selon quelles conditions commerciales ?

UEL'ouverture de Siri aux assistants IA tiers s'inscrit dans la logique du DMA européen qui contraint Apple à ouvrir son écosystème, offrant aux utilisateurs français et européens la liberté de choisir leur assistant IA sur iPhone.

OutilsOutil
1 source
4ZDNET FR 

Apple ouvre Siri aux IA tierces : vers une révolution multi-chatbots avec iOS 27

Je n'ai que le titre de l'article — aucun contenu n'a été fourni. Pour résumer fidèlement avec les faits précis, chiffres, dates et noms requis, j'ai besoin du corps de l'article. Peux-tu coller le texte de l'article ?

UEL'intégration d'IA tierces dans Siri affecterait directement les millions d'utilisateurs iPhone en France et en UE, avec des implications potentielles pour la conformité à l'AI Act et au DMA.

OutilsOutil
1 source