Aller au contenu principal
ChatGPT peut désormais vous localiser pour de meilleures recommandations
OutilsBlog du Modérateur1h

ChatGPT peut désormais vous localiser pour de meilleures recommandations

1 source couvre ce sujet·Source originale ↗·

OpenAI a commencé à déployer une nouvelle fonctionnalité de partage de localisation dans ChatGPT, permettant à l'assistant d'accéder à la position géographique précise de l'appareil de l'utilisateur. Concrètement, lorsqu'un utilisateur pose une question nécessitant un contexte local — recommandations de restaurants, météo, événements à proximité, horaires de commerces — ChatGPT peut désormais utiliser ces coordonnées en temps réel plutôt que de se fier à une ville déclarée manuellement ou à des indices textuels.

Cette évolution change substantiellement l'utilité de ChatGPT pour les requêtes du quotidien. Jusqu'ici, l'assistant devait demander à l'utilisateur de préciser sa localisation, introduisant une friction qui le désavantageait face à des assistants vocaux comme Siri ou Google Assistant, nativement intégrés au système. Avec l'accès GPS, ChatGPT peut concurrencer directement ces outils sur le terrain des usages locaux et mobiles.

Cette fonctionnalité s'inscrit dans une stratégie plus large d'OpenAI visant à transformer ChatGPT en assistant personnel polyvalent, capable de répondre à des besoins contextuels sans configuration préalable. La question de la confidentialité reste centrale : OpenAI devra préciser comment ces données de localisation sont stockées, utilisées et si elles alimentent l'entraînement des modèles — un sujet sensible à l'heure où les régulateurs européens scrutent de près les pratiques des grands acteurs de l'IA.

Impact France/UE

Les autorités européennes devront examiner la conformité de cette collecte de données de localisation au RGPD, notamment sur le stockage et l'usage potentiel pour l'entraînement des modèles.

À lire aussi

1Presse-citron 

Coup dur pour Android Auto, ChatGPT est maintenant disponible sur CarPlay

Avec la mise à jour iOS 26.4, Apple ouvre CarPlay à ChatGPT, permettant aux conducteurs d'interagir avec l'assistant d'OpenAI directement depuis l'interface de leur véhicule. C'est une première : jusqu'ici, CarPlay restait fermé aux assistants IA tiers, Siri conservant le monopole de la voix dans l'écosystème Apple en voiture. Apple annonce également que d'autres chatbots IA pourront à terme intégrer CarPlay, ouvrant la plateforme à une concurrence inédite. Pour les utilisateurs, cela signifie un accès mains-libres à un assistant bien plus capable que Siri pour des tâches complexes — rédiger un message, répondre à une question technique, naviguer dans une conversation — sans sortir le téléphone. Pour Android Auto, qui n'a pas encore annoncé d'équivalent, c'est un signal de retard compétitif potentiellement significatif sur ce segment du quotidien connecté. Cette ouverture s'inscrit dans la stratégie d'Apple d'intégrer progressivement l'IA générative à son écosystème depuis le lancement d'Apple Intelligence en 2024, en partenariat avec OpenAI pour combler les lacunes de Siri. En élargissant CarPlay à d'autres IA à venir — Google Gemini, Claude ou d'autres — Apple transforme sa plateforme automobile en marketplace d'assistants, tout en gardant la maîtrise de l'environnement matériel et de l'expérience utilisateur.

UELes utilisateurs iPhone en France et dans l'UE disposant d'un véhicule compatible CarPlay peuvent accéder à ChatGPT en mains libres dès iOS 26.4.

OutilsOutil
1 source
Et si plusieurs IA travaillaient ensemble pour mieux vous aider ? Microsoft tente le pari
2Siècle Digital 

Et si plusieurs IA travaillaient ensemble pour mieux vous aider ? Microsoft tente le pari

Microsoft a dévoilé Researcher, un nouvel agent intégré à Microsoft 365 Copilot, conçu pour dépasser les capacités d'un seul modèle de langage en orchestrant plusieurs IA en parallèle. Plutôt que de s'appuyer sur un unique modèle qui répond directement, Researcher décompose les requêtes complexes en sous-tâches distribuées à différents agents spécialisés — certains pour la recherche web, d'autres pour l'analyse de données internes ou la synthèse — avant de recomposer une réponse cohérente. Cette architecture multi-agents s'inscrit dans la stratégie plus large de Microsoft pour ses outils de productivité professionnelle. L'enjeu est concret pour les entreprises clientes de Microsoft 365 : les tâches de recherche approfondie, comme la préparation d'un dossier stratégique ou l'analyse concurrentielle, nécessitent aujourd'hui plusieurs heures de travail humain. Researcher vise à produire en quelques minutes des synthèses longues et sourcées, avec un niveau de précision supérieur à ce que peut offrir un assistant conversationnel classique. C'est la différence entre poser une question à un généraliste et confier un brief à une équipe d'analystes. Cette annonce s'inscrit dans une accélération du marché des agents IA, où OpenAI (avec Deep Research), Google (avec Gemini Deep Research) et Perplexity jouent déjà des coudes. Microsoft mise sur son ancrage dans l'environnement professionnel — Teams, Outlook, SharePoint, Word — pour différencier Researcher par sa capacité à croiser sources externes et données internes d'entreprise. La course ne porte plus sur le modèle le plus puissant, mais sur l'architecture qui coordonne le mieux plusieurs cerveaux artificiels.

UELes entreprises françaises et européennes utilisatrices de Microsoft 365 Copilot pourraient automatiser des tâches de recherche stratégique longues (dossiers, analyses concurrentielles), avec un gain de temps potentiellement significatif sur des flux de travail existants.

💬 L'angle intéressant ici c'est pas l'orchestration multi-agents en elle-même, ça fait un moment qu'on en parle. C'est que Microsoft peut brancher ça sur SharePoint, Teams, Outlook, et croiser tes données internes avec le web en un seul run. Reste à voir si ça tient sur de vrais dossiers d'entreprise et pas juste des démos bien cadrées.

OutilsOutil
1 source
Gradient Labs dote chaque client bancaire d'un gestionnaire de compte IA
3OpenAI Blog 

Gradient Labs dote chaque client bancaire d'un gestionnaire de compte IA

Gradient Labs a dévoilé une solution d'intelligence artificielle destinée aux banques, permettant à chaque client de disposer d'un gestionnaire de compte virtuel disponible en permanence. La startup s'appuie sur les modèles GPT-4.1 et GPT-5 mini et nano d'OpenAI pour alimenter des agents capables d'automatiser l'intégralité des flux de support bancaire — de la gestion des réclamations aux opérations courantes — avec une latence réduite et un niveau de fiabilité élevé. Pour les établissements bancaires, l'enjeu est considérable : le service client représente l'un des postes de coût les plus lourds du secteur, et la qualité de l'expérience client reste un facteur clé de fidélisation. En déployant des agents IA capables de traiter les demandes de millions de clients simultanément, Gradient Labs promet de démocratiser l'accès à un accompagnement personnalisé — jusqu'ici réservé aux clients fortunés disposant d'un conseiller dédié — tout en réduisant les délais de traitement et les coûts opérationnels pour les banques. Cette annonce s'inscrit dans une vague d'adoption accélérée de l'IA agentique dans les services financiers, où les établissements cherchent à automatiser les interactions à faible valeur ajoutée sans sacrifier la qualité. L'utilisation combinée de modèles de différentes tailles — GPT-4.1 pour les tâches complexes, les versions mini et nano pour les requêtes simples à haute fréquence — reflète une approche pragmatique d'optimisation coût-performance. Gradient Labs entre en compétition directe avec des acteurs comme Sierra, Intercom ou Salesforce Einstein, dans un marché du support IA pour la finance en pleine consolidation.

UELes banques européennes envisageant d'adopter ce type de solution devront s'assurer de sa conformité avec l'AI Act, qui classe les systèmes d'IA dans les services financiers comme à haut risque.

OutilsOutil
1 source
4ZDNET FR 

Duck.ai : ce chatbot axé sur la confidentialité connaît un succès grandissant : comment l'essayer

Duck.ai, le chatbot conversationnel lancé par DuckDuckGo, enregistre une progression notable de son audience, portée par une demande croissante d'alternatives aux assistants IA traditionnels qui collectent massivement les données personnelles. La plateforme propose un accès gratuit à plusieurs modèles de langage — dont GPT-4o mini d'OpenAI, Claude d'Anthropic, Llama de Meta et Mistral — sans créer de compte ni accepter de conditions d'utilisation contraignantes. DuckDuckGo affirme ne conserver aucune conversation et ne pas transmettre d'informations identifiables aux fournisseurs de modèles. Cet afflux d'utilisateurs illustre une fracture grandissante dans le rapport au public aux outils IA : si ChatGPT, Gemini ou Copilot dominent le marché, leurs pratiques de collecte de données alimentent une méfiance persistante, notamment en Europe où le RGPD reste un standard de référence. Duck.ai répond à ce besoin en positionnant la confidentialité comme fonctionnalité centrale et non comme option payante, ce qui le distingue structurellement de la concurrence. DuckDuckGo existe depuis 2008 sur la promesse du respect de la vie privée face à Google, et ce chatbot prolonge logiquement cette identité à l'ère de l'IA générative. L'entreprise, qui revendique plus de 100 millions d'utilisateurs mensuels sur son moteur de recherche, dispose d'une base d'utilisateurs déjà sensibilisés. La question ouverte reste celle de la viabilité économique d'un modèle sans monétisation des données, à mesure que les coûts d'inférence LLM continuent de peser sur les marges.

UEDuck.ai répond directement aux exigences du RGPD en ne collectant aucune donnée personnelle, offrant aux utilisateurs européens une alternative aux assistants IA traditionnels conforme aux standards européens de protection de la vie privée.

OutilsOutil
1 source