Aller au contenu principal
Trusted Contact : la nouvelle fonction de ChatGPT face aux moments les plus sombres
SociétéLe Big Data18h

Trusted Contact : la nouvelle fonction de ChatGPT face aux moments les plus sombres

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a lancé le 7 mai 2026 une nouvelle fonctionnalité optionnelle dans ChatGPT baptisée "Trusted Contact", littéralement "contact de confiance". Disponible pour les utilisateurs majeurs, elle permet de désigner une personne proche depuis les paramètres de l'application. Cette personne doit ensuite accepter l'invitation pour activer le dispositif. Lorsque les échanges avec ChatGPT font apparaître des signaux préoccupants, liés à une détresse émotionnelle ou une crise, l'utilisateur est d'abord invité à contacter lui-même cette personne de confiance. Ce n'est qu'après une vérification humaine qu'une alerte peut être transmise au proche désigné. OpenAI précise que ces notifications restent volontairement limitées : aucun transcript de conversation n'est partagé, le message envoyé se contente d'indiquer qu'une situation inquiétante a été détectée et invite le contact à prendre des nouvelles. La fonctionnalité a été développée en collaboration avec des psychologues, des chercheurs en santé mentale et des experts en prévention du suicide.

Ce lancement reflète une évolution profonde du rôle que jouent les assistants IA dans la vie quotidienne. Des millions d'utilisateurs se confient à ChatGPT sur des sujets intimes, solitude, ruptures, conflits familiaux, parfois sans interlocuteur humain disponible. OpenAI tente ici de transformer ce rapport en levier de protection plutôt qu'en angle mort. En orientant vers un proche réel au lieu de traiter seul la détresse, le système cherche à pallier une limite structurelle des chatbots : leur incapacité à agir concrètement en situation de crise. Pour les professionnels de santé mentale, l'enjeu est de taille : si le dispositif fonctionne tel que décrit, il pourrait servir de filet de sécurité pour des personnes qui ne sollicitent pas d'aide par elles-mêmes.

Trusted Contact s'inscrit dans une stratégie plus large d'OpenAI autour du bien-être numérique, engagée depuis plusieurs mois. ChatGPT peut déjà suggérer des pauses après une utilisation prolongée, refuser des demandes jugées dangereuses et rediriger les utilisateurs vers des lignes d'assistance locales. Mais cette nouvelle fonction franchit un seuil : elle implique pour la première fois un tiers humain dans la boucle de surveillance, ce qui soulève des questions légitimes sur la vie privée et la confiance. OpenAI a anticipé ces réticences en maintenant la vérification humaine avant toute alerte et en limitant strictement le contenu des notifications, mais le débat sur la frontière entre protection et surveillance reste entier. À mesure que les IA conversationnelles s'intègrent aux moments les plus vulnérables de la vie des utilisateurs, la question de leur responsabilité émotionnelle et éthique devient incontournable pour l'ensemble de l'industrie.

Impact France/UE

La fonctionnalité soulève des questions de conformité RGPD concernant le traitement de données de santé particulièrement sensibles et la notification de tiers, dans un cadre réglementaire européen nettement plus contraignant qu'aux États-Unis.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Au-delà de ChatGPT : les outils d’IA les plus utilisés dans les bureaux français
1Le Big Data 

Au-delà de ChatGPT : les outils d’IA les plus utilisés dans les bureaux français

Selon un sondage Ifop publié en 2025, 43 % des actifs français déclarent utiliser des outils d'intelligence artificielle générative dans leur travail, et 29 % d'entre eux estiment que leur productivité a progressé de plus de 40 % grâce à ces solutions. Si ChatGPT domine encore largement avec 72 % des utilisateurs, l'écosystème s'est considérablement diversifié : Gemini de Google rassemble 20 % des utilisateurs professionnels, suivi de Microsoft Copilot (12 %), Mistral AI (6 %) et l'outil chinois DeepSeek. Au-delà des assistants conversationnels généralistes, d'autres catégories d'outils s'imposent dans les bureaux français : Notion AI pour la structuration de l'information et la documentation automatisée, Motion et Clockwise pour la planification intelligente des tâches et des agendas, ou encore Power BI et Microsoft Copilot pour transformer des données brutes en tableaux de bord interactifs accessibles en langage naturel. Ces chiffres révèlent une transformation profonde des pratiques professionnelles en France. L'IA n'est plus un outil expérimental réservé aux équipes tech : elle s'intègre dans les flux de travail quotidiens des secteurs aussi variés que la finance, la logistique, le marketing ou les administrations publiques. Microsoft Copilot, directement intégré à Word, Excel et Outlook, s'est imposé dans les grandes entreprises précisément parce qu'il ne demande aucun changement d'outil. Google Gemini progresse dans les organisations déjà équipées de Workspace. Pour les non-experts en données, la capacité à interroger un tableau Excel en français courant représente un gain d'autonomie réel, qui redistribue les compétences analytiques au sein des équipes. Cette montée en puissance de l'IA dans les bureaux français s'inscrit dans un contexte de double tension : entre efficacité et souveraineté des données. Face aux géants américains, plusieurs organisations françaises se tournent vers Mistral AI, principale alternative européenne, dont les modèles sont entraînés et hébergés en Europe, un argument décisif pour les acteurs soumis au RGPD ou à des contraintes de sécurité renforcées. Hugging Face, plateforme open-source fondée à Paris et désormais valorisée à plusieurs milliards de dollars, attire les entreprises qui veulent contrôler leurs pipelines d'IA sans dépendre d'une API propriétaire. L'adoption reste néanmoins inégale selon les secteurs : si les startups et les équipes marketing expérimentent rapidement, les industries plus régulées avancent avec prudence. La prochaine étape sera probablement moins le choix de l'outil que la capacité des organisations à former leurs salariés et à intégrer ces solutions dans des processus métiers cohérents.

UEL'adoption de l'IA dans 43 % des actifs français interroge directement la souveraineté des données face aux géants américains, et renforce le positionnement de Mistral AI et Hugging Face comme alternatives européennes conformes au RGPD.

SociétéOutil
1 source
Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA
2Next INpact 

Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA

En mai 2025, 35 % des sites internet nouvellement créés contenaient des textes entièrement ou majoritairement générés par intelligence artificielle, selon un rapport publié par Internet Archive. Cette étude, signée par Mark Graham, responsable de la Wayback Machine, accompagné d'un chercheur maison et de deux doctorants, s'appuie sur l'analyse du texte brut de milliers de sites archivés. Pour détecter l'origine des contenus, l'équipe a comparé plusieurs outils, Binoculars, Desklib, DivEye, avant de retenir l'API commerciale Pangram v3, choisie pour sa capacité à traiter le HTML et à analyser des textes en plusieurs langues, avec un taux de précision annoncé à 99,98 %. La proportion de sites à contenu genAI est passée de zéro avant le lancement de ChatGPT fin 2022 à ce tiers des nouvelles publications en l'espace de deux ans et demi. Ce que révèle ce rapport va à l'encontre des craintes les plus répandues. Sondés par les chercheurs, 75 % des internautes redoutaient d'être davantage exposés à des informations factuellement erronées, et 83 % anticipaient une homogénéisation du style des textes sur le web. Or, les données d'Internet Archive ne confirment ni l'une ni l'autre de ces hypothèses : les fact-checkers mandatés par l'équipe n'ont pas trouvé de corrélation statistiquement significative entre la hausse du contenu IA et une augmentation des fausses informations. L'homogénéisation stylistique, elle non plus, ne progresse pas mécaniquement. En revanche, deux effets distincts sont bien documentés : une contraction sémantique mesurable, les textes générés couvrent un spectre de vocabulaire et d'idées plus étroit, et un glissement artificiel vers la positivité, les contenus IA affichant systématiquement un ton plus optimiste et lissé que ceux rédigés par des humains. Ce travail s'inscrit dans un débat plus large sur ce que certains chercheurs appellent la "théorie de l'Internet mort", formulée dès 2021 et relancée début 2024 : l'idée que le web serait progressivement peuplé de contenus automatisés où des machines s'adressent à d'autres machines, au détriment d'une production humaine authentique. La méthode du rapport comporte toutefois des limites importantes : Pangram v3 est un outil commercial dont la méthode n'a pas été évaluée par des chercheurs indépendants, et les résultats dépendent donc directement de sa fiabilité réelle. Reste que cette étude est l'une des premières à quantifier l'empreinte de l'IA générative à l'échelle du web archivé, et elle devrait pousser les plateformes, moteurs de recherche et régulateurs à affiner leur compréhension des effets concrets, moins spectaculaires que redoutés, mais bien réels, de cette prolifération silencieuse.

UECette étude quantitative sur la prolifération des contenus IA pourrait alimenter les travaux des régulateurs européens, notamment sur les obligations de transparence et de marquage des contenus générés par IA prévues dans l'AI Act.

SociétéPaper
1 source
Les chatbots IA progressent sept fois plus vite que les réseaux sociaux, mais restent quatre fois moins fréquentés
3The Decoder 

Les chatbots IA progressent sept fois plus vite que les réseaux sociaux, mais restent quatre fois moins fréquentés

Le trafic vers les chatbots d'intelligence artificielle croît sept fois plus vite que celui des réseaux sociaux, mais reste quatre fois inférieur en volume total, selon une analyse publiée par Similarweb. Ces données portent sur les principales plateformes de conversation IA, dont ChatGPT d'OpenAI, Gemini de Google et Claude d'Anthropic, et révèlent des différences notables entre ces deux catégories de services numériques, notamment dans les habitudes d'utilisation selon les appareils et les comportements des utilisateurs. Ce rythme de croissance exceptionnel illustre l'adoption massive et rapide des outils d'IA conversationnelle par le grand public, mais l'écart de volume avec les réseaux sociaux rappelle que ces derniers restent ancrés dans le quotidien numérique de milliards de personnes. Pour les acteurs du secteur tech, cela signifie que le marché de l'IA conversationnelle est encore loin de sa maturité et que les marges de progression restent considérables. La question des usages par appareil est particulièrement stratégique : les chatbots sont aujourd'hui davantage utilisés sur ordinateur, là où les réseaux sociaux dominent sur mobile. Cette dynamique s'inscrit dans un contexte de compétition intense entre les grandes plateformes d'IA, qui multiplient les mises à jour et les nouvelles fonctionnalités pour capter des parts de marché. Les réseaux sociaux, eux, ont bénéficié de deux décennies d'intégration dans les usages quotidiens. Si la trajectoire actuelle se maintient, l'écart de trafic entre les deux catégories pourrait se réduire significativement dans les prochaines années, à mesure que l'IA s'intègre dans davantage d'applications et de flux de travail professionnels.

SociétéOutil
1 source
4Ars Technica AI 

Les Américains consultent l'IA pour leur santé : les hôpitaux misent sur encore plus de chatbots

De plus en plus d'Américains se tournent vers les grands modèles de langage comme ChatGPT pour obtenir des conseils médicaux, et les systèmes de santé du pays commencent à réagir en déployant leurs propres chatbots estampillés à leur marque. Des établissements hospitaliers à travers les États-Unis expérimentent ou lancent déjà ces outils, dans le but de capter une demande existante et de rediriger les patients vers leurs propres services. Allon Bloch, PDG de la société d'IA clinique K Health, résume la situation ainsi : "Nous sommes à un point d'inflexion dans les soins de santé. La demande s'accélère, et les patients utilisent déjà l'IA pour naviguer dans leur vie." Pour les dirigeants de ces établissements, les chatbots maison représentent à la fois un service de commodité et une réponse à l'équité numérique, en rejoignant les patients là où ils se trouvent déjà. Ils avancent également que leurs outils seront plus sûrs que les versions commerciales grand public auxquelles les patients ont spontanément recours. L'enjeu est considérable : si les gens consultent de toute façon une IA avant d'appeler leur médecin, autant que ce soit une IA encadrée par des professionnels de santé plutôt qu'un outil généraliste sans garde-fous médicaux. Cette tendance émerge dans un contexte où le système de santé américain est déjà sous pression, jugé coûteux et sous-performant par de nombreux observateurs. L'arrivée des chatbots hospitaliers soulève des questions immédiates sur la responsabilité médicale, la confidentialité des données de santé et le risque de mauvais diagnostics. Le mouvement s'inscrit dans une vague plus large d'adoption de l'IA dans le secteur médical, qui voit des acteurs comme Google, Microsoft et des startups spécialisées se positionner sur ce marché stratégique. La capacité des hôpitaux à proposer des alternatives crédibles aux outils grand public dépendra largement de la qualité des données cliniques sur lesquelles ces systèmes seront formés et des protocoles de supervision médicale mis en place.

UECette tendance américaine pourrait se propager aux systèmes de santé européens, soulevant des enjeux réglementaires autour du RGPD et de la responsabilité médicale des chatbots déployés par des établissements de soins.

SociétéOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour