
Trusted Contact : la nouvelle fonction de ChatGPT face aux moments les plus sombres
OpenAI a lancé le 7 mai 2026 une nouvelle fonctionnalité optionnelle dans ChatGPT baptisée "Trusted Contact", littéralement "contact de confiance". Disponible pour les utilisateurs majeurs, elle permet de désigner une personne proche depuis les paramètres de l'application. Cette personne doit ensuite accepter l'invitation pour activer le dispositif. Lorsque les échanges avec ChatGPT font apparaître des signaux préoccupants, liés à une détresse émotionnelle ou une crise, l'utilisateur est d'abord invité à contacter lui-même cette personne de confiance. Ce n'est qu'après une vérification humaine qu'une alerte peut être transmise au proche désigné. OpenAI précise que ces notifications restent volontairement limitées : aucun transcript de conversation n'est partagé, le message envoyé se contente d'indiquer qu'une situation inquiétante a été détectée et invite le contact à prendre des nouvelles. La fonctionnalité a été développée en collaboration avec des psychologues, des chercheurs en santé mentale et des experts en prévention du suicide.
Ce lancement reflète une évolution profonde du rôle que jouent les assistants IA dans la vie quotidienne. Des millions d'utilisateurs se confient à ChatGPT sur des sujets intimes, solitude, ruptures, conflits familiaux, parfois sans interlocuteur humain disponible. OpenAI tente ici de transformer ce rapport en levier de protection plutôt qu'en angle mort. En orientant vers un proche réel au lieu de traiter seul la détresse, le système cherche à pallier une limite structurelle des chatbots : leur incapacité à agir concrètement en situation de crise. Pour les professionnels de santé mentale, l'enjeu est de taille : si le dispositif fonctionne tel que décrit, il pourrait servir de filet de sécurité pour des personnes qui ne sollicitent pas d'aide par elles-mêmes.
Trusted Contact s'inscrit dans une stratégie plus large d'OpenAI autour du bien-être numérique, engagée depuis plusieurs mois. ChatGPT peut déjà suggérer des pauses après une utilisation prolongée, refuser des demandes jugées dangereuses et rediriger les utilisateurs vers des lignes d'assistance locales. Mais cette nouvelle fonction franchit un seuil : elle implique pour la première fois un tiers humain dans la boucle de surveillance, ce qui soulève des questions légitimes sur la vie privée et la confiance. OpenAI a anticipé ces réticences en maintenant la vérification humaine avant toute alerte et en limitant strictement le contenu des notifications, mais le débat sur la frontière entre protection et surveillance reste entier. À mesure que les IA conversationnelles s'intègrent aux moments les plus vulnérables de la vie des utilisateurs, la question de leur responsabilité émotionnelle et éthique devient incontournable pour l'ensemble de l'industrie.
La fonctionnalité soulève des questions de conformité RGPD concernant le traitement de données de santé particulièrement sensibles et la notification de tiers, dans un cadre réglementaire européen nettement plus contraignant qu'aux États-Unis.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



