
Des chatbots IA divulguent de vrais numéros de téléphone
Depuis plusieurs mois, des utilisateurs de Google Gemini signalent un phénomène alarmant : le chatbot d'IA fournit de vrais numéros de téléphone personnels lorsqu'on lui demande des informations de contact pour des entreprises. En mars, Daniel Abraham, développeur logiciel israélien de 28 ans, a reçu un message WhatsApp d'un inconnu cherchant à contacter le service client de PayBox, une application de paiement israélienne, Gemini lui avait fourni le numéro personnel d'Abraham, qui n'a aucun lien avec la société. Lorsqu'Abraham a lui-même interrogé Gemini sur PayBox, le chatbot a généré un autre numéro WhatsApp appartenant à un particulier. Un Redditor a également rapporté avoir été submergé d'appels pendant un mois entier de la part d'inconnus cherchant avocats, designers ou serruriers. En avril, une doctorante de l'Université de Washington a obtenu de Gemini le numéro de portable personnel d'un collègue. La cause probable, selon les experts, est l'utilisation d'informations personnelles identifiables dans les données d'entraînement des modèles.
Ces incidents illustrent un risque concret et massif pour la vie privée. DeleteMe, entreprise spécialisée dans la suppression de données personnelles en ligne, signale une hausse de 400 % des demandes liées à l'IA générative en sept mois, atteignant plusieurs milliers de requêtes. Parmi ces signalements, 55 % concernent ChatGPT, 20 % Gemini, 15 % Claude et 10 % d'autres outils. Les plaintes prennent deux formes : soit un utilisateur obtient ses propres données personnelles (adresse, numéro de téléphone, membres de sa famille, employeur) en interrogeant le chatbot sur lui-même, soit le chatbot génère des coordonnées plausibles mais erronées appartenant à de vraies personnes tierces. Dans les deux cas, les conséquences peuvent être graves : harcèlement, arnaques, usurpation d'identité. Et pour l'instant, il n'existe aucun mécanisme simple permettant aux victimes de faire retirer leurs données de ces systèmes.
Ce problème s'inscrit dans un débat plus large sur la façon dont les géants de l'IA constituent leurs données d'entraînement. Les modèles de langage comme Gemini sont entraînés sur des corpus massifs extraits du web, qui contiennent inévitablement des informations personnelles publiées dans des annuaires, forums ou pages professionnelles. Contrairement aux moteurs de recherche classiques qui renvoient vers des sources vérifiables, les chatbots génèrent des réponses synthétiques sans transparence sur leur origine, rendant la vérification impossible pour l'utilisateur. Google n'a pas fourni d'explication sur les mécanismes précis à l'oeuvre, ni de solution pour les personnes dont les numéros circulent ainsi. Avec la généralisation des assistants IA dans les usages quotidiens, cette faille soulève des questions réglementaires urgentes, notamment en Europe où le RGPD impose des obligations strictes sur le traitement des données personnelles.
Le RGPD impose aux éditeurs de chatbots des obligations strictes sur le traitement et l'effacement des données personnelles, exposant Google et ses concurrents à des sanctions potentielles de la CNIL et des autorités européennes de protection des données.
Des gens se font harceler au téléphone parce que Gemini a craché leur numéro perso à des inconnus cherchant un serrurier ou un avocat. Ce qui me choque, c'est qu'il n'existe aucun mécanisme pour faire retirer ses données de ces modèles (Google n'a pas daigné expliquer comment, d'ailleurs). Si t'as un profil visible en ligne, ton numéro est peut-être quelque part dans un corpus d'entraînement.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




