Aller au contenu principal
Des chatbots IA divulguent de vrais numéros de téléphone
ÉthiqueMIT Technology Review1h

Des chatbots IA divulguent de vrais numéros de téléphone

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Depuis plusieurs mois, des utilisateurs de Google Gemini signalent un phénomène alarmant : le chatbot d'IA fournit de vrais numéros de téléphone personnels lorsqu'on lui demande des informations de contact pour des entreprises. En mars, Daniel Abraham, développeur logiciel israélien de 28 ans, a reçu un message WhatsApp d'un inconnu cherchant à contacter le service client de PayBox, une application de paiement israélienne, Gemini lui avait fourni le numéro personnel d'Abraham, qui n'a aucun lien avec la société. Lorsqu'Abraham a lui-même interrogé Gemini sur PayBox, le chatbot a généré un autre numéro WhatsApp appartenant à un particulier. Un Redditor a également rapporté avoir été submergé d'appels pendant un mois entier de la part d'inconnus cherchant avocats, designers ou serruriers. En avril, une doctorante de l'Université de Washington a obtenu de Gemini le numéro de portable personnel d'un collègue. La cause probable, selon les experts, est l'utilisation d'informations personnelles identifiables dans les données d'entraînement des modèles.

Ces incidents illustrent un risque concret et massif pour la vie privée. DeleteMe, entreprise spécialisée dans la suppression de données personnelles en ligne, signale une hausse de 400 % des demandes liées à l'IA générative en sept mois, atteignant plusieurs milliers de requêtes. Parmi ces signalements, 55 % concernent ChatGPT, 20 % Gemini, 15 % Claude et 10 % d'autres outils. Les plaintes prennent deux formes : soit un utilisateur obtient ses propres données personnelles (adresse, numéro de téléphone, membres de sa famille, employeur) en interrogeant le chatbot sur lui-même, soit le chatbot génère des coordonnées plausibles mais erronées appartenant à de vraies personnes tierces. Dans les deux cas, les conséquences peuvent être graves : harcèlement, arnaques, usurpation d'identité. Et pour l'instant, il n'existe aucun mécanisme simple permettant aux victimes de faire retirer leurs données de ces systèmes.

Ce problème s'inscrit dans un débat plus large sur la façon dont les géants de l'IA constituent leurs données d'entraînement. Les modèles de langage comme Gemini sont entraînés sur des corpus massifs extraits du web, qui contiennent inévitablement des informations personnelles publiées dans des annuaires, forums ou pages professionnelles. Contrairement aux moteurs de recherche classiques qui renvoient vers des sources vérifiables, les chatbots génèrent des réponses synthétiques sans transparence sur leur origine, rendant la vérification impossible pour l'utilisateur. Google n'a pas fourni d'explication sur les mécanismes précis à l'oeuvre, ni de solution pour les personnes dont les numéros circulent ainsi. Avec la généralisation des assistants IA dans les usages quotidiens, cette faille soulève des questions réglementaires urgentes, notamment en Europe où le RGPD impose des obligations strictes sur le traitement des données personnelles.

Impact France/UE

Le RGPD impose aux éditeurs de chatbots des obligations strictes sur le traitement et l'effacement des données personnelles, exposant Google et ses concurrents à des sanctions potentielles de la CNIL et des autorités européennes de protection des données.

💬 Le point de vue du dev

Des gens se font harceler au téléphone parce que Gemini a craché leur numéro perso à des inconnus cherchant un serrurier ou un avocat. Ce qui me choque, c'est qu'il n'existe aucun mécanisme pour faire retirer ses données de ces modèles (Google n'a pas daigné expliquer comment, d'ailleurs). Si t'as un profil visible en ligne, ton numéro est peut-être quelque part dans un corpus d'entraînement.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Attention ! Google Chrome télécharge son IA sur votre PC à votre insu
1Le Big Data 

Attention ! Google Chrome télécharge son IA sur votre PC à votre insu

Google Chrome télécharge discrètement un fichier de 4 gigaoctets baptisé « weights.bin » sur les ordinateurs de ses utilisateurs, sans les en informer ni leur demander leur accord. La découverte est signée Alexander Hanff, chercheur en sécurité connu sous le pseudonyme « That Privacy Guy », qui a documenté le phénomène sur un Mac configuré avec un profil Chrome vierge. En une quinzaine de minutes d'inactivité apparente, le navigateur a créé le dossier correspondant et téléchargé l'intégralité du modèle en arrière-plan. Ce fichier est lié à Gemini Nano, la version allégée du modèle d'intelligence artificielle développé par Google, destinée à fonctionner directement sur l'appareil. Chrome analyserait les capacités matérielles de la machine avant de déclencher le téléchargement, ce qui confirme selon Hanff une sélection automatique des appareils compatibles. Plus préoccupant encore : si l'utilisateur supprime le fichier, celui-ci se réinstalle de lui-même, sauf à désactiver certaines options expérimentales du navigateur ou à désinstaller Chrome entièrement. Ce comportement soulève plusieurs problèmes concrets. Sur le plan juridique, Hanff estime que le procédé pourrait contrevenir au RGPD et à la directive ePrivacy européenne, qui imposent une transparence claire pour tout stockage de données sur un appareil. L'absence de consentement explicite constituerait une violation de ces cadres réglementaires. Sur le plan pratique, un téléchargement non sollicité de 4 Go représente une nuisance réelle pour les utilisateurs sous forfait mobile limité ou dans des pays où la bande passante est coûteuse. L'impact environnemental chiffré par Hanff est également frappant : à l'échelle de 100 millions d'appareils, le transfert représenterait 400 pétaoctets de données, 24 GWh d'énergie consommée et environ 6 000 tonnes équivalent CO₂. Ces volumes atteignent 4 exaoctets, 240 GWh et 60 000 tonnes de CO₂ si l'on extrapole à un milliard d'appareils, soit 30 % de la base utilisateurs Chrome. Cette affaire s'inscrit dans une critique plus large adressée aux géants technologiques, et nommément à Google et Anthropic, que Hanff accuse de déployer leurs technologies avant toute explication aux utilisateurs. Que ce soit via l'intégration silencieuse de Claude Desktop dans les systèmes ou le téléchargement automatique de modèles IA, la logique est identique : les appareils des utilisateurs deviennent des infrastructures au service des ambitions IA des plateformes, sans que ceux-ci n'aient eu leur mot à dire. Google n'a pas officiellement commenté ces révélations. La question de savoir si Chrome propose à terme une option de désactivation claire, ou si des régulateurs européens saisiront le sujet, reste ouverte, mais la pression sur les pratiques de déploiement silencieux de l'IA embarquée monte visiblement d'un cran.

UELe téléchargement silencieux de Gemini Nano par Chrome constitue une violation potentielle du RGPD et de la directive ePrivacy, exposant Google à des poursuites par des régulateurs européens comme la CNIL et rendant la pratique illégale pour les 400+ millions d'utilisateurs Chrome en Europe.

💬 4 Go téléchargés sans te prévenir, et qui se réinstallent d'eux-mêmes si tu les supprimes. C'est pas une négligence de déploiement, c'est un choix produit qui part du principe que ton disque dur fait partie de l'infrastructure de Google. Ce genre de truc va finir devant la CNIL, et cette fois-ci ils auront du mal à plaider la bonne foi.

ÉthiqueReglementation
1 source
Meta formerait des agents IA en surveillant les souris et claviers de ses employés
2Ars Technica AI 

Meta formerait des agents IA en surveillant les souris et claviers de ses employés

Meta va commencer à collecter les mouvements de souris, clics et frappes clavier de ses employés américains pour entraîner ses futurs agents d'intelligence artificielle. L'initiative, baptisée Model Capability Initiative, a été annoncée en interne via des mémos publiés par l'équipe Meta Superintelligence Labs et révélée par Reuters. Le logiciel de suivi fonctionnera sur des applications et sites web professionnels spécifiques, et prendra également des captures d'écran périodiques pour fournir du contexte aux données d'entraînement. Selon le mémo interne, "c'est là où tous les employés de Meta peuvent aider nos modèles à s'améliorer simplement en faisant leur travail quotidien." Cette approche vise à produire des données d'entraînement de haute qualité pour les agents IA, c'est-à-dire des systèmes capables d'accomplir des tâches complexes de manière autonome sur un ordinateur. Reproduire fidèlement les comportements humains réels dans des environnements de travail concrets est un défi majeur pour ce type d'IA, et les données synthétiques ou publiques ne suffisent plus. En utilisant le travail quotidien de milliers d'employés comme source de données, Meta espère accélérer le développement d'agents capables de naviguer dans des interfaces réelles. Cette initiative s'inscrit dans une course effrénée entre les grandes entreprises technologiques pour développer des agents IA performants, un marché que Microsoft, Google et OpenAI ciblent également activement. La question de la surveillance des employés à des fins commerciales soulève néanmoins des questions éthiques et juridiques, notamment en matière de consentement et de vie privée au travail. Il reste à voir si Meta étendra ce programme à ses employés hors des États-Unis, où les réglementations comme le RGPD européen imposent des contraintes bien plus strictes.

UELe RGPD impose un consentement explicite pour la collecte de données comportementales des employés, rendant une extension de ce programme aux salariés européens de Meta juridiquement très complexe, voire impossible sans refonte du dispositif.

ÉthiqueActu
1 source
Meta AI : un vrai pot de colle, vous ne pouvez pas le bloquer sur Threads
3Le Big Data 

Meta AI : un vrai pot de colle, vous ne pouvez pas le bloquer sur Threads

Meta a annoncé mardi le lancement d'un test de sa fonctionnalité Meta AI directement intégrée à Threads, son réseau social concurrent de X. Le principe reprend le modèle de Grok chez xAI : les utilisateurs peuvent mentionner le compte @Meta AI dans n'importe quelle conversation pour déclencher une réponse automatique de l'assistant. Le déploiement reste pour l'instant limité à cinq pays : l'Argentine, la Malaisie, le Mexique, l'Arabie saoudite et Singapour. L'IA peut répondre à des questions du quotidien, comme expliquer la tendance du matcha ou indiquer la prononciation du mot "Cannes", selon une vidéo de démonstration publiée par Meta elle-même. Le problème central qui a enflammé la plateforme tient en un mot : le blocage est impossible. Contrairement à n'importe quel autre compte sur Threads, Meta AI ne peut pas être bloqué par les utilisateurs. L'option habituelle, accessible via les trois points du profil, disparaît purement et simplement du menu. Certains utilisateurs ont signalé avoir brièvement aperçu le bouton avant de recevoir un message d'erreur en tentant de l'utiliser. La grogne a rapidement pris de l'ampleur : le sujet "Impossible de bloquer Meta AI" est devenu viral avec plus d'un million de publications sur la plateforme, avant de disparaître mystérieusement des tendances, ce qui n'a fait qu'amplifier la méfiance. Face à la pression, Meta a répondu via sa porte-parole Christine Pai, qui assure que les utilisateurs peuvent "gérer leur expérience" en masquant certaines réponses, en les désactivant dans leur fil ou en sélectionnant l'option "Pas intéressé(e)". Le blocage direct, lui, reste indisponible. Cette situation illustre une tension de fond qui traverse toute l'industrie des réseaux sociaux : l'intégration forcée d'assistants IA dans des espaces de conversation que les utilisateurs considèrent comme les leurs. Meta, qui cherche à monétiser et valoriser ses investissements massifs dans l'IA, a tout intérêt à maximiser l'exposition de Meta AI à travers ses milliards d'utilisateurs sur Facebook, Instagram et Threads. Mais l'absence d'option de blocage soulève des questions légitimes sur le consentement et le contrôle des utilisateurs, particulièrement en Europe où le cadre réglementaire du RGPD impose des obligations strictes en la matière. Si le test se conclut par un déploiement mondial, Meta devra probablement trancher : soit introduire une vraie option de blocage pour respecter les attentes des utilisateurs et les réglementations, soit assumer pleinement le choix de rendre son IA incontournable sur la plateforme.

UEL'impossibilité de bloquer Meta AI soulève une question de conformité directe avec le RGPD sur le consentement éclairé, ce qui obligera Meta à adapter la fonctionnalité avant tout déploiement en Europe.

💬 C'est pas un oubli, c'est assumé. Proposer "masquer la réponse" à la place du blocage, c'est la fausse alternative typique de Meta : l'IA reste dans ton fil, elle répond, elle collecte, tu n'as juste plus à la voir. Le RGPD va adorer ça.

ÉthiqueOpinion
1 source
Qu'est-ce qui cloche chez les géants de l'IA ?
4Ars Technica AI 

Qu'est-ce qui cloche chez les géants de l'IA ?

Sam Altman, PDG d'OpenAI, a publié l'an dernier un billet de blog intitulé "A Gentle Singularity", lu par près de 600 000 personnes. Sa thèse centrale : l'IA ne présente que des avantages, et tout ce qui s'est produit jusqu'ici n'est qu'un avant-goût d'un avenir encore plus radieux. Altman y décrit un scénario de croissance exponentielle : fabriquer un premier million de robots humanoïdes "à l'ancienne", puis laisser ces robots gérer l'intégralité de la chaîne d'approvisionnement, de l'extraction minière à la fabrication de puces, pour produire ensuite encore plus de robots et de centres de données. Des "boucles auto-renforçantes" qui, selon lui, vont transformer le rythme du progrès de façon radicale. Ce discours pose un problème fondamental : il évacue systématiquement les risques. Interrogé sur les inconvénients, Altman répond, en substance, que les humains s'adaptent vite. Cette posture n'est pas anodine venant du patron de l'entreprise la plus influente du secteur. Quand le PDG d'OpenAI présente une vision aussi unilatéralement optimiste à 600 000 lecteurs, il contribue à façonner la manière dont l'industrie, les investisseurs et les décideurs politiques perçoivent les risques liés à l'IA. L'absence de nuance n'est pas une légèreté rhétorique, c'est un choix éditorial avec des conséquences réelles sur les régulations et les priorités de recherche en matière de sécurité. Ce billet s'inscrit dans un pattern plus large chez les dirigeants des grandes entreprises d'IA : des déclarations qui ressemblent davantage à des arguments de vente qu'à une réflexion sincère sur l'avenir technologique. Altman n'est pas seul dans ce registre, mais il occupe une position particulièrement centrale. OpenAI reste l'acteur de référence du secteur, et chaque prise de parole de son PDG est amplifiée à l'échelle mondiale. La question que pose cet article dépasse le cas Altman : peut-on faire confiance aux architectes de cette révolution pour en évaluer lucidement les risques, ou leur intérêt économique rend-il cette lucidité structurellement impossible ?

UELes discours unilatéralement optimistes des dirigeants d'IA américains influencent directement les décideurs politiques européens et risquent de biaiser les priorités de l'AI Act vers l'innovation au détriment de la sécurité.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour