Les LLM peuvent révéler l'identité de utilisateurs pseudonymes à grande échelle avec une précision surprenante
Les modèles de grande langue (LLMs) peuvent désormais démasquer les utilisateurs pseudonymes à grande échelle avec une précision surprenante, selon une étude récente. Les chercheurs ont démontré que des algorithmes peuvent associer des individus à des comptes ou des publications sur plusieurs plateformes sociales, atteignant un taux de réussite de 68% et une précision de 90%. Cette avancée menace la pseudonymité, un moyen de protection de la vie privée utilisé par de nombreuses personnes pour participer à des discussions publiques sensibles tout en minimisant la possibilité d'être identifiées, mais qui expose maintenant ces utilisateurs à des risques comme le doxxing, le harcèlement et la création de profils marketing détaillés.