Lorsque les modèles de langage hallucinent, ils laissent une "énergie déversée" dans leur propre mathématique
Lorsque les grands modèles de langage hallucinent, ils laissent des traces mesurables dans leurs propres calculs. Des chercheurs de l'Université Rome Sapienza ont développé une méthode sans entraînement qui détecte ces traces et généralise mieux que les approches précédentes.