
Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire
Une étude publiée fin avril 2026 par le chercheur André Barcaui vient bousculer l'enthousiasme autour de l'usage de ChatGPT comme outil d'apprentissage. Les résultats sont nets : les étudiants ayant recours à l'IA pour leurs révisions obtiennent des scores de rétention inférieurs d'environ 11 % à ceux de leurs pairs ayant étudié sans assistance artificielle. Ce décrochage est mesuré après 45 jours, soit le délai nécessaire pour évaluer la mémoire à long terme. Les participants ayant utilisé ChatGPT passaient par ailleurs près de deux fois moins de temps à étudier, ce qui aggrave mécaniquement l'écart observé. Ces chiffres, relayés notamment par le médecin Nicholas Fabiano sur X le 29 avril 2026, ont rapidement alimenté le débat sur la place de l'IA dans l'éducation.
L'explication avancée par les chercheurs repose sur un mécanisme bien documenté en sciences cognitives : la décharge cognitive. Lorsque l'IA fournit instantanément une réponse claire et structurée, le cerveau n'a plus à fournir l'effort de recherche, d'hésitation ou de correction d'erreur qui sont précisément les conditions favorables à la consolidation mémorielle. Le cerveau encode surtout l'endroit où trouver l'information, pas l'information elle-même, un phénomène déjà observé avec Google mais que l'IA amplifie considérablement. S'ajoute à cela ce que les chercheurs appellent l'illusion de compétence : l'utilisateur a le sentiment de maîtriser un sujet après une session avec ChatGPT, alors que les connaissances n'ont été qu'effleurées sans jamais être intégrées en profondeur. Fait notable, les utilisateurs réguliers de l'outil ne sont pas mieux protégés : l'habitude ne corrige pas le déficit de mémorisation.
Cette étude s'inscrit dans un débat plus large sur la transformation des pratiques d'apprentissage à l'ère des grands modèles de langage. Depuis l'explosion de l'usage de ChatGPT en milieu scolaire et universitaire à partir de 2023, plusieurs établissements ont tenté d'en réguler l'usage sans jamais trancher clairement entre interdiction et intégration. La recherche de Barcaui ne plaide pas pour un bannissement de l'outil : les chercheurs recommandent plutôt d'en redéfinir l'usage, en encourageant les étudiants à formuler leur propre réponse avant de consulter l'IA, ou à s'en servir pour vérifier plutôt que pour produire. L'enjeu est de préserver ce que les pédagogues appellent les "difficultés désirables", ces obstacles cognitifs qui semblent ralentir l'apprentissage à court terme mais le renforcent durablement. La question posée n'est donc pas tant celle de l'outil que celle de la manière dont une génération entière est en train de redéfinir le rapport entre comprendre et savoir.
Les établissements d'enseignement français et européens, déjà en débat sur la régulation de l'IA en milieu scolaire, disposent d'une base empirique pour revoir leurs recommandations pédagogiques sur l'usage de ChatGPT.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



