Aller au contenu principal
Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire
SociétéLe Big Data4h

Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire

Résumé IASource uniqueImpact UE
Source originale ↗·

Une étude publiée fin avril 2026 par le chercheur André Barcaui vient bousculer l'enthousiasme autour de l'usage de ChatGPT comme outil d'apprentissage. Les résultats sont nets : les étudiants ayant recours à l'IA pour leurs révisions obtiennent des scores de rétention inférieurs d'environ 11 % à ceux de leurs pairs ayant étudié sans assistance artificielle. Ce décrochage est mesuré après 45 jours, soit le délai nécessaire pour évaluer la mémoire à long terme. Les participants ayant utilisé ChatGPT passaient par ailleurs près de deux fois moins de temps à étudier, ce qui aggrave mécaniquement l'écart observé. Ces chiffres, relayés notamment par le médecin Nicholas Fabiano sur X le 29 avril 2026, ont rapidement alimenté le débat sur la place de l'IA dans l'éducation.

L'explication avancée par les chercheurs repose sur un mécanisme bien documenté en sciences cognitives : la décharge cognitive. Lorsque l'IA fournit instantanément une réponse claire et structurée, le cerveau n'a plus à fournir l'effort de recherche, d'hésitation ou de correction d'erreur qui sont précisément les conditions favorables à la consolidation mémorielle. Le cerveau encode surtout l'endroit où trouver l'information, pas l'information elle-même, un phénomène déjà observé avec Google mais que l'IA amplifie considérablement. S'ajoute à cela ce que les chercheurs appellent l'illusion de compétence : l'utilisateur a le sentiment de maîtriser un sujet après une session avec ChatGPT, alors que les connaissances n'ont été qu'effleurées sans jamais être intégrées en profondeur. Fait notable, les utilisateurs réguliers de l'outil ne sont pas mieux protégés : l'habitude ne corrige pas le déficit de mémorisation.

Cette étude s'inscrit dans un débat plus large sur la transformation des pratiques d'apprentissage à l'ère des grands modèles de langage. Depuis l'explosion de l'usage de ChatGPT en milieu scolaire et universitaire à partir de 2023, plusieurs établissements ont tenté d'en réguler l'usage sans jamais trancher clairement entre interdiction et intégration. La recherche de Barcaui ne plaide pas pour un bannissement de l'outil : les chercheurs recommandent plutôt d'en redéfinir l'usage, en encourageant les étudiants à formuler leur propre réponse avant de consulter l'IA, ou à s'en servir pour vérifier plutôt que pour produire. L'enjeu est de préserver ce que les pédagogues appellent les "difficultés désirables", ces obstacles cognitifs qui semblent ralentir l'apprentissage à court terme mais le renforcent durablement. La question posée n'est donc pas tant celle de l'outil que celle de la manière dont une génération entière est en train de redéfinir le rapport entre comprendre et savoir.

Impact France/UE

Les établissements d'enseignement français et européens, déjà en débat sur la régulation de l'IA en milieu scolaire, disposent d'une base empirique pour revoir leurs recommandations pédagogiques sur l'usage de ChatGPT.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Siècle Digital 

Près d’1 jeune Français sur 3 a déjà acheté avec ChatGPT selon une étude

Près d'un jeune Français sur trois, âgé de 15 à 25 ans, a déjà effectué un achat en passant par ChatGPT, selon une étude OpinionWay réalisée pour Orisha Commerce auprès de 1 604 jeunes en France et en Espagne. 59 % des sondés déclarent découvrir en priorité de nouveaux produits via les contenus des réseaux sociaux, devançant largement la recherche Google traditionnelle. L'intelligence artificielle générative s'impose ainsi comme un nouveau point d'entrée dans le parcours d'achat de cette génération. Ce basculement représente un défi majeur pour les marques et les e-commerçants. Si Google a structuré pendant vingt ans les stratégies SEO et d'acquisition, les plateformes doivent désormais penser leur présence dans les réponses des assistants IA, qui synthétisent l'information sans renvoyer systématiquement vers les sites sources. Pour les retailers, c'est toute la chaîne de visibilité et de conversion qui doit être repensée, depuis le référencement des catalogues produits jusqu'à la façon dont les fiches sont structurées pour être comprises et citées par les LLM. Ce phénomène s'inscrit dans une tendance plus large de désintermédiation des moteurs de recherche classiques, accélérée par la montée en puissance de ChatGPT, Perplexity et des assistants intégrés aux smartphones. Les 15-25 ans, premiers utilisateurs natifs de ces outils, dictent souvent les usages qui se diffusent ensuite aux tranches d'âge supérieures. Orisha Commerce, éditeur de solutions pour le commerce unifié, publie cette étude dans un contexte où les acteurs du retail cherchent à anticiper la prochaine rupture dans les comportements d'achat en ligne.

UEL'étude porte directement sur les 15-25 ans en France et en Espagne et révèle qu'un tiers d'entre eux achètent déjà via ChatGPT, obligeant les e-commerçants français à repenser leur stratégie de visibilité au profit des assistants IA plutôt que du SEO Google traditionnel.

💬 Un tiers des 15-25 ans qui passent par ChatGPT pour acheter, c'est pas anodin. Le SEO tel qu'on l'a connu pendant vingt ans est en train de se faire doubler par un truc que la plupart des e-commerçants n'ont pas encore commencé à adresser. Reste à voir comment on optimise une fiche produit pour qu'un LLM la cite plutôt qu'une autre.

SociétéOutil
1 source
Actualité : “On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi
2Les Numériques IA 

Actualité : “On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi

Une étude publiée récemment et menée auprès de 1 372 participants révèle que 8 personnes sur 10 adoptent les réponses de ChatGPT sans les remettre en question — même lorsque ces réponses contiennent des erreurs délibérément introduites par les chercheurs. Plus troublant encore : les sujets exprimaient une plus grande confiance en leurs propres réponses après avoir suivi l'IA, y compris quand celle-ci se trompait manifestement. Ce phénomène, que les auteurs rapprochent de la notion de "pensée artificielle", dépasse le simple manque d'esprit critique. Il signale une forme d'externalisation cognitive massive : les utilisateurs ne vérifient plus, ils délèguent. Pour les secteurs où la précision est vitale — médecine, droit, éducation, journalisme — cette complaisance représente un risque systémique concret. L'IA ne renforce plus le jugement humain ; elle le remplace, avec l'assentiment de l'utilisateur. Ce résultat s'inscrit dans un débat qui monte depuis l'explosion de l'usage grand public des LLMs en 2023. Des travaux antérieurs avaient déjà documenté l'effet de "automation bias" — la tendance à faire confiance aux systèmes automatisés plutôt qu'à son propre raisonnement. Mais l'ampleur mesurée ici, 80 % de conformité même face à des erreurs flagrantes, dépasse les estimations précédentes. À mesure que ChatGPT, Gemini et leurs concurrents s'intègrent dans les outils de travail quotidiens, la question de la littératie IA devient urgente : savoir utiliser ces outils, c'est d'abord savoir leur résister.

UELes résultats renforcent l'urgence d'intégrer la littératie IA dans les cursus éducatifs européens et alimentent les débats sur les obligations de transparence et d'évaluation des risques prévues par l'AI Act.

SociétéOpinion
1 source
Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises
3Le Big Data 

Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises

Une étude publiée en avril 2026 par des chercheurs de l'Université de Pennsylvanie et de l'Université de Boston, intitulée "The AI Layoff Trap", modélise mathématiquement un mécanisme économique préoccupant lié à l'automatisation massive par l'IA. Les chiffres sont éloquents : plus de 100 000 postes ont disparu dans le secteur technologique en 2025, et 2026 s'annonce encore plus marqué avec déjà 61 000 suppressions d'emplois recensées. Des géants comme Amazon et Meta multiplient les vagues de licenciements, tandis que les chercheurs estiment que près de 80 % des travailleurs américains restent exposés à l'automatisation. L'étude utilise un modèle issu de la théorie des jeux pour démontrer que chaque entreprise, prise individuellement, agit de façon parfaitement rationnelle en adoptant l'IA afin de réduire ses coûts et maintenir sa compétitivité face à ses concurrents. Le problème, selon les auteurs, est que cette rationalité individuelle produit une irrationali­té collective. Moins d'emplois signifie moins de pouvoir d'achat, donc moins de consommation, donc une demande en recul dans tous les secteurs de l'économie. Les revenus des entreprises finissent par chuter, y compris celles qui ont massivement automatisé. Le mécanisme est décrit comme un dilemme du prisonnier appliqué à l'échelle macroéconomique : chaque acteur optimise sa survie à court terme, mais l'ensemble du système se déstabilise. Les entreprises qui n'automatisent pas perdent des parts de marché face à celles qui le font, ce qui les contraint à automatiser à leur tour, entretenant un cercle qui érode progressivement la demande dont toutes dépendent. Ce que rend particulièrement inquiétant le constat des chercheurs, c'est l'échec des solutions habituellement proposées. Le revenu universel de base, la redistribution fiscale du capital ou encore la formation professionnelle continue sont examinés et écartés : aucune de ces mesures ne modifie les incitations profondes qui poussent les entreprises vers l'automatisation massive. Tant que la pression concurrentielle reste intacte, chaque acteur continuera d'accélérer ses investissements en IA pour ne pas se laisser distancer, quelle que soit la politique redistributive en place. Cette étude s'inscrit dans un débat économique qui prend de l'ampleur alors que les grandes entreprises technologiques réallouent leurs budgets salariaux vers des infrastructures d'IA, posant une question structurelle à laquelle les gouvernements et les régulateurs n'ont pas encore trouvé de réponse convaincante.

UELes entreprises et travailleurs européens sont soumis aux mêmes dynamiques concurrentielles décrites par l'étude, ce qui renforce l'urgence du débat européen sur la régulation du marché du travail face à l'automatisation massive.

SociétéPaper
1 source
AI Girlfriend : avantages, limites et risques des relations avec une IA
4Le Big Data 

AI Girlfriend : avantages, limites et risques des relations avec une IA

Les applications d'intelligence artificielle dites « AI girlfriends » connaissent une popularité croissante, portées par des plateformes comme Candy AI qui proposent des relations virtuelles personnalisables. Ces systèmes permettent à l'utilisateur de façonner entièrement la personnalité de son interlocuteur, ton, caractère, ambiance, et d'échanger librement, sans contrainte horaire ni risque de rejet. Les échanges peuvent inclure des messages spontanés simulant l'initiative (« tu me manques », « comment s'est passée ta matinée »), et les IA mémorisent les préférences stylistiques pour affiner progressivement leurs réponses. Certaines plateformes vont jusqu'à proposer des scénarios fictifs, rencontre imaginaire, relation à distance, pour renforcer l'immersion. L'attrait principal réside dans la disponibilité permanente et l'absence de friction émotionnelle : l'IA ne coupe pas la parole, ne minimise pas les ressentis, et ne réagit pas avec froideur à une maladresse. Pour des personnes isolées, anxieuses socialement ou en quête de réconfort, cette accessibilité représente une valeur réelle. La fluidité des échanges, soulignée dans de nombreux retours d'utilisateurs, réduit la sensation de répétition mécanique que l'on associe habituellement aux chatbots. Mais ces mêmes caractéristiques portent leurs propres risques : une IA qui valide systématiquement peut renforcer des pensées négatives plutôt que les remettre en question, et des utilisateurs en situation de vulnérabilité psychologique sont particulièrement exposés à ce phénomène. Le marché des compagnons virtuels s'inscrit dans une tendance plus large de monétisation de la solitude, amplifiée par la progression des grands modèles de langage capables de maintenir des conversations cohérentes sur la durée. La fragilité structurelle de ces services reste un angle mort : une mise à jour peut modifier radicalement la personnalité simulée, une fonctionnalité peut disparaître, et certains services ont été interrompus sans préavis, laissant leurs utilisateurs face à ce que certains décrivent comme une rupture brutale. La dépendance émotionnelle qui peut se développer envers un produit commercial soumis aux décisions d'une entreprise privée soulève des questions éthiques que le secteur commence à peine à formuler. À mesure que ces outils gagnent du terrain, la frontière entre soutien émotionnel et substitut pathologique à la relation humaine devient un enjeu de santé publique difficile à ignorer.

UELes plateformes de compagnes virtuelles collectent des données personnelles sensibles soumises au RGPD, et les risques de dépendance émotionnelle qu'elles engendrent pourraient alimenter de futures réglementations européennes sur les IA à usage émotionnel.

💬 Le vrai risque, c'est pas l'IA qui joue à la copine, c'est que tu t'attaches à un produit commercial qui peut disparaître ou changer du jour au lendemain. J'ai vu des témoignages de gens qui décrivent la fermeture de leur app comme une vraie rupture, et là ça devient un sujet sérieux. Monétiser la solitude, c'est pas nouveau, mais avec des LLMs pour faire tenir l'illusion des mois, on entre dans un truc que le secteur est pas prêt à assumer.

SociétéOpinion
1 source