Aller au contenu principal
Actualité : “On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi
SociétéLes Numériques IA6sem

Actualité : “On a cessé de réfléchir” : cette étude accablante montre que 8 personnes sur 10 suivent ChatGPT, même quand il dit n'importe quoi

Résumé IASource uniqueImpact UE
Source originale ↗·

Une étude publiée récemment et menée auprès de 1 372 participants révèle que 8 personnes sur 10 adoptent les réponses de ChatGPT sans les remettre en question — même lorsque ces réponses contiennent des erreurs délibérément introduites par les chercheurs. Plus troublant encore : les sujets exprimaient une plus grande confiance en leurs propres réponses après avoir suivi l'IA, y compris quand celle-ci se trompait manifestement.

Ce phénomène, que les auteurs rapprochent de la notion de "pensée artificielle", dépasse le simple manque d'esprit critique. Il signale une forme d'externalisation cognitive massive : les utilisateurs ne vérifient plus, ils délèguent. Pour les secteurs où la précision est vitale — médecine, droit, éducation, journalisme — cette complaisance représente un risque systémique concret. L'IA ne renforce plus le jugement humain ; elle le remplace, avec l'assentiment de l'utilisateur.

Ce résultat s'inscrit dans un débat qui monte depuis l'explosion de l'usage grand public des LLMs en 2023. Des travaux antérieurs avaient déjà documenté l'effet de "automation bias" — la tendance à faire confiance aux systèmes automatisés plutôt qu'à son propre raisonnement. Mais l'ampleur mesurée ici, 80 % de conformité même face à des erreurs flagrantes, dépasse les estimations précédentes. À mesure que ChatGPT, Gemini et leurs concurrents s'intègrent dans les outils de travail quotidiens, la question de la littératie IA devient urgente : savoir utiliser ces outils, c'est d'abord savoir leur résister.

Impact France/UE

Les résultats renforcent l'urgence d'intégrer la littératie IA dans les cursus éducatifs européens et alimentent les débats sur les obligations de transparence et d'évaluation des risques prévues par l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire
1Le Big Data 

Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire

Une étude publiée fin avril 2026 par le chercheur André Barcaui vient bousculer l'enthousiasme autour de l'usage de ChatGPT comme outil d'apprentissage. Les résultats sont nets : les étudiants ayant recours à l'IA pour leurs révisions obtiennent des scores de rétention inférieurs d'environ 11 % à ceux de leurs pairs ayant étudié sans assistance artificielle. Ce décrochage est mesuré après 45 jours, soit le délai nécessaire pour évaluer la mémoire à long terme. Les participants ayant utilisé ChatGPT passaient par ailleurs près de deux fois moins de temps à étudier, ce qui aggrave mécaniquement l'écart observé. Ces chiffres, relayés notamment par le médecin Nicholas Fabiano sur X le 29 avril 2026, ont rapidement alimenté le débat sur la place de l'IA dans l'éducation. L'explication avancée par les chercheurs repose sur un mécanisme bien documenté en sciences cognitives : la décharge cognitive. Lorsque l'IA fournit instantanément une réponse claire et structurée, le cerveau n'a plus à fournir l'effort de recherche, d'hésitation ou de correction d'erreur qui sont précisément les conditions favorables à la consolidation mémorielle. Le cerveau encode surtout l'endroit où trouver l'information, pas l'information elle-même, un phénomène déjà observé avec Google mais que l'IA amplifie considérablement. S'ajoute à cela ce que les chercheurs appellent l'illusion de compétence : l'utilisateur a le sentiment de maîtriser un sujet après une session avec ChatGPT, alors que les connaissances n'ont été qu'effleurées sans jamais être intégrées en profondeur. Fait notable, les utilisateurs réguliers de l'outil ne sont pas mieux protégés : l'habitude ne corrige pas le déficit de mémorisation. Cette étude s'inscrit dans un débat plus large sur la transformation des pratiques d'apprentissage à l'ère des grands modèles de langage. Depuis l'explosion de l'usage de ChatGPT en milieu scolaire et universitaire à partir de 2023, plusieurs établissements ont tenté d'en réguler l'usage sans jamais trancher clairement entre interdiction et intégration. La recherche de Barcaui ne plaide pas pour un bannissement de l'outil : les chercheurs recommandent plutôt d'en redéfinir l'usage, en encourageant les étudiants à formuler leur propre réponse avant de consulter l'IA, ou à s'en servir pour vérifier plutôt que pour produire. L'enjeu est de préserver ce que les pédagogues appellent les "difficultés désirables", ces obstacles cognitifs qui semblent ralentir l'apprentissage à court terme mais le renforcent durablement. La question posée n'est donc pas tant celle de l'outil que celle de la manière dont une génération entière est en train de redéfinir le rapport entre comprendre et savoir.

UELes établissements d'enseignement français et européens, déjà en débat sur la régulation de l'IA en milieu scolaire, disposent d'une base empirique pour revoir leurs recommandations pédagogiques sur l'usage de ChatGPT.

SociétéActu
1 source
Une étude influente sur ChatGPT dans l'éducation retirée pour irrégularités
2Ars Technica AI 

Une étude influente sur ChatGPT dans l'éducation retirée pour irrégularités

Une étude affirmant que ChatGPT améliore les résultats scolaires des étudiants vient d'être rétractée par son éditeur, Springer Nature, près d'un an après sa publication initiale. L'éditeur a invoqué des "incohérences" dans l'analyse statistique et un manque de confiance dans les conclusions tirées. La recherche en question prétendait quantifier l'effet de ChatGPT sur les performances d'apprentissage, la perception pédagogique et la pensée de haut niveau des étudiants, en s'appuyant sur une méta-analyse de 51 études antérieures. Elle comparait des groupes expérimentaux ayant utilisé ChatGPT à des groupes témoins n'y ayant pas eu recours, avant d'en extraire une taille d'effet globale favorable à l'outil d'OpenAI. Le problème, c'est que cette étude avait déjà fait un tour complet des réseaux sociaux et cumulé des centaines de citations académiques avant d'être invalidée. Ben Williamson, maître de conférences au Centre for Research in Digital Education de l'Université d'Édimbourg, souligne qu'elle était perçue par beaucoup "comme l'une des premières preuves solides et de haut niveau que ChatGPT, et l'IA générative en général, bénéficie aux apprenants." Sa rétractation laisse donc un vide là où une certitude semblait s'être installée, et soulève des questions sur la fiabilité des données qui circulent dans le débat public sur l'IA en éducation. Cet épisode s'inscrit dans un contexte plus large de pression pour justifier rapidement l'intégration de l'IA dans les salles de classe, alors même que les outils évoluent plus vite que la recherche capable de les évaluer sérieusement. Les méta-analyses sont souvent perçues comme des références solides, mais elles héritent des biais et des lacunes des études qu'elles agrègent. Le fait que des centaines de chercheurs et de décideurs aient cité ce travail avant sa rétractation illustre un risque systémique: les affirmations favorables à l'IA en éducation trouvent un écho rapide, tandis que les correctifs arrivent trop tard pour contrebalancer leur influence.

UELa rétractation fragilise la base empirique des politiques d'intégration de l'IA dans l'éducation en Europe, où de nombreux décideurs institutionnels s'appuyaient sur ce type d'études pour justifier leurs orientations pédagogiques.

SociétéPaper
1 source
3Siècle Digital 

Près d’1 jeune Français sur 3 a déjà acheté avec ChatGPT selon une étude

Près d'un jeune Français sur trois, âgé de 15 à 25 ans, a déjà effectué un achat en passant par ChatGPT, selon une étude OpinionWay réalisée pour Orisha Commerce auprès de 1 604 jeunes en France et en Espagne. 59 % des sondés déclarent découvrir en priorité de nouveaux produits via les contenus des réseaux sociaux, devançant largement la recherche Google traditionnelle. L'intelligence artificielle générative s'impose ainsi comme un nouveau point d'entrée dans le parcours d'achat de cette génération. Ce basculement représente un défi majeur pour les marques et les e-commerçants. Si Google a structuré pendant vingt ans les stratégies SEO et d'acquisition, les plateformes doivent désormais penser leur présence dans les réponses des assistants IA, qui synthétisent l'information sans renvoyer systématiquement vers les sites sources. Pour les retailers, c'est toute la chaîne de visibilité et de conversion qui doit être repensée, depuis le référencement des catalogues produits jusqu'à la façon dont les fiches sont structurées pour être comprises et citées par les LLM. Ce phénomène s'inscrit dans une tendance plus large de désintermédiation des moteurs de recherche classiques, accélérée par la montée en puissance de ChatGPT, Perplexity et des assistants intégrés aux smartphones. Les 15-25 ans, premiers utilisateurs natifs de ces outils, dictent souvent les usages qui se diffusent ensuite aux tranches d'âge supérieures. Orisha Commerce, éditeur de solutions pour le commerce unifié, publie cette étude dans un contexte où les acteurs du retail cherchent à anticiper la prochaine rupture dans les comportements d'achat en ligne.

UEL'étude porte directement sur les 15-25 ans en France et en Espagne et révèle qu'un tiers d'entre eux achètent déjà via ChatGPT, obligeant les e-commerçants français à repenser leur stratégie de visibilité au profit des assistants IA plutôt que du SEO Google traditionnel.

💬 Un tiers des 15-25 ans qui passent par ChatGPT pour acheter, c'est pas anodin. Le SEO tel qu'on l'a connu pendant vingt ans est en train de se faire doubler par un truc que la plupart des e-commerçants n'ont pas encore commencé à adresser. Reste à voir comment on optimise une fiche produit pour qu'un LLM la cite plutôt qu'une autre.

SociétéOutil
1 source
Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises
4Le Big Data 

Cette étude révèle pourquoi l’IA pourrait fragiliser l’économie des entreprises

Une étude publiée en avril 2026 par des chercheurs de l'Université de Pennsylvanie et de l'Université de Boston, intitulée "The AI Layoff Trap", modélise mathématiquement un mécanisme économique préoccupant lié à l'automatisation massive par l'IA. Les chiffres sont éloquents : plus de 100 000 postes ont disparu dans le secteur technologique en 2025, et 2026 s'annonce encore plus marqué avec déjà 61 000 suppressions d'emplois recensées. Des géants comme Amazon et Meta multiplient les vagues de licenciements, tandis que les chercheurs estiment que près de 80 % des travailleurs américains restent exposés à l'automatisation. L'étude utilise un modèle issu de la théorie des jeux pour démontrer que chaque entreprise, prise individuellement, agit de façon parfaitement rationnelle en adoptant l'IA afin de réduire ses coûts et maintenir sa compétitivité face à ses concurrents. Le problème, selon les auteurs, est que cette rationalité individuelle produit une irrationali­té collective. Moins d'emplois signifie moins de pouvoir d'achat, donc moins de consommation, donc une demande en recul dans tous les secteurs de l'économie. Les revenus des entreprises finissent par chuter, y compris celles qui ont massivement automatisé. Le mécanisme est décrit comme un dilemme du prisonnier appliqué à l'échelle macroéconomique : chaque acteur optimise sa survie à court terme, mais l'ensemble du système se déstabilise. Les entreprises qui n'automatisent pas perdent des parts de marché face à celles qui le font, ce qui les contraint à automatiser à leur tour, entretenant un cercle qui érode progressivement la demande dont toutes dépendent. Ce que rend particulièrement inquiétant le constat des chercheurs, c'est l'échec des solutions habituellement proposées. Le revenu universel de base, la redistribution fiscale du capital ou encore la formation professionnelle continue sont examinés et écartés : aucune de ces mesures ne modifie les incitations profondes qui poussent les entreprises vers l'automatisation massive. Tant que la pression concurrentielle reste intacte, chaque acteur continuera d'accélérer ses investissements en IA pour ne pas se laisser distancer, quelle que soit la politique redistributive en place. Cette étude s'inscrit dans un débat économique qui prend de l'ampleur alors que les grandes entreprises technologiques réallouent leurs budgets salariaux vers des infrastructures d'IA, posant une question structurelle à laquelle les gouvernements et les régulateurs n'ont pas encore trouvé de réponse convaincante.

UELes entreprises et travailleurs européens sont soumis aux mêmes dynamiques concurrentielles décrites par l'étude, ce qui renforce l'urgence du débat européen sur la régulation du marché du travail face à l'automatisation massive.

SociétéPaper
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour