Aller au contenu principal
Une étude influente sur ChatGPT dans l'éducation retirée pour irrégularités
SociétéArs Technica AI1h

Une étude influente sur ChatGPT dans l'éducation retirée pour irrégularités

Résumé IASource uniqueImpact UE
Source originale ↗·

Une étude affirmant que ChatGPT améliore les résultats scolaires des étudiants vient d'être rétractée par son éditeur, Springer Nature, près d'un an après sa publication initiale. L'éditeur a invoqué des "incohérences" dans l'analyse statistique et un manque de confiance dans les conclusions tirées. La recherche en question prétendait quantifier l'effet de ChatGPT sur les performances d'apprentissage, la perception pédagogique et la pensée de haut niveau des étudiants, en s'appuyant sur une méta-analyse de 51 études antérieures. Elle comparait des groupes expérimentaux ayant utilisé ChatGPT à des groupes témoins n'y ayant pas eu recours, avant d'en extraire une taille d'effet globale favorable à l'outil d'OpenAI.

Le problème, c'est que cette étude avait déjà fait un tour complet des réseaux sociaux et cumulé des centaines de citations académiques avant d'être invalidée. Ben Williamson, maître de conférences au Centre for Research in Digital Education de l'Université d'Édimbourg, souligne qu'elle était perçue par beaucoup "comme l'une des premières preuves solides et de haut niveau que ChatGPT, et l'IA générative en général, bénéficie aux apprenants." Sa rétractation laisse donc un vide là où une certitude semblait s'être installée, et soulève des questions sur la fiabilité des données qui circulent dans le débat public sur l'IA en éducation.

Cet épisode s'inscrit dans un contexte plus large de pression pour justifier rapidement l'intégration de l'IA dans les salles de classe, alors même que les outils évoluent plus vite que la recherche capable de les évaluer sérieusement. Les méta-analyses sont souvent perçues comme des références solides, mais elles héritent des biais et des lacunes des études qu'elles agrègent. Le fait que des centaines de chercheurs et de décideurs aient cité ce travail avant sa rétractation illustre un risque systémique: les affirmations favorables à l'IA en éducation trouvent un écho rapide, tandis que les correctifs arrivent trop tard pour contrebalancer leur influence.

Impact France/UE

La rétractation fragilise la base empirique des politiques d'intégration de l'IA dans l'éducation en Europe, où de nombreux décideurs institutionnels s'appuyaient sur ce type d'études pour justifier leurs orientations pédagogiques.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire
1Le Big Data 

Apprendre avec ChatGPT rend-il plus bête ? Une étude révèle un gros problème de mémoire

Une étude publiée fin avril 2026 par le chercheur André Barcaui vient bousculer l'enthousiasme autour de l'usage de ChatGPT comme outil d'apprentissage. Les résultats sont nets : les étudiants ayant recours à l'IA pour leurs révisions obtiennent des scores de rétention inférieurs d'environ 11 % à ceux de leurs pairs ayant étudié sans assistance artificielle. Ce décrochage est mesuré après 45 jours, soit le délai nécessaire pour évaluer la mémoire à long terme. Les participants ayant utilisé ChatGPT passaient par ailleurs près de deux fois moins de temps à étudier, ce qui aggrave mécaniquement l'écart observé. Ces chiffres, relayés notamment par le médecin Nicholas Fabiano sur X le 29 avril 2026, ont rapidement alimenté le débat sur la place de l'IA dans l'éducation. L'explication avancée par les chercheurs repose sur un mécanisme bien documenté en sciences cognitives : la décharge cognitive. Lorsque l'IA fournit instantanément une réponse claire et structurée, le cerveau n'a plus à fournir l'effort de recherche, d'hésitation ou de correction d'erreur qui sont précisément les conditions favorables à la consolidation mémorielle. Le cerveau encode surtout l'endroit où trouver l'information, pas l'information elle-même, un phénomène déjà observé avec Google mais que l'IA amplifie considérablement. S'ajoute à cela ce que les chercheurs appellent l'illusion de compétence : l'utilisateur a le sentiment de maîtriser un sujet après une session avec ChatGPT, alors que les connaissances n'ont été qu'effleurées sans jamais être intégrées en profondeur. Fait notable, les utilisateurs réguliers de l'outil ne sont pas mieux protégés : l'habitude ne corrige pas le déficit de mémorisation. Cette étude s'inscrit dans un débat plus large sur la transformation des pratiques d'apprentissage à l'ère des grands modèles de langage. Depuis l'explosion de l'usage de ChatGPT en milieu scolaire et universitaire à partir de 2023, plusieurs établissements ont tenté d'en réguler l'usage sans jamais trancher clairement entre interdiction et intégration. La recherche de Barcaui ne plaide pas pour un bannissement de l'outil : les chercheurs recommandent plutôt d'en redéfinir l'usage, en encourageant les étudiants à formuler leur propre réponse avant de consulter l'IA, ou à s'en servir pour vérifier plutôt que pour produire. L'enjeu est de préserver ce que les pédagogues appellent les "difficultés désirables", ces obstacles cognitifs qui semblent ralentir l'apprentissage à court terme mais le renforcent durablement. La question posée n'est donc pas tant celle de l'outil que celle de la manière dont une génération entière est en train de redéfinir le rapport entre comprendre et savoir.

UELes établissements d'enseignement français et européens, déjà en débat sur la régulation de l'IA en milieu scolaire, disposent d'une base empirique pour revoir leurs recommandations pédagogiques sur l'usage de ChatGPT.

SociétéActu
1 source
2Siècle Digital 

Près d’1 jeune Français sur 3 a déjà acheté avec ChatGPT selon une étude

Près d'un jeune Français sur trois, âgé de 15 à 25 ans, a déjà effectué un achat en passant par ChatGPT, selon une étude OpinionWay réalisée pour Orisha Commerce auprès de 1 604 jeunes en France et en Espagne. 59 % des sondés déclarent découvrir en priorité de nouveaux produits via les contenus des réseaux sociaux, devançant largement la recherche Google traditionnelle. L'intelligence artificielle générative s'impose ainsi comme un nouveau point d'entrée dans le parcours d'achat de cette génération. Ce basculement représente un défi majeur pour les marques et les e-commerçants. Si Google a structuré pendant vingt ans les stratégies SEO et d'acquisition, les plateformes doivent désormais penser leur présence dans les réponses des assistants IA, qui synthétisent l'information sans renvoyer systématiquement vers les sites sources. Pour les retailers, c'est toute la chaîne de visibilité et de conversion qui doit être repensée, depuis le référencement des catalogues produits jusqu'à la façon dont les fiches sont structurées pour être comprises et citées par les LLM. Ce phénomène s'inscrit dans une tendance plus large de désintermédiation des moteurs de recherche classiques, accélérée par la montée en puissance de ChatGPT, Perplexity et des assistants intégrés aux smartphones. Les 15-25 ans, premiers utilisateurs natifs de ces outils, dictent souvent les usages qui se diffusent ensuite aux tranches d'âge supérieures. Orisha Commerce, éditeur de solutions pour le commerce unifié, publie cette étude dans un contexte où les acteurs du retail cherchent à anticiper la prochaine rupture dans les comportements d'achat en ligne.

UEL'étude porte directement sur les 15-25 ans en France et en Espagne et révèle qu'un tiers d'entre eux achètent déjà via ChatGPT, obligeant les e-commerçants français à repenser leur stratégie de visibilité au profit des assistants IA plutôt que du SEO Google traditionnel.

💬 Un tiers des 15-25 ans qui passent par ChatGPT pour acheter, c'est pas anodin. Le SEO tel qu'on l'a connu pendant vingt ans est en train de se faire doubler par un truc que la plupart des e-commerçants n'ont pas encore commencé à adresser. Reste à voir comment on optimise une fiche produit pour qu'un LLM la cite plutôt qu'une autre.

SociétéOutil
1 source
Dans un contexte de crise, des CHU misent sur l’IA pour créer un « hôpital augmenté »
3Next INpact 

Dans un contexte de crise, des CHU misent sur l’IA pour créer un « hôpital augmenté »

En janvier 2026, le CHU de Montpellier a décroché 14,9 millions d'euros de financement public dans le cadre du plan France 2030 pour lancer "Alliance Santé IA", un projet porté par sa directrice Anne Ferrer avec l'ambition affichée de créer "le premier hôpital pilote augmenté par l'IA". Cet investissement emblématique s'inscrit dans une dynamique nationale désormais bien établie : selon la Fédération hospitalière de France, six établissements de santé sur dix utilisaient déjà des outils d'IA en 2025, et près de neuf sur dix prévoient de s'en équiper à court terme. Les usages concrets varient selon les établissements. Au CHU de Poitiers, le Dr Guillaume Herpe, radiologue et coordinateur IA, décrit une IA principalement mobilisée en aide au diagnostic radiologique et dans des tâches documentaires comme la rédaction de comptes rendus. Au total, entre 2021 et 2025, l'État a investi environ 110 millions d'euros via France 2030 pour financer des entrepôts de données hospitalières et des projets d'IA impliquant plus de 30 CHU. Ces chiffres masquent pourtant de profondes disparités. Si Montpellier bénéficie d'une enveloppe exceptionnelle, la grande majorité des CHU travaillent avec des budgets IA inférieurs à un million d'euros, à comparer aux 20 millions annuels dépensés en énergie et consommables, ou aux 3 millions que peut coûter une simple machine IRM. Le Dr Herpe estime que 80 % des financements proviennent de budgets publics d'innovation, contre seulement 20 % issus de partenariats de recherche privée. Cette dépendance structurelle au financement public crée une fragilité : les établissements les mieux dotés peuvent bâtir des stratégies globales, pendant que les autres avancent au rythme des appels à projets, tributaires de prestataires extérieurs. L'enjeu dépasse la simple modernisation technique. Sébastien Florek, directeur des services numériques du CHU de Bordeaux, pose la question sans détour : les hôpitaux publics veulent-ils rester avec une technologie des années 90 pendant que le secteur privé adopte les outils modernes ? La stratégie nationale "IA et données de santé 2025-2028" du gouvernement assume désormais que "l'IA en santé n'est plus une perspective, c'est une réalité déployée sur le terrain". Mais la fracture entre établissements bien financés et ceux qui avancent à tâtons révèle que cette réalité reste profondément inégale. La prochaine bataille ne sera pas technologique mais budgétaire : sans un financement pérenne et structurel, l'hôpital augmenté risque de rester un privilège réservé à quelques CHU phares.

UELa stratégie nationale 'IA et données de santé 2025-2028' structure l'adoption de l'IA dans les hôpitaux publics français, mais la fracture de financement entre CHU phares (jusqu'à 14,9 M€) et la majorité des établissements (moins d'1 M€) risque d'aggraver les inégalités dans l'accès aux soins augmentés par l'IA.

SociétéOpinion
1 source
4Frandroid 

Impôts 2026 : pourquoi utiliser ChatGPT ou Gemini pour sa déclaration est dangereux

La campagne de déclaration des revenus 2025 a officiellement ouvert ses portes en avril 2026, et avec elle une nouvelle tentation pour des millions de contribuables français : confier à ChatGPT, Gemini ou d'autres assistants IA le soin de remplir leur formulaire fiscal. La démarche semble séduisante, rapide, gratuite, disponible à toute heure, mais elle expose à des risques bien concrets : erreurs dans les cases, oubli de déductions légitimes, ou pire, des données erronées qui déclenchent un contrôle fiscal ou entraînent une majoration pouvant atteindre 40 % des sommes dues. Le problème central est que ces modèles de langage ne connaissent pas la situation personnelle du contribuable, ne sont pas connectés aux bases de données fiscales françaises, et peuvent confondre des règles qui ont changé d'une année sur l'autre. Une déduction pour frais réels, un crédit d'impôt pour garde d'enfant ou un revenu exceptionnel à déclarer séparément : autant de subtilités que l'IA gère mal sans contexte précis et à jour. Une erreur déclarée, même involontaire, reste une erreur aux yeux de l'administration. Ce phénomène s'inscrit dans une tendance plus large où les outils d'IA générative sont utilisés pour des démarches administratives complexes sans que les utilisateurs mesurent leurs limites. La Direction générale des Finances publiques (DGFiP) ne reconnaît aucune déclaration co-rédigée par une IA comme excuse en cas d'erreur. Les assistants virtuels officiels d'impots.gouv.fr ou les centres des impôts restent les seuls recours fiables, et plusieurs associations de consommateurs rappellent que l'IA peut servir à comprendre une notion générale, mais jamais à valider une ligne chiffrée.

UELes contribuables français risquent des majorations fiscales pouvant atteindre 40 % en cas d'erreur de déclaration assistée par IA, la DGFiP ne reconnaissant aucune circonstance atténuante liée à l'utilisation de ces outils.

SociétéOpinion
1 source