Aller au contenu principal
Titre traduit: Les méthodes précoces pour l'étude de l'utilisation affective et du bien-être émotionnel sur ChatGPT
RechercheOpenAI Blog59sem

Titre traduit: Les méthodes précoces pour l'étude de l'utilisation affective et du bien-être émotionnel sur ChatGPT

Résumé IASource uniqueImpact UE
Source originale ↗·

Collaboration de recherche entre OpenAI et MIT Media Lab sur l'analyse de l'utilisation émotionnelle et du bien-être émotionnel dans ChatGPT, examinant les réponses émotionnelles et leur impact.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Titre traduit: Expériences précoces sur l'accélération de la science avec GPT-5
1OpenAI Blog 

Titre traduit: Expériences précoces sur l'accélération de la science avec GPT-5

OpenAI présente des premières expériences montrant comment GPT-5 accélère les progrès scientifiques en mathématiques, physique, biologie et informatique. La collaboration entre l'IA et les chercheurs permet de générer des preuves, de découvrir des insights nouveaux et de transformer le rythme de la découverte scientifique.

RecherchePaper
1 source
Une méta-analyse sur les effets positifs de ChatGPT dans l’éducation rétractée 1 an après
2Next INpact 

Une méta-analyse sur les effets positifs de ChatGPT dans l’éducation rétractée 1 an après

Une méta-analyse publiée dans la revue Humanities and Social Sciences Communications, éditée par le géant de l'édition scientifique Springer Nature, a été officiellement rétractée le 22 avril 2025, près d'un an après sa parution initiale. Signée par les chercheurs chinois Jin Wang et Wenxiang Fan, l'étude affirmait que l'utilisation de ChatGPT par les élèves avait « un impact positif considérable sur l'amélioration des résultats scolaires ». La note de rétractation, publiée par l'éditeur de la revue, invoque « des incohérences dans la méta-analyse » qui « remettent en cause la validité de l'analyse et les conclusions qui en découlent ». Les auteurs n'ont pas répondu aux communications de la revue à ce sujet. Le problème dépasse largement cette seule étude : selon Google Scholar, la méta-analyse a été citée plus de 500 fois dans des travaux scientifiques, soumis à révision par les pairs ou non. Certains de ces travaux pourraient désormais reposer sur des fondations fragilisées, ce qui impose à leurs auteurs de réévaluer leurs propres conclusions. Un article publié en février 2025 dans Scientific Reports, autre revue de Springer Nature, la citait encore. Cette situation illustre l'effet en cascade qu'une étude défectueuse peut produire dans la littérature académique, surtout lorsqu'elle porte sur un sujet aussi médiatisé que l'IA en éducation. Les signaux d'alerte avaient pourtant émergé rapidement. Dès juillet 2024, des commentaires critiques étaient visibles sur PubPeer, la plateforme collaborative qui permet aux chercheurs de relever des problèmes dans des articles déjà publiés. Des chercheurs norvégiens ont également sonné l'alarme. La revue a donc mis près d'un an à agir, malgré ces avertissements précoces. Ce délai pose des questions sur les processus de contrôle post-publication des grandes revues scientifiques, à l'heure où la recherche sur l'IA génère un volume considérable de publications souvent précipitées. Le cas s'inscrit dans une tendance plus large : face à l'engouement autour de ChatGPT depuis fin 2022, de nombreuses études sur ses usages pédagogiques ont été produites à grande vitesse, parfois au détriment de la rigueur méthodologique. La communauté scientifique devra désormais examiner avec plus de scepticisme les méta-analyses qui concluent à des effets largement positifs des outils d'IA sur l'apprentissage.

UELes travaux scientifiques européens qui citaient cette méta-analyse rétractée devront être réévalués, fragilisant potentiellement des recommandations pédagogiques sur l'usage de l'IA en éducation adoptées dans l'UE.

RecherchePaper
1 source
L'optimisation bayésienne : pourquoi la nouvelle méthode d'entraînement de Google AI est la clé du raisonnement des LLM
3MarkTechPost 

L'optimisation bayésienne : pourquoi la nouvelle méthode d'entraînement de Google AI est la clé du raisonnement des LLM

Des chercheurs de Google ont identifié une limite majeure des LLMs comme Llama-3-70B et Qwen-2.5-32B : leur incapacité à mettre à jour leurs "croyances" au fil des interactions, plafonnant dès le premier échange. Ils ont développé le Bayesian Teaching, une technique d'entraînement qui apprend aux modèles à raisonner comme un assistant bayésien — en maintenant et mettant à jour une distribution de probabilités sur les préférences utilisateur à chaque round. Contre-intuitivement, entraîner les modèles sur des "suppositions éclairées" (souvent fausses en début d'apprentissage) s'est révélé plus efficace que de les entraîner sur les bonnes réponses, permettant à des modèles comme Gemma-2-9B et Llama-3-8B d'approcher les performances du modèle bayésien de référence.

RecherchePaper
1 source
Les modèles de raisonnement luttent pour contrôler leurs chaînes de pensée, et c'est bien ainsi
4OpenAI Blog 

Les modèles de raisonnement luttent pour contrôler leurs chaînes de pensée, et c'est bien ainsi

OpenAI a introduit CoT-Control et a constaté que les modèles de raisonnement ont du mal à contrôler leurs chaînes de pensée, ce qui souligne l'importance de la surveillabilité comme mesure de sécurité en IA. Cette difficulté à réguler leurs processus de raisonnement renforce l'idée que la capacité à surveiller les pensées des modèles est cruciale pour assurer leur sécurité.

RechercheOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour