Résumé IA
La notion de « perroquets stochastiques », introduite en 2021 par Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell, fait face à des critiques cinq ans après sa publication, certains estimant qu'elle ne reflète plus l'état de l'art actuel de l'IA générative. L'article original alertait sur les dangers des LLM — biais, désinformation, coûts environnementaux — et expliquait que ces modèles donnent une illusion de compréhension en exploitant notre tendance naturelle à interpréter le langage comme porteur d'intention. Malgré les critiques, la métaphore reste jugée valide pour analyser les modèles de langage, même si sa « réception publique paresseuse » est reprochée à ceux qui l'utilisent pour bloquer toute réflexion critique sur l'IA générative.
🦜 🤖 Introduite par quatre chercheuses en 2021, la notion de « perroquets stochastiques » est critiquée cinq ans après. Elle ne représenterait pas ce qu’est l’état de l’art actuel et bloquerait les réflexions critiques sur l’IA générative. Le travail de ces chercheuses sur les dangers des grands modèles de langage et leur métaphore reste, cependant, toujours valide concernant les modèles de langage. Depuis quelques semaines, plusieurs critiques fleurissent à propos de l’article scientifique fondateur pour la réflexion sur les modèles de langage et l’IA générative qui introduisait la notion de « perroquets stochastiques » (ou, en termes plus accessibles, « perroquets probabilistes »). Certains demandent carrément aux autrices de revenir dessus, alors que d’autres soulignent surtout sa « réception publique paresseuse » dans les argumentations anti-IA bloquant toute réflexion autour des transformations que l’IA générative implique dans nos vies. Les perroquets stochastiques ont plus de cinq ans Comme nous l’expliquions il y a déjà trois ans, les chercheuses Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell ont mené cette réflexion sur les modèles de langage (LLM) en 2020 (l’article a été publié en 2021), alors que ChatGPT n’était pas encore sorti. L’article ne minimisait pas la puissance des LLM mais il prévenait des dangers des grands modèles de langage, des risques de dissémination des biais et de désinformation aux coûts environnementaux. Dangers des grands modèles de langage : des chercheuses avaient prévenu Elles y reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ». Mais elles alertaient justement sur le fait qu’ils pouvaient facilement nous faire croire, « en apparence », à une réflexion et une interaction humaine. C’est là où elles mobilisaient leur notion de « perroquets stochastiques » pour expliquer que, même si c’est contre-intuitif, c’est « notre perception du texte en langage naturel [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ». Des demandes insistantes pour gagner un point Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.