Aller au contenu principal
Ce roman d’horreur vient d’être retiré de la vente en urgence, son auteur ne serait pas totalement humain
ÉthiqueFrandroid6sem

Ce roman d’horreur vient d’être retiré de la vente en urgence, son auteur ne serait pas totalement humain

Résumé IASource uniqueImpact UE
Source originale ↗·

Hachette retire en urgence des circuits de distribution le roman d'horreur "Shy Girl" après que des soupçons ont émergé quant à l'origine réelle de l'œuvre : son auteur ne serait pas entièrement humain. La décision, prise avant même la mise en vente officielle, illustre la tension croissante entre l'industrie éditoriale et la montée en puissance de la création assistée par intelligence artificielle.

Pour un éditeur de l'envergure d'Hachette, retirer un titre en urgence représente un coût éditorial, commercial et réputationnel significatif. Cette affaire soulève une question fondamentale pour le secteur du livre : comment détecter et prévenir la publication d'œuvres générées — totalement ou partiellement — par des outils d'IA générative, alors que les détecteurs automatiques restent imparfaits et contestés ?

L'incident s'inscrit dans un contexte où plusieurs grandes maisons d'édition ont renforcé leurs chartes de soumission pour exiger des auteurs qu'ils déclarent explicitement tout recours à des outils d'IA. Le genre de l'horreur, particulièrement prolifique et prisé des auto-éditions, est devenu un terrain fertile pour ce type de publications suspectes. "Shy Girl" devait paraître sous le catalogue américain d'Hachette, l'un des "Big Five" de l'édition mondiale.

Cette affaire devrait accélérer la mise en place de processus de vérification plus robustes au sein des grandes maisons d'édition, et relancer le débat sur la nécessité d'un label ou d'une certification d'authenticité humaine pour les œuvres littéraires — une problématique qui dépasse largement le seul genre de l'horreur.

Impact France/UE

Hachette étant une maison d'édition française du groupe Lagardère, cet incident pourrait accélérer l'adoption de politiques de détection de contenus générés par IA dans l'édition européenne.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Aux USA, la justice confirme qu’une IA ne peut pas être reconnue comme auteur d’une œuvre protégée par le copyright
1Siècle Digital 

Aux USA, la justice confirme qu’une IA ne peut pas être reconnue comme auteur d’une œuvre protégée par le copyright

La justice américaine affirme que les IA ne peuvent pas être considérées comme auteurs pour bénéficier de protections de droits d'auteur, face à l'essor des outils générant des œuvres (images, textes, musiques) sans intervention humaine directe. Ce débat souligne les défis juridiques pour adapter les lois aux avancées rapides de l'intelligence artificielle dans les industries créatives.

ÉthiqueReglementation
1 source
201net 

Hachette retire un roman accusé d’avoir été écrit avec l’IA

Hachette a annulé la publication du roman Shy Girl de Mia Ballard au Royaume-Uni et aux États-Unis après des accusations d'utilisation d'IA générative dans l'écriture du texte. Le roman avait pourtant connu un grand succès en autoédition l'année précédente, ce qui avait poussé Hachette à en acquérir les droits. Cette décision illustre la vigilance croissante des éditeurs traditionnels face aux contenus générés par IA.

UEHachette, groupe d'édition français, retire un roman suspecté d'être généré par IA, illustrant la politique des éditeurs européens face aux contenus IA dans l'industrie du livre.

ÉthiqueActu
1 source
Une autrice poursuit Grammarly en justice pour avoir transformé des écrivains en « éditeurs IA » sans leur consentement
3TechCrunch AI 

Une autrice poursuit Grammarly en justice pour avoir transformé des écrivains en « éditeurs IA » sans leur consentement

La journaliste Julia Angwin mène une action collective contre Grammarly, accusant l'entreprise de violer ses droits à la vie privée et à l'image. Elle reproche à Grammarly d'avoir utilisé ses écrits et ceux d'autres auteurs pour former des fonctionnalités d'édition IA sans leur consentement. Ce procès soulève la question de l'exploitation des données personnelles d'écrivains à des fins commerciales par les outils d'IA.

ÉthiqueActu
1 source
☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom
4Next INpact 

☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom

Grammarly (rebaptisée Superhuman après une levée de fonds d'un milliard de dollars) a suspendu le 12 mars sa fonctionnalité « Expert Review », qui imitait le style d'auteurs et journalistes réels sans leur consentement — une décision prise par son PDG Shishir Mehrotra, qui reconnaît que l'outil était une « mauvaise fonctionnalité ». La journaliste Julia Angwin et d'autres poursuivent désormais l'entreprise en justice aux États-Unis pour usage non consenti de leur identité. Mehrotra esquisse un nouveau modèle : des agents IA représentant des experts, avec une répartition des revenus à 70 % pour l'auteur et 30 % pour la plateforme.

UELe RGPD et l'AI Act encadrent strictement l'usage de l'identité et des données personnelles sans consentement, rendant une fonctionnalité similaire illégale en Europe avant même tout recours judiciaire.

ÉthiqueOpinion
1 source