
☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom
Shishir Mehrotra, PDG de Superhuman (société éditrice de Grammarly), tente de défendre sa fonctionnalité « Expert Review » tout en admettant sa suppression précipitée. Lancée sans supervision suffisante — la décision aurait été prise par « un gestionnaire de produit et quelques ingénieurs » parmi les 1 500 employés de l'entreprise — elle permettait de réviser des textes en imitant le style d'auteurs, scientifiques et journalistes réels, sans leur consentement. Suspendue le 12 mars, quelques heures après que des médias francophones eurent identifié les noms de personnalités comme Valérie Masson-Delmotte, Annie Ernaux ou Florence Aubenas dans l'outil, la fonctionnalité cristallise désormais un débat plus large sur l'usage commercial des identités par l'IA.
La controverse touche à une question fondamentale pour le secteur : peut-on utiliser le nom et l'œuvre d'une personnalité publique pour alimenter un produit commercial sans compensation ni accord préalable ? Mehrotra balaie d'abord les accusations d'usurpation d'identité comme « un peu exagérées », arguant que la visibilité en ligne constitue en soi une forme de bénéfice pour les experts cités. Cette position, vivement rejetée par la communauté des journalistes et des universitaires, place Grammarly dans une posture délicate à l'heure où la jurisprudence sur les droits des créateurs face aux LLM reste largement à construire.
Sur le plan juridique, la journaliste Julia Angwin et d'autres plaignants ont engagé des poursuites aux États-Unis pour usage non consenti du nom et de l'identité. Techniquement, Mehrotra précise que les noms intégrés à l'outil « viennent directement des LLM populaires » — Grammarly n'aurait fait qu'encapsuler une requête adressée à des modèles comme Claude ou Gemini, leur demandant d'améliorer un texte en s'appuyant sur les travaux des profils les plus pertinents. Aucune base de données propriétaire n'aurait donc été constituée, ce qui soulève une autre question : la responsabilité incombe-t-elle à l'éditeur du produit ou aux fournisseurs de modèles sous-jacents ?
Pressé trois fois sur la question de la rémunération, le dirigeant finit par esquisser un modèle économique futur : des agents IA personnalisés représentant un expert, monétisables selon une répartition 70 % pour l'auteur, 30 % pour la plateforme — un schéma calqué sur l'économie des créateurs de contenu, sans que soit abordée la question du consentement initial. Cette proposition, formulée après une levée de fonds de un milliard de dollars, illustre la tendance du secteur à construire des modèles de partage de revenus après coup, une fois les usages établis et les contestations juridiques engagées.
Le RGPD et l'AI Act encadrent strictement l'usage de l'identité et des données personnelles sans consentement, rendant une fonctionnalité similaire illégale en Europe avant même tout recours judiciaire.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




