L’IA de Google l’accuse de crimes sexuels, Ashley MacIsaac contre-attaque
Ashley MacIsaac, violoniste canadien primé aux Juno Awards, a déposé en Ontario une action civile de 1,5 million de dollars contre Google, accusant l'outil AI Overview du moteur de recherche de l'avoir faussement présenté comme un délinquant sexuel. Selon la plainte, AI Overview affichait en tête des résultats de recherche des affirmations selon lesquelles MacIsaac aurait commis une agression sexuelle sur une femme, sollicité un enfant en ligne à des fins d'abus sexuel, et exercé des violences ayant causé des blessures corporelles. L'outil mentionnait même son inscription à vie sur un registre national des délinquants sexuels. MacIsaac affirme n'avoir reçu ni contact ni excuses de la part de Google depuis la découverte de ces informations erronées. La version AI Overview le concernant a depuis été mise à jour pour mentionner... son propre recours judiciaire.
Les conséquences pour le musicien ont été immédiates et concrètes. En décembre, un concert programmé avec la Première Nation de Sipekne'katik a été annulé après que des membres du public ont transmis des plaintes basées sur ce qu'ils avaient trouvé en ligne. L'organisation a ensuite présenté des excuses publiques, reconnaissant explicitement que sa décision s'appuyait sur des données erronées issues d'une recherche assistée par IA, et exprimant ses regrets pour les dommages causés à la réputation et aux moyens de subsistance de l'artiste. MacIsaac décrit une anxiété persistante avant chaque montée sur scène, liée à l'étiquette fausse qui lui a été attribuée et à l'incertitude sur sa propagation future. Sa plainte réclame des dommages généraux, aggravés et punitifs, estimant que la réponse de Google face aux publications erronées était nettement insuffisante.
Cette affaire illustre un problème structurel grandissant autour des outils de résumé automatique intégrés aux moteurs de recherche. AI Overview, déployé à grande échelle par Google depuis 2024, génère des synthèses à partir de contenus indexés sur le web, sans toujours distinguer les faits avérés des accusations non fondées ou des informations mal contextualisées. Google a répondu via un porte-parole que ses systèmes font l'objet d'améliorations continues et qu'il investit dans la qualité des réponses produites, sans s'exprimer sur le cas MacIsaac spécifiquement. La plainte soutient que l'entreprise sait, ou devrait savoir, que ce type d'outil est susceptible de produire des erreurs graves aux conséquences prévisibles. Si elle aboutit, cette action pourrait faire jurisprudence sur la responsabilité légale des éditeurs d'IA générative pour les contenus diffamatoires produits par leurs systèmes, une question encore très peu tranchée en droit.
La question de la responsabilité légale des éditeurs d'IA générative pour contenus diffamatoires est directement pertinente pour l'UE, où l'AI Act prévoit des mécanismes de recours et où Google AI Overview est également déployé auprès des utilisateurs européens.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.


