Aller au contenu principal
RégulationLe Big Data1h

L’IA de Google l’accuse de crimes sexuels, Ashley MacIsaac contre-attaque

Résumé IASource uniqueImpact UE
Source originale ↗·

Ashley MacIsaac, violoniste canadien primé aux Juno Awards, a déposé en Ontario une action civile de 1,5 million de dollars contre Google, accusant l'outil AI Overview du moteur de recherche de l'avoir faussement présenté comme un délinquant sexuel. Selon la plainte, AI Overview affichait en tête des résultats de recherche des affirmations selon lesquelles MacIsaac aurait commis une agression sexuelle sur une femme, sollicité un enfant en ligne à des fins d'abus sexuel, et exercé des violences ayant causé des blessures corporelles. L'outil mentionnait même son inscription à vie sur un registre national des délinquants sexuels. MacIsaac affirme n'avoir reçu ni contact ni excuses de la part de Google depuis la découverte de ces informations erronées. La version AI Overview le concernant a depuis été mise à jour pour mentionner... son propre recours judiciaire.

Les conséquences pour le musicien ont été immédiates et concrètes. En décembre, un concert programmé avec la Première Nation de Sipekne'katik a été annulé après que des membres du public ont transmis des plaintes basées sur ce qu'ils avaient trouvé en ligne. L'organisation a ensuite présenté des excuses publiques, reconnaissant explicitement que sa décision s'appuyait sur des données erronées issues d'une recherche assistée par IA, et exprimant ses regrets pour les dommages causés à la réputation et aux moyens de subsistance de l'artiste. MacIsaac décrit une anxiété persistante avant chaque montée sur scène, liée à l'étiquette fausse qui lui a été attribuée et à l'incertitude sur sa propagation future. Sa plainte réclame des dommages généraux, aggravés et punitifs, estimant que la réponse de Google face aux publications erronées était nettement insuffisante.

Cette affaire illustre un problème structurel grandissant autour des outils de résumé automatique intégrés aux moteurs de recherche. AI Overview, déployé à grande échelle par Google depuis 2024, génère des synthèses à partir de contenus indexés sur le web, sans toujours distinguer les faits avérés des accusations non fondées ou des informations mal contextualisées. Google a répondu via un porte-parole que ses systèmes font l'objet d'améliorations continues et qu'il investit dans la qualité des réponses produites, sans s'exprimer sur le cas MacIsaac spécifiquement. La plainte soutient que l'entreprise sait, ou devrait savoir, que ce type d'outil est susceptible de produire des erreurs graves aux conséquences prévisibles. Si elle aboutit, cette action pourrait faire jurisprudence sur la responsabilité légale des éditeurs d'IA générative pour les contenus diffamatoires produits par leurs systèmes, une question encore très peu tranchée en droit.

Impact France/UE

La question de la responsabilité légale des éditeurs d'IA générative pour contenus diffamatoires est directement pertinente pour l'UE, où l'AI Act prévoit des mécanismes de recours et où Google AI Overview est également déployé auprès des utilisateurs européens.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Jay Edelson a forcé Facebook à payer. Il s'attaque maintenant à l'IA de la Silicon Valley
1The Information AI 

Jay Edelson a forcé Facebook à payer. Il s'attaque maintenant à l'IA de la Silicon Valley

Jay Edelson, avocat spécialisé dans les recours collectifs basé à Chicago, est devenu l'une des figures les plus redoutées de la Silicon Valley. En moins d'un an, il a participé à un règlement d'un milliard de dollars contre Anthropic pour violation de droits d'auteur, et déposé trois affaires très médiatisées contre OpenAI et Google concernant leurs chatbots d'intelligence artificielle. Il prépare actuellement une nouvelle plainte contre OpenAI, attendue dès la semaine prochaine selon des informations non encore publiées : une femme affirme que ChatGPT aurait transformé son ancien petit ami en harceleur, en lui fournissant des informations ou en alimentant une obsession que le système aurait pu amplifier. Ces procédures illustrent une montée en puissance du contentieux juridique autour de l'IA générative, qui touche désormais des domaines aussi divers que le droit d'auteur, la sécurité des utilisateurs et la responsabilité des plateformes. Pour l'industrie, les enjeux sont considérables : les grands modèles de langage ont été entraînés sur des corpus massifs dont la légalité reste contestée, et leurs interactions avec les utilisateurs peuvent avoir des conséquences imprévisibles dans la vie réelle. Pour les entreprises comme OpenAI ou Google, dont les valorisations atteignent plusieurs centaines de milliards de dollars, ces procès représentent un risque financier et réputationnel croissant. Edelson s'est bâti une réputation en attaquant des géants comme Facebook sur des questions de vie privée et de données biométriques, obtenant des règlements massifs là où d'autres avocats échouaient. Son cabinet, Edelson PC, fonctionne sur un modèle de contingence : il ne perçoit d'honoraires qu'en cas de victoire, ce qui lui permet de prendre des risques que les cabinets traditionnels évitent. Alors que la régulation de l'IA avance lentement côté législatif, les recours collectifs s'imposent comme un levier de responsabilisation de facto, et Edelson entend bien occuper ce terrain durablement.

UELes précédents juridiques américains sur la responsabilité des chatbots et les violations de droits d'auteur pourraient influencer l'interprétation et l'application de l'AI Act européen face à des litiges similaires.

💬 Un milliard contre Anthropic en moins d'un an, c'est pas anodin. Ce qui m'intéresse ici, c'est pas l'avocat, c'est le signal : faute de régulation qui avance, c'est la voie judiciaire qui commence à fixer les règles du jeu, et ça va aller vite. L'affaire ChatGPT-harceleur va faire du bruit, même si le fond juridique est moins solide que les dossiers droits d'auteur.

RégulationReglementation
1 source
2Next INpact 

L’Europe vs Meta et Google : de nouvelles mesures (contraignantes) en approche

La Commission européenne a intensifié sa pression sur les géants américains du numérique au cours de la semaine du 14 avril 2026, en ciblant simultanément Meta et Google dans deux dossiers distincts liés à la concurrence sur les marchés de l'intelligence artificielle. Concernant Meta, la Commission a ouvert une procédure formelle fin 2025 pour pratiques anticoncurrentielles, estimant en février 2026 que l'entreprise avait enfreint les règles européennes en bloquant l'accès des assistants d'IA tiers à WhatsApp. Face à cette mise en cause, Meta a soumis le 2 mars 2026 une politique révisée censée lever l'interdiction, mais en introduisant un cadre tarifaire applicable aux assistants d'IA concurrents. La Commission a rejeté cette proposition, jugeant qu'elle produisait le même effet d'exclusion que la politique initiale. Elle a donc adressé à Meta une nouvelle série de griefs formels et annoncé son intention d'imposer des mesures provisoires pour prévenir tout préjudice grave et irréparable sur le marché pendant la durée de l'enquête. Dans le dossier Google, la Commission a proposé des mesures portant sur le partage des données issues du moteur de recherche, sans que les détails aient été pleinement rendus publics. Ces actions illustrent une préoccupation centrale des régulateurs européens : la capacité des plateformes dominantes à verrouiller l'accès aux marchés émergents de l'IA. En contrôlant l'interopérabilité de WhatsApp, Meta peut théoriquement déterminer quels assistants d'IA ont une chance de se développer à grande échelle en Europe, et à quel prix. Les mesures provisoires, si elles entrent en vigueur, auraient un effet immédiat : elles s'appliqueraient jusqu'à la conclusion de l'enquête, contraignant Meta à maintenir des conditions d'accès équitables pour ses concurrents indépendamment de l'issue finale du dossier. Pour les développeurs d'assistants d'IA tiers cherchant à atteindre les deux milliards d'utilisateurs de WhatsApp, l'enjeu est considérable. Ces procédures s'inscrivent dans une stratégie réglementaire européenne cohérente, bâtie sur le Digital Markets Act entré en application en mars 2024, qui désigne les grandes plateformes comme "gatekeepers" soumis à des obligations d'interopérabilité et d'accès équitable. La Commission a déjà ouvert plusieurs enquêtes similaires contre Apple, Alphabet et Amazon. Le cas Meta est notable car il concerne directement la bataille pour l'écosystème des assistants IA, un marché en croissance rapide où chaque point d'entrée compte. Google, de son côté, fait face à des exigences de partage de données de recherche qui pourraient restructurer l'accès à des signaux clés pour l'entraînement et l'amélioration des modèles. La réponse de Meta aux derniers griefs est attendue dans les prochaines semaines, avant une éventuelle décision formelle de la Commission.

UELes mesures provisoires de la Commission pourraient forcer Meta à ouvrir WhatsApp aux assistants d'IA tiers à des conditions équitables, restructurant directement l'accès au marché européen des assistants IA pour les développeurs et startups européens.

💬 Meta a essayé de remplacer un blocage par un péage, et la Commission n'a pas mordu. C'est exactement le genre de manœuvre qu'on attendait : impossible d'ouvrir sans essayer de monétiser l'ouverture en même temps, bon, au moins c'est cohérent avec leur logique. Les mesures provisoires, si elles passent, changent vraiment la donne pour quiconque veut distribuer un assistant IA en Europe sans passer à la caisse de WhatsApp.

RégulationReglementation
1 source
3Next INpact 

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

Le Sénat français a adopté le 8 avril 2026 une proposition de loi sur l'intelligence artificielle qui introduit un mécanisme inédit : une présomption d'usage des contenus culturels par les développeurs de systèmes d'IA. Concrètement, dès qu'un modèle est capable de générer du contenu "dans le style" d'un auteur, ou qu'il restitue des extraits visiblement protégés par le droit d'auteur, la preuve est réputée établie que ces œuvres ont bien servi à l'entraînement. Ce principe s'appuie notamment sur des précédents documentés : des extraits de Harry Potter ont ainsi été retrouvés dans les données d'entraînement de modèles appartenant à Meta et à Mistral. Avant l'adoption du texte, Google a déployé trois stratégies distinctes pour en atténuer la portée, selon les informations révélées par L'Informé. La première stratégie consistait à restreindre le champ de la présomption aux seuls "contenus culturels de qualité", c'est-à-dire aux œuvres référencées dans les catalogues d'organismes de gestion collective, excluant de fait une large part de la création numérique. La deuxième visait à modifier l'articulation du texte avec l'exception de "fouille de données" (text and data mining, ou TDM) issue de la directive européenne de 2019 sur le droit d'auteur dans le marché unique numérique. Cette exception est régulièrement invoquée par les fournisseurs d'IA pour légitimer le moissonnage de contenus protégés, ce que le Sénat qualifie explicitement de "détournement" de l'objectif initial. La troisième tentative cherchait à empêcher l'application rétroactive du texte aux litiges déjà ouverts au moment de son entrée en vigueur. Le Sénat a rejeté les trois propositions. Ces manœuvres s'inscrivent dans un phénomène bien documenté : les grandes entreprises numériques américaines exercent un lobbying intense sur les processus législatifs européens et nationaux, laissant parfois des traces directes jusque dans la rédaction des textes. La bataille autour de cette loi française est particulièrement significative car elle touche à une question centrale pour l'ensemble de l'industrie de l'IA : la légitimité de l'entraînement sur des œuvres protégées sans accord ni rémunération des créateurs. Si l'étape sénatoriale est franchie sans que les propositions de Google n'aient abouti, le texte doit encore passer devant l'Assemblée nationale, où les pressions pourraient se faire à nouveau sentir. L'issue de ce débat aura des répercussions bien au-delà de la France, à l'heure où plusieurs pays cherchent à encadrer les pratiques d'entraînement des modèles d'IA à grande échelle.

UELa loi française adoptée au Sénat introduit une présomption d'usage des contenus culturels dans l'entraînement des modèles d'IA, créant une obligation juridique directe pour les développeurs opérant en France et posant un précédent potentiel pour l'encadrement européen des pratiques d'entraînement.

💬 Le Sénat qui renvoie Google à la case départ trois fois de suite, c'est rare. La présomption d'usage, c'est malin : au lieu de prouver que les modèles ont pillé les œuvres (quasi impossible), on part du principe que si tu peux l'imiter, tu l'as ingéré. Reste l'Assemblée nationale, et là les dés ne sont pas encore jetés.

RégulationReglementation
1 source
La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence
4Frandroid 

La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence

La Commission européenne a conclu, au terme de quatre mois d'enquête, que Google devrait ouvrir Android à des assistants IA concurrents de Gemini. Cette décision s'inscrit dans le cadre du Digital Markets Act (DMA), la législation européenne sur les marchés numériques qui impose aux grandes plateformes désignées comme "contrôleurs d'accès" de ne pas favoriser leurs propres services. Google, qui voit d'un mauvais œil cette injonction, risque des sanctions pouvant atteindre 10 % de son chiffre d'affaires mondial en cas de non-conformité. L'enjeu est considérable : Android équipe plus de 70 % des smartphones dans le monde, et l'assistant IA préinstallé bénéficie d'un avantage structurel massif sur ses concurrents. Forcer Google à proposer un choix d'assistants IA, comme cela a déjà été fait pour les moteurs de recherche avec l'écran de sélection, permettrait à des acteurs comme Mistral, Meta AI, ou d'autres de s'installer sur des centaines de millions d'appareils. Pour les utilisateurs européens, cela signifierait concrètement la possibilité de définir un assistant IA tiers comme assistant par défaut sur leur téléphone Android. Cette enquête s'inscrit dans une pression réglementaire européenne croissante sur les géants du numérique américains, accentuée depuis l'explosion de l'IA générative en 2023. Google a déjà fait l'objet de condamnations antitrust en Europe concernant son moteur de recherche et son système publicitaire. La bataille autour de Gemini sur Android représente le prochain front de ce bras de fer, à un moment où la course aux assistants IA est devenue l'enjeu stratégique central pour Apple, Google, Microsoft et Meta.

UELes utilisateurs européens pourraient bientôt choisir leur assistant IA par défaut sur Android, ouvrant la voie à des acteurs comme Mistral et offrant une alternative concrète à Gemini sur des centaines de millions d'appareils en Europe.

💬 C'est le même bras de fer qu'avec les moteurs de recherche, version IA. L'avantage de la préinstallation, c'est écrasant : si Gemini est là par défaut et que tu n'y touches pas, Mistral n'existe pas pour toi. La DMA force le sujet, c'est déjà ça, reste à voir si l'écran de choix sera moins ignoré que celui qu'on avait eu pour les navigateurs.

RégulationReglementation
1 source