Aller au contenu principal
Le coût caché des paramètres IA par défaut de Google et l'illusion du choix
ÉthiqueArs Technica AI35min

Le coût caché des paramètres IA par défaut de Google et l'illusion du choix

Résumé IASource uniqueImpact UE
Source originale ↗·

Google pousse activement son assistant Gemini dans l'ensemble de son écosystème de produits, des messageries Gmail aux espaces de stockage Google Drive, transformant ses services les plus utilisés en terrain d'entraînement et de déploiement pour l'intelligence artificielle générative. La firme de Mountain View justifie cette intégration massive par une nécessité technique : l'IA générative exige des volumes considérables de données, et Google en dispose via ses centaines de millions d'utilisateurs actifs. Concrètement, Gemini peut accéder au contenu des emails, des documents et des fichiers personnels stockés dans les services Google.

Ce déploiement soulève des questions sérieuses de confidentialité, d'autant plus que les règles de rétention des données varient selon la façon dont l'utilisateur accède à l'IA, une complexité délibérée qui rend difficile toute évaluation claire des risques. Tenter de se soustraire à la collecte de données expose les utilisateurs à ce que les experts en UX appellent des "dark patterns" : des éléments d'interface conçus pour décourager les refus, orienter vers le consentement par défaut et rendre la désinscription intentionnellement fastidieuse.

Cette situation illustre une tension croissante entre les intérêts commerciaux des grandes plateformes technologiques et le droit des utilisateurs à contrôler leurs données. Alors que la bulle de l'IA générative suscite un scepticisme grandissant dans une partie de l'industrie, Google accélère son intégration au risque d'alimenter les critiques des régulateurs européens et américains déjà attentifs aux pratiques anticoncurrentielles et aux violations potentielles du RGPD. La question de savoir si les utilisateurs disposent d'un vrai choix ou d'une simple illusion de choix devient centrale.

Impact France/UE

Les pratiques de collecte de données de Google via Gemini exposent des centaines de millions d'utilisateurs européens à des risques de violation du RGPD, les dark patterns rendant la désinscription délibérément fastidieuse et la rétention des données opaque.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Next INpact 

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Google expérimente discrètement une fonctionnalité qui réécrit automatiquement les titres des articles et pages web apparaissant dans ses résultats de recherche, en s'appuyant sur l'intelligence artificielle générative. C'est The Verge qui a mis au jour cette pratique après que plusieurs membres de sa rédaction ont constaté que des titres qu'ils n'avaient jamais rédigés apparaissaient dans Google Search à la place des leurs. L'exemple le plus frappant : le titre complet « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » a été réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement croire que The Verge promouvait ce type d'outil. Contactés par le média, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à grande échelle. L'objectif affiché est d'identifier, dans le contenu d'une page, ce qui pourrait constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné. Le problème central est que ces titres réécrits par l'IA sont inexacts et trompeurs, et qu'ils apparaissent sans aucune mention indiquant que Google a substitué ses propres mots à ceux des auteurs originaux. Pour les éditeurs, c'est une atteinte directe à leur ligne éditoriale et à leur capacité à présenter leur propre travail. The Verge souligne avoir investi un effort considérable pour rédiger des titres honnêtes et engageants, sans recourir au clickbait, or l'IA de Google produit précisément l'effet inverse : des formulations tronquées ou détournées qui dénaturent le sens de l'article. Au-delà de l'impact éditorial, la question de la responsabilité juridique se pose : si un titre réécrit par Google induit en erreur un lecteur ou nuit à la réputation d'un média, qui en est responsable ? Ce n'est pas la première fois que Google se retrouve sous le feu des critiques pour ses pratiques de réécriture algorithmique. The Verge avait déjà documenté, à deux reprises ces derniers mois, que l'IA intégrée à Discover, l'algorithme de recommandation de Google, générait des titres racoleurs et factuellement erronés, sans que les éditeurs concernés en soient informés. Cette nouvelle expérience s'inscrit dans une tendance plus large : Google cherche à contrôler toujours davantage la façon dont le contenu tiers est présenté dans son écosystème, au détriment de l'autonomie éditoriale des producteurs de contenu. Mallory De Leon a précisé que si un produit commercial devait naître de cette expérience, il n'utiliserait pas d'IA générative, sans expliquer par quel autre moyen Google remplacerait des titres. La tension entre Google et la presse est ainsi portée à un niveau supplémentaire, dans un contexte où les éditeurs dépendent encore massivement du moteur de recherche pour leur audience.

UELes éditeurs français et européens, déjà fragilisés économiquement, sont exposés à des réécritures de titres non autorisées qui dénaturent leur ligne éditoriale sans information ni consentement préalable.

ÉthiqueOpinion
1 source
2Next INpact 

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Google expérimente actuellement aux États-Unis une fonctionnalité qui réécrit automatiquement, via intelligence artificielle générative, les titres des articles et pages web apparaissant dans ses résultats de recherche. C'est The Verge qui a révélé l'existence de ce test après avoir constaté que plusieurs de ses propres articles affichaient dans Google des titres que sa rédaction n'avait jamais rédigés. Un article intitulé « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » s'est ainsi retrouvé réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement entendre que The Verge en ferait la promotion. Interrogés, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à plus grande échelle. Selon leurs explications, l'objectif est d'identifier sur une page le contenu susceptible de constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné. Le problème central est que cette réécriture algorithmique se fait sans aucune indication visible pour l'internaute, et produit parfois des titres qui trahissent le sens original, voire le contredisent. Pour les éditeurs et médias, l'enjeu est considérable : leurs titres, soigneusement formulés pour refléter leur ligne éditoriale, peuvent être remplacés par une version déformée sans leur consentement ni même leur information. The Verge dénonce une atteinte directe à sa capacité à promouvoir son propre travail de manière honnête, soulignant que sa rédaction investit précisément du temps pour éviter le clickbait, une démarche que Google semble court-circuiter en imposant ses propres formulations. Mallory De Leon a certes précisé qu'un éventuel produit final n'utiliserait pas d'IA générative, sans expliquer comment Google envisagerait alors de réécrire des titres autrement. Cette révélation survient dans un contexte déjà tendu entre Google et les médias sur la question des contenus générés ou altérés par IA. The Verge avait documenté à deux reprises ces derniers mois des cas où l'algorithme de recommandation Discover de Google « hallucinait » des titres racoleurs et erronés pour ses articles. La pratique de réécriture des titres n'est pas entièrement nouvelle, Google ajuste les titres affichés dans ses résultats depuis des années via des règles heuristiques, mais le recours à l'IA générative représente un saut qualitatif dans la capacité de déformation du message original. Si ce test devait être généralisé, il soulèverait des questions fondamentales sur le contrôle éditorial à l'ère des moteurs de recherche pilotés par IA, et potentiellement des recours juridiques de la part d'éditeurs dont la réputation pourrait être affectée par des titres qu'ils n'ont pas écrits.

UELes éditeurs et médias français pourraient invoquer la directive européenne sur les droits voisins pour contester cette réécriture non consentie de leurs titres dans les résultats de recherche Google.

ÉthiqueOutil
1 source
L'IA part en guerre : le baromètre de l'emballement
3MIT Technology Review 

L'IA part en guerre : le baromètre de l'emballement

L'intelligence artificielle s'invite désormais dans les conflits armés. Anthropic et le Pentagone se sont affrontés sur la manière de militariser Claude, le modèle phare de l'entreprise, avant qu'OpenAI ne conclue un accord qualifié d'« opportuniste et bâclé » avec l'armée américaine. Résultat : Anthropic, fondée sur des principes éthiques stricts, se retrouve aujourd'hui à accélérer des frappes américaines contre l'Iran. Ces développements provoquent une réaction croissante dans la société. Des utilisateurs quittent ChatGPT en masse, et des milliers de personnes ont défilé à Londres lors de la plus grande manifestation anti-IA jamais organisée. Pendant ce temps, le phénomène des agents IA gagne du terrain sur internet : OpenAI recrute le créateur d'OpenClaw, un agent viral, tandis que Meta rachète Moltbook, une plateforme où des agents semblent méditer sur leur propre existence et inventer de nouvelles religions comme le « Crustafarianism ». Sur RentAHuman, des bots embauchent désormais des humains pour livrer des produits au CBD. Ces anecdotes illustrent un glissement profond : l'IA ne se contente plus d'automatiser des tâches, elle devient décisionnaire — dans la guerre comme dans le quotidien —, soulevant des questions urgentes sur la gouvernance et les limites éthiques de son déploiement.

UELe débat sur l'utilisation militaire de l'IA par des acteurs américains renforce l'urgence pour l'UE de définir des garde-fous clairs dans l'AI Act concernant les applications de défense.

ÉthiqueOpinion
1 source
4The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source