Aller au contenu principal
Google n'a pas modifié les fonctions IA locales de Chrome, elles restent aussi confuses qu'avant
ÉthiqueArs Technica AI8h

Google n'a pas modifié les fonctions IA locales de Chrome, elles restent aussi confuses qu'avant

Résumé IASource uniqueImpact UE
Source originale ↗·

Une confusion a récemment agité les utilisateurs de Chrome sur ordinateur : certains ont constaté que leur navigateur téléchargeait discrètement un modèle d'intelligence artificielle de 4 Go, le Gemini Nano de Google. Sur les réseaux sociaux, la découverte a été interprétée comme un déploiement massif et soudain d'IA sur toutes les installations Chrome. En réalité, ce comportement n'a rien de nouveau. Google avait annoncé dès 2024 l'intégration de capacités d'IA locale dans Chrome, destinées à alimenter des fonctionnalités comme "Help Me Write" (aide à la rédaction), l'organisation automatique des onglets et la détection des tentatives d'arnaque. Le modèle est téléchargé en arrière-plan depuis plusieurs années déjà, ce n'est pas une nouveauté technique, mais une nouveauté dans la perception des utilisateurs.

Ce que cet épisode révèle avant tout, c'est l'incapacité chronique de Google à communiquer clairement sur ses déploiements d'IA. L'entreprise intègre des modèles lourds dans ses produits sans informer explicitement les utilisateurs, ce qui génère régulièrement des incompréhensions et une méfiance justifiée. Pour les 4 milliards d'utilisateurs de Chrome dans le monde, la question de ce qui tourne en local sur leur machine, et pourquoi, est pourtant loin d'être anodine, notamment sur des appareils aux ressources limitées.

Ce flou s'inscrit dans une tendance plus large chez Google, qui multiplie les annonces d'IA sans toujours en expliquer les implications concrètes. Chrome embarque désormais bien d'autres fonctionnalités alimentées par Gemini : un chatbot en mode écran partagé, ainsi qu'une capacité à automatiser la navigation web. Le traitement local via Gemini Nano vise à préserver la confidentialité des données en évitant les allers-retours vers les serveurs cloud, un argument de poids face aux critiques sur la vie privée. Reste que sans transparence sur ce qui est installé, quand et pourquoi, la confiance des utilisateurs risque de s'éroder plus vite que les bénéfices de ces fonctionnalités ne s'imposent.

Impact France/UE

Les centaines de millions d'utilisateurs européens de Chrome sont concernés par ce manque de transparence de Google sur le déploiement silencieux de Gemini Nano, une pratique potentiellement en tension avec les obligations d'information du RGPD.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Attention ! Google Chrome télécharge son IA sur votre PC à votre insu
1Le Big Data 

Attention ! Google Chrome télécharge son IA sur votre PC à votre insu

Google Chrome télécharge discrètement un fichier de 4 gigaoctets baptisé « weights.bin » sur les ordinateurs de ses utilisateurs, sans les en informer ni leur demander leur accord. La découverte est signée Alexander Hanff, chercheur en sécurité connu sous le pseudonyme « That Privacy Guy », qui a documenté le phénomène sur un Mac configuré avec un profil Chrome vierge. En une quinzaine de minutes d'inactivité apparente, le navigateur a créé le dossier correspondant et téléchargé l'intégralité du modèle en arrière-plan. Ce fichier est lié à Gemini Nano, la version allégée du modèle d'intelligence artificielle développé par Google, destinée à fonctionner directement sur l'appareil. Chrome analyserait les capacités matérielles de la machine avant de déclencher le téléchargement, ce qui confirme selon Hanff une sélection automatique des appareils compatibles. Plus préoccupant encore : si l'utilisateur supprime le fichier, celui-ci se réinstalle de lui-même, sauf à désactiver certaines options expérimentales du navigateur ou à désinstaller Chrome entièrement. Ce comportement soulève plusieurs problèmes concrets. Sur le plan juridique, Hanff estime que le procédé pourrait contrevenir au RGPD et à la directive ePrivacy européenne, qui imposent une transparence claire pour tout stockage de données sur un appareil. L'absence de consentement explicite constituerait une violation de ces cadres réglementaires. Sur le plan pratique, un téléchargement non sollicité de 4 Go représente une nuisance réelle pour les utilisateurs sous forfait mobile limité ou dans des pays où la bande passante est coûteuse. L'impact environnemental chiffré par Hanff est également frappant : à l'échelle de 100 millions d'appareils, le transfert représenterait 400 pétaoctets de données, 24 GWh d'énergie consommée et environ 6 000 tonnes équivalent CO₂. Ces volumes atteignent 4 exaoctets, 240 GWh et 60 000 tonnes de CO₂ si l'on extrapole à un milliard d'appareils, soit 30 % de la base utilisateurs Chrome. Cette affaire s'inscrit dans une critique plus large adressée aux géants technologiques, et nommément à Google et Anthropic, que Hanff accuse de déployer leurs technologies avant toute explication aux utilisateurs. Que ce soit via l'intégration silencieuse de Claude Desktop dans les systèmes ou le téléchargement automatique de modèles IA, la logique est identique : les appareils des utilisateurs deviennent des infrastructures au service des ambitions IA des plateformes, sans que ceux-ci n'aient eu leur mot à dire. Google n'a pas officiellement commenté ces révélations. La question de savoir si Chrome propose à terme une option de désactivation claire, ou si des régulateurs européens saisiront le sujet, reste ouverte, mais la pression sur les pratiques de déploiement silencieux de l'IA embarquée monte visiblement d'un cran.

UELe téléchargement silencieux de Gemini Nano par Chrome constitue une violation potentielle du RGPD et de la directive ePrivacy, exposant Google à des poursuites par des régulateurs européens comme la CNIL et rendant la pratique illégale pour les 400+ millions d'utilisateurs Chrome en Europe.

💬 4 Go téléchargés sans te prévenir, et qui se réinstallent d'eux-mêmes si tu les supprimes. C'est pas une négligence de déploiement, c'est un choix produit qui part du principe que ton disque dur fait partie de l'infrastructure de Google. Ce genre de truc va finir devant la CNIL, et cette fois-ci ils auront du mal à plaider la bonne foi.

ÉthiqueReglementation
1 source
Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA
2The Verge 

Des employés de Google demandent à Pichai de refuser l'usage militaire classifié de l'IA

Plus de 600 employés de Google ont signé une lettre adressée au PDG Sundar Pichai pour exiger que l'entreprise refuse d'autoriser le Pentagone à utiliser ses modèles d'intelligence artificielle à des fins militaires classifiées, selon le Washington Post. Les organisateurs de cette pétition affirment que les signataires incluent de nombreux membres du laboratoire DeepMind, ainsi que plus de vingt directeurs de haut rang, vice-présidents et responsables techniques. La lettre a été transmise en interne avant d'être relayée par la presse. Le texte de la pétition est sans ambiguïté : "La seule façon de garantir que Google ne soit pas associé à de tels préjudices est de rejeter tout contrat classifié." Les employés craignent que des usages militaires problématiques puissent se produire sans leur connaissance ni la possibilité d'intervenir. Pour eux, le secret entourant les contrats classifiés rend impossible tout contrôle éthique interne, ce qui représente un risque fondamental pour la réputation et les valeurs affichées de l'entreprise. Ce mouvement s'inscrit dans une longue tradition de résistance interne chez Google : en 2018, des milliers d'employés avaient forcé l'entreprise à abandonner le projet Maven, un contrat d'analyse d'images par IA pour l'armée américaine. Depuis, Google a néanmoins signé d'autres contrats de défense. Le sujet est d'autant plus brûlant qu'Anthropic est actuellement engagé dans un litige juridique avec le Pentagone autour d'un contrat similaire, illustrant les tensions croissantes entre la Silicon Valley et le complexe militaro-industriel américain.

UECe mouvement de protestation interne illustre les tensions éthiques sur l'usage militaire de l'IA, un débat que l'Europe devra trancher dans le cadre de l'AI Act et de sa politique de défense commune émergente.

ÉthiqueActu
1 source
La politique de TikTok sur les publicités IA ne fonctionne pas
3The Verge AI 

La politique de TikTok sur les publicités IA ne fonctionne pas

Plusieurs grandes entreprises diffusent des publicités générées par intelligence artificielle sur TikTok sans apposer le label requis par la plateforme, révèle une enquête du site The Verge. Samsung figure parmi les marques épinglées : plusieurs de ses vidéos promotionnelles publiées sur ses comptes TikTok ne mentionnent nulle part l'utilisation d'outils d'IA générative, ni dans la vidéo elle-même, ni dans les petites lignes. TikTok impose pourtant depuis 2023 une politique explicite d'étiquetage des contenus publicitaires créés ou modifiés par IA, sous peine de sanctions théoriques pour les annonceurs contrevenants. Ce manquement soulève une question de confiance fondamentale pour les consommateurs : si des professionnels de l'image peinent à distinguer une vidéo synthétique d'une vraie, le grand public n'a aucune chance. L'absence de transparence fausse la perception des produits — un visage retouché par IA, une mise en scène impossible ou une voix clonée peuvent créer des attentes irréalistes. Pour l'industrie publicitaire, l'enjeu est de taille : la crédibilité des marques et la confiance des plateformes reposent sur des règles que personne ne semble aujourd'hui contrôler sérieusement. La prolifération des outils d'IA générative — Sora, Runway, Adobe Firefly, entre autres — a rendu la production de contenus synthétiques accessible à presque tous les annonceurs, accélérant une course au contenu bon marché qui dépasse les capacités de modération des plateformes. TikTok n'est pas seul dans cette situation : Meta, YouTube et Google font face aux mêmes défis de détection et d'application. Plusieurs régulateurs, notamment en Europe avec l'AI Act, commencent à imposer des obligations légales d'étiquetage, mais leur mise en œuvre reste balbutiante. La prochaine étape sera probablement judiciaire ou législative — à moins que les plateformes ne renforcent elles-mêmes leurs mécanismes de vérification avant que le scandale ne s'emballe.

UEL'AI Act européen impose des obligations d'étiquetage des contenus générés par IA aux plateformes opérant en Europe, et le non-respect constaté chez TikTok pourrait déclencher des procédures de conformité auprès des régulateurs européens.

ÉthiqueReglementation
1 source
Le coût caché des paramètres IA par défaut de Google et l'illusion du choix
4Ars Technica AI 

Le coût caché des paramètres IA par défaut de Google et l'illusion du choix

Google pousse activement son assistant Gemini dans l'ensemble de son écosystème de produits, des messageries Gmail aux espaces de stockage Google Drive, transformant ses services les plus utilisés en terrain d'entraînement et de déploiement pour l'intelligence artificielle générative. La firme de Mountain View justifie cette intégration massive par une nécessité technique : l'IA générative exige des volumes considérables de données, et Google en dispose via ses centaines de millions d'utilisateurs actifs. Concrètement, Gemini peut accéder au contenu des emails, des documents et des fichiers personnels stockés dans les services Google. Ce déploiement soulève des questions sérieuses de confidentialité, d'autant plus que les règles de rétention des données varient selon la façon dont l'utilisateur accède à l'IA, une complexité délibérée qui rend difficile toute évaluation claire des risques. Tenter de se soustraire à la collecte de données expose les utilisateurs à ce que les experts en UX appellent des "dark patterns" : des éléments d'interface conçus pour décourager les refus, orienter vers le consentement par défaut et rendre la désinscription intentionnellement fastidieuse. Cette situation illustre une tension croissante entre les intérêts commerciaux des grandes plateformes technologiques et le droit des utilisateurs à contrôler leurs données. Alors que la bulle de l'IA générative suscite un scepticisme grandissant dans une partie de l'industrie, Google accélère son intégration au risque d'alimenter les critiques des régulateurs européens et américains déjà attentifs aux pratiques anticoncurrentielles et aux violations potentielles du RGPD. La question de savoir si les utilisateurs disposent d'un vrai choix ou d'une simple illusion de choix devient centrale.

UELes pratiques de collecte de données de Google via Gemini exposent des centaines de millions d'utilisateurs européens à des risques de violation du RGPD, les dark patterns rendant la désinscription délibérément fastidieuse et la rétention des données opaque.

ÉthiqueReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour