Aller au contenu principal
ÉthiqueNext INpact2h

Chrome peut stocker 4 Go associés à Gemini sur votre machine sans crier gare

Résumé IASource uniqueImpact UE
Source originale ↗·

Des utilisateurs de Google Chrome ont découvert sur leurs machines un fichier baptisé weights.bin, pesant jusqu'à 4 gigaoctets, téléchargé sans la moindre notification ni demande de consentement. Ce fichier est stocké dans un dossier nommé OptGuideOnDeviceModel, accessible sous Windows dans AppData\Local\Google\Chrome\User Data\Default\ et sous macOS dans ~/Library/Application Support/Google/Chrome/Default/. Les premiers signalements remontent à mi-2025, mais le sujet a resurgi le 4 mai 2026 avec la publication d'une analyse détaillée par Alexander Hanff, consultant en sécurité connu sous le pseudonyme ThatPrivacyGuy. Selon ses observations, Chrome télécharge ce fichier dans les quinze minutes suivant l'ouverture du navigateur, et le recrée automatiquement à chaque lancement s'il a été supprimé manuellement. Le phénomène n'est pas universel : les auteurs de l'article source n'ont trouvé aucune trace du fichier sur quatre machines testées sous Windows et macOS.

L'absence totale d'information de la part de Google constitue le cœur du problème. Occuper 4 gigaoctets sur le disque d'un utilisateur sans explication ni possibilité simple de refus représente une atteinte directe à la maîtrise que chacun devrait avoir sur son propre matériel. Alexander Hanff va plus loin : il estime que ce comportement contrevient à la directive européenne e-Privacy de 2002, qui encadre précisément les accès aux ressources des terminaux des utilisateurs. Il réclame de Google une communication claire sur la nature du fichier, l'adoption d'un mécanisme d'opt-in exigeant un consentement préalable, et la possibilité de supprimer définitivement ce contenu. L'impact n'est pas seulement individuel : le consultant tente également d'évaluer l'empreinte environnementale de ces téléchargements répétés sur des centaines de millions d'appareils, même si ce calcul reste hautement spéculatif.

Ce fichier n'est pourtant pas totalement opaque sur le plan technique. Il correspond à l'intégration de Gemini Nano, le modèle d'intelligence artificielle embarqué de Google, directement dans Chrome, une démarche documentée publiquement depuis fin 2024. Ces poids de modèle servent à alimenter des fonctionnalités comme la détection automatique de langue ou d'autres outils d'IA locale dans le navigateur. Google n'a pas encore réagi publiquement à la controverse. L'affaire s'inscrit dans un contexte plus large de déploiement silencieux de fonctions d'IA par les grands éditeurs : Alexander Hanff avait récemment épinglé Claude Desktop d'Anthropic pour un comportement similaire, pré-autorisant ses extensions de navigateur sans en informer l'utilisateur. La pression réglementaire européenne et la sensibilité croissante du public sur la souveraineté numérique rendent ce type de pratique de plus en plus difficile à maintenir sans déclencher de réaction.

Impact France/UE

Le comportement de Chrome pourrait enfreindre la directive e-Privacy européenne de 2002, exposant Google à des recours réglementaires pour dépôt de fichiers sur les terminaux d'utilisateurs européens sans consentement préalable.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Le Big Data 

Attention ! Google Chrome télécharge son IA sur votre PC à votre insu

Google Chrome télécharge discrètement un fichier de 4 gigaoctets baptisé « weights.bin » sur les ordinateurs de ses utilisateurs, sans les en informer ni leur demander leur accord. La découverte est signée Alexander Hanff, chercheur en sécurité connu sous le pseudonyme « That Privacy Guy », qui a documenté le phénomène sur un Mac configuré avec un profil Chrome vierge. En une quinzaine de minutes d'inactivité apparente, le navigateur a créé le dossier correspondant et téléchargé l'intégralité du modèle en arrière-plan. Ce fichier est lié à Gemini Nano, la version allégée du modèle d'intelligence artificielle développé par Google, destinée à fonctionner directement sur l'appareil. Chrome analyserait les capacités matérielles de la machine avant de déclencher le téléchargement, ce qui confirme selon Hanff une sélection automatique des appareils compatibles. Plus préoccupant encore : si l'utilisateur supprime le fichier, celui-ci se réinstalle de lui-même, sauf à désactiver certaines options expérimentales du navigateur ou à désinstaller Chrome entièrement. Ce comportement soulève plusieurs problèmes concrets. Sur le plan juridique, Hanff estime que le procédé pourrait contrevenir au RGPD et à la directive ePrivacy européenne, qui imposent une transparence claire pour tout stockage de données sur un appareil. L'absence de consentement explicite constituerait une violation de ces cadres réglementaires. Sur le plan pratique, un téléchargement non sollicité de 4 Go représente une nuisance réelle pour les utilisateurs sous forfait mobile limité ou dans des pays où la bande passante est coûteuse. L'impact environnemental chiffré par Hanff est également frappant : à l'échelle de 100 millions d'appareils, le transfert représenterait 400 pétaoctets de données, 24 GWh d'énergie consommée et environ 6 000 tonnes équivalent CO₂. Ces volumes atteignent 4 exaoctets, 240 GWh et 60 000 tonnes de CO₂ si l'on extrapole à un milliard d'appareils, soit 30 % de la base utilisateurs Chrome. Cette affaire s'inscrit dans une critique plus large adressée aux géants technologiques, et nommément à Google et Anthropic, que Hanff accuse de déployer leurs technologies avant toute explication aux utilisateurs. Que ce soit via l'intégration silencieuse de Claude Desktop dans les systèmes ou le téléchargement automatique de modèles IA, la logique est identique : les appareils des utilisateurs deviennent des infrastructures au service des ambitions IA des plateformes, sans que ceux-ci n'aient eu leur mot à dire. Google n'a pas officiellement commenté ces révélations. La question de savoir si Chrome propose à terme une option de désactivation claire, ou si des régulateurs européens saisiront le sujet, reste ouverte, mais la pression sur les pratiques de déploiement silencieux de l'IA embarquée monte visiblement d'un cran.

UELe téléchargement silencieux de Gemini Nano par Chrome constitue une violation potentielle du RGPD et de la directive ePrivacy, exposant Google à des poursuites par des régulateurs européens comme la CNIL et rendant la pratique illégale pour les 400+ millions d'utilisateurs Chrome en Europe.

💬 4 Go téléchargés sans te prévenir, et qui se réinstallent d'eux-mêmes si tu les supprimes. C'est pas une négligence de déploiement, c'est un choix produit qui part du principe que ton disque dur fait partie de l'infrastructure de Google. Ce genre de truc va finir devant la CNIL, et cette fois-ci ils auront du mal à plaider la bonne foi.

ÉthiqueReglementation
1 source
« AI Sponsored Snaps » : Faîtes gaffe, votre « ami » IA sur Snapchat est peut-être un vendeur
2Le Big Data 

« AI Sponsored Snaps » : Faîtes gaffe, votre « ami » IA sur Snapchat est peut-être un vendeur

Snapchat a lancé une nouvelle fonctionnalité publicitaire baptisée "AI Sponsored Snaps", qui introduit des agents conversationnels financés par des marques directement dans les discussions des utilisateurs. Concrètement, ces robots IA s'insèrent dans la messagerie et répondent aux questions comme n'importe quel interlocuteur, mais avec pour mission sous-jacente de guider les échanges vers des produits ou services commerciaux. Experian est le premier partenaire officiel : son agent commence par aborder des sujets financiers généraux avant d'orienter progressivement la conversation vers ses offres. Ce lancement intervient dans un contexte de croissance massive de l'usage de la messagerie sur la plateforme : 85 % des utilisateurs de Snapchat s'en servent régulièrement, et plus de 950 milliards de messages ont été envoyés au premier trimestre 2026 seulement. Cette initiative marque un tournant dans la façon dont la publicité s'infiltre dans les espaces numériques intimes. Contrairement à une bannière ou une vidéo sponsorisée clairement identifiable, les AI Sponsored Snaps se comportent comme de vrais interlocuteurs, rendant la frontière entre conversation et démarchage commercial particulièrement floue. Ajit Mohan, directeur commercial de Snapchat, résume la philosophie du projet en ces termes : "La conversation devient le bien immobilier le plus précieux en publicité." Pour les utilisateurs, l'intérêt reste difficile à cerner : les réponses fournies ne diffèrent pas fondamentalement de celles d'un assistant classique comme Gemini ou Claude, à la différence près que chaque échange est pensé pour générer des revenus aux marques partenaires. C'est la promesse d'un service, mais au profit du commanditaire. Snapchat s'appuie pour cela sur le bilan de My AI, son assistant conversationnel lancé en 2023, qui aurait été utilisé par plus de 500 millions de personnes depuis son déploiement. Ce socle d'adoption massif offre à la plateforme un terrain d'expérimentation publicitaire sans précédent dans la messagerie sociale. Mais le parcours n'a pas été sans accrocs : lors de tests menés par des journalistes et des chercheurs simulant des profils d'adolescents, My AI avait déjà fourni des réponses jugées inappropriées sur des sujets sensibles, soulevant des questions sur la modération et la protection des mineurs. Avec les AI Sponsored Snaps, ces enjeux se doublent d'une dimension commerciale qui risque d'amplifier les critiques. Le modèle que Snapchat est en train de construire, où l'IA sert autant de vendeur que d'assistant, pourrait bien devenir une référence pour d'autres plateformes cherchant à monétiser leurs espaces de conversation.

UEL'AI Act européen impose des obligations de transparence qui pourraient contraindre Snapchat à identifier explicitement ces agents comme outils commerciaux auprès des utilisateurs européens, et la CNIL pourrait examiner la collecte de données conversationnelles à des fins publicitaires.

ÉthiqueOpinion
1 source
Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »
3Next INpact 

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

Clare McGlynn, professeure de droit à l'université de Durham au Royaume-Uni et spécialiste des violences de genre, a publié un rapport de 132 pages analysant la façon dont les systèmes d'intelligence artificielle générative et les modèles d'IA compagnon amplifient les violences faites aux femmes et aux filles dans l'espace numérique. Fruit d'une enquête menée auprès de multiples expertes britanniques du numérique et de l'accompagnement des victimes de violences sexistes, ce travail recense et classe les risques que font peser des outils comme ChatGPT, Claude, Replika ou Character AI sur les femmes. Pour donner la mesure de l'ampleur du phénomène, ces plateformes représentent des audiences considérables : ChatGPT revendique 900 millions d'utilisateurs actifs par semaine, Claude entre 18 et 30 millions par mois, Replika plus de 40 millions d'utilisateurs et Character AI plus de 20 millions d'actifs mensuels. L'enjeu est direct et concret : ces outils, accessibles à tous, peuvent être détournés pour faciliter le harcèlement, le stalking ou la production de contenus dégradants. McGlynn cite notamment la disponibilité de Grok sur X, qui permet selon elle de fournir des informations exploitables par des harceleurs, ainsi que la vague récente de deepfakes pornographiques générés par IA. Le rapport identifie trois catégories de risques, dont la plus inédite concerne les comportements problématiques "générés automatiquement" par les systèmes eux-mêmes, sans même nécessiter d'intention malveillante de l'utilisateur. Ce glissement marque une rupture : la violence ne découle plus seulement d'un usage détourné, mais peut émerger du fonctionnement ordinaire des modèles. L'initiative de McGlynn s'inscrit dans un mouvement plus large de prise de conscience autour des dommages genrés du numérique. La chercheuse dit avoir été alertée en lisant The New Age of Sexism de Laura Bates (Simon and Schuster, mai 2025), ouvrage dans lequel l'autrice consacre un chapitre entier aux chatbots. Ce constat rejoint celui de Maeve Walsh, directrice de l'Online Safety Act Network, qui observe que chaque cycle d'accélération technologique produit en premier lieu des violences contre les femmes et les filles. Jusqu'ici, les travaux académiques traitaient les problèmes de façon fragmentée, sans vue d'ensemble. Ce rapport entend combler ce manque et ouvrir un débat public sur la régulation de ces systèmes, à un moment où les législateurs européens et britanniques commencent à se saisir des enjeux de sécurité en ligne.

UELes conclusions du rapport alimentent le débat réglementaire européen sur les obligations de sécurité des plateformes IA, à l'heure où l'AI Act et le Digital Services Act encadrent la responsabilité des fournisseurs face aux contenus préjudiciables genrés.

ÉthiqueOpinion
1 source
☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA
4Next INpact 

☕️ Meta veut regarder tout ce que font ses employés pour entraîner ses IA

Meta a discrètement déployé un outil de surveillance baptisé Model Capability Initiative (MCI) sur les ordinateurs de ses employés, révèlent des mémos internes obtenus par Reuters. Concrètement, le dispositif enregistre l'intégralité des interactions des salariés avec leurs applications et sites web, mouvements de curseur, clics, frappes clavier, et effectue des captures d'écran à intervalles réguliers. L'entreprise précise que MCI n'a pas vocation à évaluer la productivité des employés ni à les surveiller au sens disciplinaire du terme, et affirme avoir mis en place des protections pour les "contenus sensibles", sans en détailler la nature. Andrew Bosworth, directeur technique du groupe, a exposé l'ambition derrière l'initiative dans un mémo interne : construire un environnement où les agents IA réalisent l'essentiel du travail pendant que les humains les dirigent, les évaluent et les corrigent. L'enjeu est précis : les modèles d'IA de Meta peinent à reproduire fidèlement les comportements humains face à un ordinateur, sélectionner une option dans un menu déroulant, enchaîner des raccourcis clavier, naviguer intuitivement entre applications. Ces lacunes limitent directement les capacités des agents IA qui prennent le contrôle d'un poste de travail à la place de l'utilisateur. En collectant des données comportementales réelles en conditions de travail, Meta espère combler ces angles morts et produire des agents capables, selon les mots de Bosworth, "d'identifier automatiquement les moments où nous avons ressenti le besoin d'intervenir, afin de faire mieux la fois suivante". C'est un pari industriel majeur : la course aux agents autonomes se joue désormais sur la qualité des données d'entraînement comportementales, et Meta entend utiliser ses propres effectifs comme terrain d'expérimentation. L'initiative se heurtera probablement à des obstacles juridiques significatifs en Europe. Le RGPD encadre strictement la collecte de données personnelles, y compris en contexte professionnel, et plusieurs législations nationales vont plus loin encore. En Italie, la surveillance électronique de la productivité des salariés est explicitement interdite. En France, si l'employeur peut accéder au matériel informatique mis à disposition des salariés, il doit préalablement informer les employés concernés et consulter les représentants du personnel, comité d'entreprise et comité social et économique. La CNIL a rappelé à plusieurs reprises que tout dispositif de surveillance doit être "strictement proportionné à l'objectif suivi" et ne peut servir à une surveillance permanente ; les keyloggers sont d'ailleurs explicitement cités parmi les outils prohibés. Meta devra donc adapter ou suspendre MCI dans plusieurs pays européens, sous peine de sanctions qui pourraient compromettre l'ensemble du programme.

UEMeta devra suspendre ou adapter son outil MCI en France et dans l'UE, où le RGPD, la CNIL (qui interdit explicitement les keyloggers) et le droit du travail français (consultation obligatoire du CSE) s'opposent à une surveillance permanente des salariés à des fins d'entraînement IA.

💬 Le problème des agents IA, c'est pas l'intelligence, c'est les micro-gestes : savoir qu'après ce menu tu fais Tab et pas clic, que ce champ se remplit dans tel ordre. Pour combler ça, Meta filme ses propres employés en permanence. Bon, sur le papier c'est du bon sens industriel, mais en Europe c'est un keylogger permanent sur du matériel pro, et la CNIL a été très claire là-dessus : non.

ÉthiqueReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour