Aller au contenu principal
ÉthiqueLe Big Data34min

Attention ! Google Chrome télécharge son IA sur votre PC à votre insu

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Google Chrome télécharge discrètement un fichier de 4 gigaoctets baptisé « weights.bin » sur les ordinateurs de ses utilisateurs, sans les en informer ni leur demander leur accord. La découverte est signée Alexander Hanff, chercheur en sécurité connu sous le pseudonyme « That Privacy Guy », qui a documenté le phénomène sur un Mac configuré avec un profil Chrome vierge. En une quinzaine de minutes d'inactivité apparente, le navigateur a créé le dossier correspondant et téléchargé l'intégralité du modèle en arrière-plan. Ce fichier est lié à Gemini Nano, la version allégée du modèle d'intelligence artificielle développé par Google, destinée à fonctionner directement sur l'appareil. Chrome analyserait les capacités matérielles de la machine avant de déclencher le téléchargement, ce qui confirme selon Hanff une sélection automatique des appareils compatibles. Plus préoccupant encore : si l'utilisateur supprime le fichier, celui-ci se réinstalle de lui-même, sauf à désactiver certaines options expérimentales du navigateur ou à désinstaller Chrome entièrement.

Ce comportement soulève plusieurs problèmes concrets. Sur le plan juridique, Hanff estime que le procédé pourrait contrevenir au RGPD et à la directive ePrivacy européenne, qui imposent une transparence claire pour tout stockage de données sur un appareil. L'absence de consentement explicite constituerait une violation de ces cadres réglementaires. Sur le plan pratique, un téléchargement non sollicité de 4 Go représente une nuisance réelle pour les utilisateurs sous forfait mobile limité ou dans des pays où la bande passante est coûteuse. L'impact environnemental chiffré par Hanff est également frappant : à l'échelle de 100 millions d'appareils, le transfert représenterait 400 pétaoctets de données, 24 GWh d'énergie consommée et environ 6 000 tonnes équivalent CO₂. Ces volumes atteignent 4 exaoctets, 240 GWh et 60 000 tonnes de CO₂ si l'on extrapole à un milliard d'appareils, soit 30 % de la base utilisateurs Chrome.

Cette affaire s'inscrit dans une critique plus large adressée aux géants technologiques, et nommément à Google et Anthropic, que Hanff accuse de déployer leurs technologies avant toute explication aux utilisateurs. Que ce soit via l'intégration silencieuse de Claude Desktop dans les systèmes ou le téléchargement automatique de modèles IA, la logique est identique : les appareils des utilisateurs deviennent des infrastructures au service des ambitions IA des plateformes, sans que ceux-ci n'aient eu leur mot à dire. Google n'a pas officiellement commenté ces révélations. La question de savoir si Chrome propose à terme une option de désactivation claire, ou si des régulateurs européens saisiront le sujet, reste ouverte, mais la pression sur les pratiques de déploiement silencieux de l'IA embarquée monte visiblement d'un cran.

Impact France/UE

Le téléchargement silencieux de Gemini Nano par Chrome constitue une violation potentielle du RGPD et de la directive ePrivacy, exposant Google à des poursuites par des régulateurs européens comme la CNIL et rendant la pratique illégale pour les 400+ millions d'utilisateurs Chrome en Europe.

💬 Le point de vue du dev

4 Go téléchargés sans te prévenir, et qui se réinstallent d'eux-mêmes si tu les supprimes. C'est pas une négligence de déploiement, c'est un choix produit qui part du principe que ton disque dur fait partie de l'infrastructure de Google. Ce genre de truc va finir devant la CNIL, et cette fois-ci ils auront du mal à plaider la bonne foi.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le coût caché des paramètres IA par défaut de Google et l'illusion du choix
1Ars Technica AI 

Le coût caché des paramètres IA par défaut de Google et l'illusion du choix

Google pousse activement son assistant Gemini dans l'ensemble de son écosystème de produits, des messageries Gmail aux espaces de stockage Google Drive, transformant ses services les plus utilisés en terrain d'entraînement et de déploiement pour l'intelligence artificielle générative. La firme de Mountain View justifie cette intégration massive par une nécessité technique : l'IA générative exige des volumes considérables de données, et Google en dispose via ses centaines de millions d'utilisateurs actifs. Concrètement, Gemini peut accéder au contenu des emails, des documents et des fichiers personnels stockés dans les services Google. Ce déploiement soulève des questions sérieuses de confidentialité, d'autant plus que les règles de rétention des données varient selon la façon dont l'utilisateur accède à l'IA, une complexité délibérée qui rend difficile toute évaluation claire des risques. Tenter de se soustraire à la collecte de données expose les utilisateurs à ce que les experts en UX appellent des "dark patterns" : des éléments d'interface conçus pour décourager les refus, orienter vers le consentement par défaut et rendre la désinscription intentionnellement fastidieuse. Cette situation illustre une tension croissante entre les intérêts commerciaux des grandes plateformes technologiques et le droit des utilisateurs à contrôler leurs données. Alors que la bulle de l'IA générative suscite un scepticisme grandissant dans une partie de l'industrie, Google accélère son intégration au risque d'alimenter les critiques des régulateurs européens et américains déjà attentifs aux pratiques anticoncurrentielles et aux violations potentielles du RGPD. La question de savoir si les utilisateurs disposent d'un vrai choix ou d'une simple illusion de choix devient centrale.

UELes pratiques de collecte de données de Google via Gemini exposent des centaines de millions d'utilisateurs européens à des risques de violation du RGPD, les dark patterns rendant la désinscription délibérément fastidieuse et la rétention des données opaque.

ÉthiqueReglementation
1 source
« AI Sponsored Snaps » : Faîtes gaffe, votre « ami » IA sur Snapchat est peut-être un vendeur
2Le Big Data 

« AI Sponsored Snaps » : Faîtes gaffe, votre « ami » IA sur Snapchat est peut-être un vendeur

Snapchat a lancé une nouvelle fonctionnalité publicitaire baptisée "AI Sponsored Snaps", qui introduit des agents conversationnels financés par des marques directement dans les discussions des utilisateurs. Concrètement, ces robots IA s'insèrent dans la messagerie et répondent aux questions comme n'importe quel interlocuteur, mais avec pour mission sous-jacente de guider les échanges vers des produits ou services commerciaux. Experian est le premier partenaire officiel : son agent commence par aborder des sujets financiers généraux avant d'orienter progressivement la conversation vers ses offres. Ce lancement intervient dans un contexte de croissance massive de l'usage de la messagerie sur la plateforme : 85 % des utilisateurs de Snapchat s'en servent régulièrement, et plus de 950 milliards de messages ont été envoyés au premier trimestre 2026 seulement. Cette initiative marque un tournant dans la façon dont la publicité s'infiltre dans les espaces numériques intimes. Contrairement à une bannière ou une vidéo sponsorisée clairement identifiable, les AI Sponsored Snaps se comportent comme de vrais interlocuteurs, rendant la frontière entre conversation et démarchage commercial particulièrement floue. Ajit Mohan, directeur commercial de Snapchat, résume la philosophie du projet en ces termes : "La conversation devient le bien immobilier le plus précieux en publicité." Pour les utilisateurs, l'intérêt reste difficile à cerner : les réponses fournies ne diffèrent pas fondamentalement de celles d'un assistant classique comme Gemini ou Claude, à la différence près que chaque échange est pensé pour générer des revenus aux marques partenaires. C'est la promesse d'un service, mais au profit du commanditaire. Snapchat s'appuie pour cela sur le bilan de My AI, son assistant conversationnel lancé en 2023, qui aurait été utilisé par plus de 500 millions de personnes depuis son déploiement. Ce socle d'adoption massif offre à la plateforme un terrain d'expérimentation publicitaire sans précédent dans la messagerie sociale. Mais le parcours n'a pas été sans accrocs : lors de tests menés par des journalistes et des chercheurs simulant des profils d'adolescents, My AI avait déjà fourni des réponses jugées inappropriées sur des sujets sensibles, soulevant des questions sur la modération et la protection des mineurs. Avec les AI Sponsored Snaps, ces enjeux se doublent d'une dimension commerciale qui risque d'amplifier les critiques. Le modèle que Snapchat est en train de construire, où l'IA sert autant de vendeur que d'assistant, pourrait bien devenir une référence pour d'autres plateformes cherchant à monétiser leurs espaces de conversation.

UEL'AI Act européen impose des obligations de transparence qui pourraient contraindre Snapchat à identifier explicitement ces agents comme outils commerciaux auprès des utilisateurs européens, et la CNIL pourrait examiner la collecte de données conversationnelles à des fins publicitaires.

ÉthiqueOpinion
1 source
Vérification d’âge : Meta analyse votre morphologie avec une IA
3Le Big Data 

Vérification d’âge : Meta analyse votre morphologie avec une IA

Meta a annoncé le 5 mai 2026 une nouvelle approche de vérification d'âge sur ses plateformes Instagram et Facebook, reposant sur une intelligence artificielle capable d'analyser la morphologie des utilisateurs. Concrètement, le système examine des photos et vidéos pour détecter des indices physiques, proportions corporelles, stature, structure osseuse, afin d'estimer une tranche d'âge. L'entreprise précise qu'il ne s'agit pas de reconnaissance faciale : l'outil ne cherche pas à identifier une personne, mais à déduire si elle est mineure. Ce dispositif vient compléter une analyse textuelle déjà existante, qui scrute publications, biographies et commentaires à la recherche de mentions révélatrices comme une école, un anniversaire ou une classe. À terme, la surveillance s'étendra aux Reels et aux vidéos en direct. En cas de doute, le compte est suspendu immédiatement et l'utilisateur doit fournir une preuve d'âge sous peine de suppression définitive. Cette évolution concerne directement les mineurs de moins de 13 ans, formellement interdits sur ces plateformes mais largement présents en pratique. Les utilisateurs identifiés comme ayant entre 13 et 15 ans sont automatiquement basculés vers un environnement restreint : compte privé par défaut, messagerie limitée et filtrage des contenus sensibles. Ce déploiement est progressif et couvre déjà plusieurs régions, notamment l'Europe et le Brésil, avec une extension de Facebook aux États-Unis en cours. Les parents gagnent également de la visibilité sur certaines interactions de leurs enfants avec les outils d'IA de la plateforme. Pour l'industrie, ce système représente un changement de paradigme : la vérification d'âge ne repose plus uniquement sur la bonne foi de l'utilisateur, mais sur une surveillance algorithmique passive et continue. Meta agit sous une pression réglementaire et juridique croissante. Plusieurs pays ont durci leurs lois sur la protection des mineurs en ligne, et le groupe fait face à des enquêtes d'autorités de régulation ainsi qu'à des risques de sanctions financières significatifs. La mise en place de ces outils constitue donc autant une réponse aux gouvernements qu'une tentative de regagner la confiance des parents. Mais la méthode soulève des questions importantes : estimer l'âge à partir de la morphologie reste une science imprécise, exposée aux erreurs et aux biais algorithmiques. Des utilisateurs adultes pourraient être suspendus à tort, tandis que la collecte de données biométriques visuelles ouvre un débat sur la protection de la vie privée que Meta n'a pas encore tranché. Les régulateurs européens, particulièrement vigilants sur le RGPD, devraient examiner de près ce système dans les mois à venir.

UELe déploiement en Europe d'un système de vérification d'âge biométrique par Meta soulève des questions directes de conformité au RGPD que la CNIL et les régulateurs européens devraient examiner dans les prochains mois.

💬 Analyser ta silhouette pour deviner ton âge, c'est de la donnée biométrique, et Meta le sait très bien. La protection des mineurs c'est légitime, mais un système qui peut suspendre un adulte à tort parce qu'il a l'air jeune va créer un joli bordel juridique, surtout en Europe. La CNIL a de quoi s'occuper.

ÉthiqueReglementation
1 source
4Numerama 

L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite

Demis Hassabis, PDG de Google DeepMind et lauréat du prix Nobel de chimie 2024, a exprimé publiquement ses regrets quant à la vitesse à laquelle l'IA générative a été déployée auprès du grand public. Invité du podcast de Cleo Abram, il est revenu sur le choc de novembre 2022 : le lancement de ChatGPT par OpenAI avait alors pris Google complètement par surprise, forçant l'entreprise à accélérer brutalement ses propres calendriers de publication. Hassabis se demande ouvertement si cette course à la commercialisation n'a pas été prématurée. Selon lui, les laboratoires de recherche auraient pu consacrer davantage de temps à comprendre en profondeur les modèles, à résoudre des problèmes fondamentaux de sécurité et d'alignement, plutôt que de se battre pour des parts de marché et des titres de presse. La sortie rapide de ChatGPT a enclenché une dynamique compétitive qui contraint désormais tous les acteurs à publier vite, parfois au détriment de la rigueur scientifique. Ce témoignage illustre une tension de fond dans l'industrie de l'IA : la pression commerciale des entreprises technologiques entre en conflit direct avec les recommandations des chercheurs qui plaident pour une approche plus prudente et progressive. Google, Microsoft, Anthropic et Meta sont aujourd'hui engagés dans une compétition effrénée où chaque annonce de modèle déclenche une réaction en chaîne. Les propos d'Hassabis alimentent un débat plus large sur la gouvernance de l'IA et la responsabilité des laboratoires face à des technologies dont les implications à long terme restent mal comprises.

UELes propos d'Hassabis renforcent la position européenne en faveur d'une régulation prudente de l'IA, soutenant les arguments derrière l'AI Act face à la pression compétitive des grandes plateformes américaines.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour