Aller au contenu principal
ÉthiqueLe Big Data33min

Vérification d’âge : Meta analyse votre morphologie avec une IA

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Meta a annoncé le 5 mai 2026 une nouvelle approche de vérification d'âge sur ses plateformes Instagram et Facebook, reposant sur une intelligence artificielle capable d'analyser la morphologie des utilisateurs. Concrètement, le système examine des photos et vidéos pour détecter des indices physiques, proportions corporelles, stature, structure osseuse, afin d'estimer une tranche d'âge. L'entreprise précise qu'il ne s'agit pas de reconnaissance faciale : l'outil ne cherche pas à identifier une personne, mais à déduire si elle est mineure. Ce dispositif vient compléter une analyse textuelle déjà existante, qui scrute publications, biographies et commentaires à la recherche de mentions révélatrices comme une école, un anniversaire ou une classe. À terme, la surveillance s'étendra aux Reels et aux vidéos en direct. En cas de doute, le compte est suspendu immédiatement et l'utilisateur doit fournir une preuve d'âge sous peine de suppression définitive.

Cette évolution concerne directement les mineurs de moins de 13 ans, formellement interdits sur ces plateformes mais largement présents en pratique. Les utilisateurs identifiés comme ayant entre 13 et 15 ans sont automatiquement basculés vers un environnement restreint : compte privé par défaut, messagerie limitée et filtrage des contenus sensibles. Ce déploiement est progressif et couvre déjà plusieurs régions, notamment l'Europe et le Brésil, avec une extension de Facebook aux États-Unis en cours. Les parents gagnent également de la visibilité sur certaines interactions de leurs enfants avec les outils d'IA de la plateforme. Pour l'industrie, ce système représente un changement de paradigme : la vérification d'âge ne repose plus uniquement sur la bonne foi de l'utilisateur, mais sur une surveillance algorithmique passive et continue.

Meta agit sous une pression réglementaire et juridique croissante. Plusieurs pays ont durci leurs lois sur la protection des mineurs en ligne, et le groupe fait face à des enquêtes d'autorités de régulation ainsi qu'à des risques de sanctions financières significatifs. La mise en place de ces outils constitue donc autant une réponse aux gouvernements qu'une tentative de regagner la confiance des parents. Mais la méthode soulève des questions importantes : estimer l'âge à partir de la morphologie reste une science imprécise, exposée aux erreurs et aux biais algorithmiques. Des utilisateurs adultes pourraient être suspendus à tort, tandis que la collecte de données biométriques visuelles ouvre un débat sur la protection de la vie privée que Meta n'a pas encore tranché. Les régulateurs européens, particulièrement vigilants sur le RGPD, devraient examiner de près ce système dans les mois à venir.

Impact France/UE

Le déploiement en Europe d'un système de vérification d'âge biométrique par Meta soulève des questions directes de conformité au RGPD que la CNIL et les régulateurs européens devraient examiner dans les prochains mois.

💬 Le point de vue du dev

Analyser ta silhouette pour deviner ton âge, c'est de la donnée biométrique, et Meta le sait très bien. La protection des mineurs c'est légitime, mais un système qui peut suspendre un adulte à tort parce qu'il a l'air jeune va créer un joli bordel juridique, surtout en Europe. La CNIL a de quoi s'occuper.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Une plainte qualifie le « Mode Incognito » de Perplexity d'imposture
1Ars Technica AI 

Une plainte qualifie le « Mode Incognito » de Perplexity d'imposture

Le moteur de recherche IA Perplexity fait l'objet d'une action en justice qui l'accuse de partager massivement les conversations de ses utilisateurs avec Google et Meta, à leur insu. Selon la plainte déposée, cette pratique concernerait tous les utilisateurs, qu'ils aient ou non créé un compte sur la plateforme. Les outils de développement utilisés lors de l'enquête auraient révélé que les premières requêtes saisies sont systématiquement transmises à des tiers, tout comme les questions de relance générées par l'IA sur lesquelles l'utilisateur clique. Pour les non-abonnés, la situation serait encore plus grave : leurs conversations initiales seraient partagées via une URL permettant à des tiers comme Meta et Google d'accéder à l'intégralité de l'échange. L'enjeu est considérable pour les millions d'utilisateurs qui font confiance à Perplexity pour des recherches potentiellement sensibles, professionnelles ou personnelles. Le mode "Incognito" proposé par la plateforme, censé garantir une confidentialité renforcée, est qualifié de "mascarade" par les plaignants. Si les faits allégués sont avérés, cela signifie que des volumes massifs de données — requêtes médicales, financières, juridiques ou autres — auraient été transmis à deux des plus grandes régies publicitaires du monde sans le consentement explicite des utilisateurs, en violation potentielle des lois sur la protection des données. Cette affaire s'inscrit dans un contexte de scrutin croissant autour des pratiques de confidentialité des outils d'IA conversationnelle. Perplexity, valorisé à plusieurs milliards de dollars et présenté comme un concurrent direct de Google Search, avait déjà été épinglé en 2024 pour des pratiques de scraping contestables. La question de savoir dans quelle mesure les startups IA monétisent les données utilisateurs via des partenariats publicitaires avec les géants de la tech risque désormais de s'inviter au cœur des débats réglementaires, aussi bien en Europe qu'aux États-Unis.

UESi les pratiques décrites sont avérées, elles constitueraient une violation du RGPD, exposant Perplexity à des sanctions de la CNIL et des autorités européennes de protection des données au détriment des millions d'utilisateurs européens de la plateforme.

ÉthiqueReglementation
1 source
Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »
2Next INpact 

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

Clare McGlynn, professeure de droit à l'université de Durham au Royaume-Uni et spécialiste des violences de genre, a publié un rapport de 132 pages analysant la façon dont les systèmes d'intelligence artificielle générative et les modèles d'IA compagnon amplifient les violences faites aux femmes et aux filles dans l'espace numérique. Fruit d'une enquête menée auprès de multiples expertes britanniques du numérique et de l'accompagnement des victimes de violences sexistes, ce travail recense et classe les risques que font peser des outils comme ChatGPT, Claude, Replika ou Character AI sur les femmes. Pour donner la mesure de l'ampleur du phénomène, ces plateformes représentent des audiences considérables : ChatGPT revendique 900 millions d'utilisateurs actifs par semaine, Claude entre 18 et 30 millions par mois, Replika plus de 40 millions d'utilisateurs et Character AI plus de 20 millions d'actifs mensuels. L'enjeu est direct et concret : ces outils, accessibles à tous, peuvent être détournés pour faciliter le harcèlement, le stalking ou la production de contenus dégradants. McGlynn cite notamment la disponibilité de Grok sur X, qui permet selon elle de fournir des informations exploitables par des harceleurs, ainsi que la vague récente de deepfakes pornographiques générés par IA. Le rapport identifie trois catégories de risques, dont la plus inédite concerne les comportements problématiques "générés automatiquement" par les systèmes eux-mêmes, sans même nécessiter d'intention malveillante de l'utilisateur. Ce glissement marque une rupture : la violence ne découle plus seulement d'un usage détourné, mais peut émerger du fonctionnement ordinaire des modèles. L'initiative de McGlynn s'inscrit dans un mouvement plus large de prise de conscience autour des dommages genrés du numérique. La chercheuse dit avoir été alertée en lisant The New Age of Sexism de Laura Bates (Simon and Schuster, mai 2025), ouvrage dans lequel l'autrice consacre un chapitre entier aux chatbots. Ce constat rejoint celui de Maeve Walsh, directrice de l'Online Safety Act Network, qui observe que chaque cycle d'accélération technologique produit en premier lieu des violences contre les femmes et les filles. Jusqu'ici, les travaux académiques traitaient les problèmes de façon fragmentée, sans vue d'ensemble. Ce rapport entend combler ce manque et ouvrir un débat public sur la régulation de ces systèmes, à un moment où les législateurs européens et britanniques commencent à se saisir des enjeux de sécurité en ligne.

UELes conclusions du rapport alimentent le débat réglementaire européen sur les obligations de sécurité des plateformes IA, à l'heure où l'AI Act et le Digital Services Act encadrent la responsabilité des fournisseurs face aux contenus préjudiciables genrés.

ÉthiqueOpinion
1 source
« AI Sponsored Snaps » : Faîtes gaffe, votre « ami » IA sur Snapchat est peut-être un vendeur
3Le Big Data 

« AI Sponsored Snaps » : Faîtes gaffe, votre « ami » IA sur Snapchat est peut-être un vendeur

Snapchat a lancé une nouvelle fonctionnalité publicitaire baptisée "AI Sponsored Snaps", qui introduit des agents conversationnels financés par des marques directement dans les discussions des utilisateurs. Concrètement, ces robots IA s'insèrent dans la messagerie et répondent aux questions comme n'importe quel interlocuteur, mais avec pour mission sous-jacente de guider les échanges vers des produits ou services commerciaux. Experian est le premier partenaire officiel : son agent commence par aborder des sujets financiers généraux avant d'orienter progressivement la conversation vers ses offres. Ce lancement intervient dans un contexte de croissance massive de l'usage de la messagerie sur la plateforme : 85 % des utilisateurs de Snapchat s'en servent régulièrement, et plus de 950 milliards de messages ont été envoyés au premier trimestre 2026 seulement. Cette initiative marque un tournant dans la façon dont la publicité s'infiltre dans les espaces numériques intimes. Contrairement à une bannière ou une vidéo sponsorisée clairement identifiable, les AI Sponsored Snaps se comportent comme de vrais interlocuteurs, rendant la frontière entre conversation et démarchage commercial particulièrement floue. Ajit Mohan, directeur commercial de Snapchat, résume la philosophie du projet en ces termes : "La conversation devient le bien immobilier le plus précieux en publicité." Pour les utilisateurs, l'intérêt reste difficile à cerner : les réponses fournies ne diffèrent pas fondamentalement de celles d'un assistant classique comme Gemini ou Claude, à la différence près que chaque échange est pensé pour générer des revenus aux marques partenaires. C'est la promesse d'un service, mais au profit du commanditaire. Snapchat s'appuie pour cela sur le bilan de My AI, son assistant conversationnel lancé en 2023, qui aurait été utilisé par plus de 500 millions de personnes depuis son déploiement. Ce socle d'adoption massif offre à la plateforme un terrain d'expérimentation publicitaire sans précédent dans la messagerie sociale. Mais le parcours n'a pas été sans accrocs : lors de tests menés par des journalistes et des chercheurs simulant des profils d'adolescents, My AI avait déjà fourni des réponses jugées inappropriées sur des sujets sensibles, soulevant des questions sur la modération et la protection des mineurs. Avec les AI Sponsored Snaps, ces enjeux se doublent d'une dimension commerciale qui risque d'amplifier les critiques. Le modèle que Snapchat est en train de construire, où l'IA sert autant de vendeur que d'assistant, pourrait bien devenir une référence pour d'autres plateformes cherchant à monétiser leurs espaces de conversation.

UEL'AI Act européen impose des obligations de transparence qui pourraient contraindre Snapchat à identifier explicitement ces agents comme outils commerciaux auprès des utilisateurs européens, et la CNIL pourrait examiner la collecte de données conversationnelles à des fins publicitaires.

ÉthiqueOpinion
1 source
Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA
4Le Big Data 

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA

Meta surveille les habitudes informatiques de ses employés pour entraîner son futur agent IA. Selon des notes internes révélées par Reuters, l'entreprise a déployé un logiciel de suivi intégré à certains outils professionnels internes, capable d'enregistrer les mouvements de souris, les clics, les frappes clavier et de capturer régulièrement des captures d'écran. Ces données sont collectées sur des applications internes et des sites web professionnels, avec pour objectif de documenter précisément comment les humains interagissent avec leur machine au quotidien. Un porte-parole de Meta confirme que ces informations servent à améliorer la capacité des agents IA à réaliser des tâches concrètes : naviguer dans des menus, cliquer sur des boutons, reproduire des séquences d'actions basiques mais essentielles. L'entreprise assure également que ces données ne seront pas utilisées pour évaluer la performance individuelle des salariés. L'enjeu est considérable pour le développement des agents IA dits "computer use", capables d'opérer directement sur un ordinateur comme le ferait un humain. Les textes, images et vidéos disponibles sur internet sont déjà massivement exploités pour entraîner les grands modèles de langage, mais les données d'interaction réelle avec une interface restent rares et difficiles à obtenir à grande échelle. Des entreprises concurrentes ont recours à des environnements simulés pour générer ce type de données comportementales, une approche coûteuse et imparfaite. En mobilisant directement ses propres employés, Meta accède à des flux de comportements authentiques, dans des contextes de travail réels, ce qui représente un avantage compétitif significatif pour entraîner des agents performants sur des tâches professionnelles. Cette initiative s'inscrit dans un contexte de pression croissante chez Meta autour de l'IA. L'entreprise, qui a massivement investi dans le développement de ses modèles Llama et de ses agents conversationnels, cherche à combler son retard sur des acteurs comme OpenAI ou Google dans le domaine des agents autonomes. En parallèle, Reuters rapporte que Meta envisage de fixer des objectifs d'usage de l'IA à certains de ses personnels, et réfléchirait à une réduction potentielle de ses effectifs mondiaux pouvant atteindre 10 %. La collecte de données sur les employés soulève néanmoins des questions éthiques sur le consentement et la surveillance au travail, même si Meta la présente comme une contribution collective au progrès technologique interne. La frontière entre outil d'entraînement et surveillance professionnelle reste floue, et cette démarche pourrait alimenter les débats réglementaires sur les droits des travailleurs à l'ère de l'IA.

UELe RGPD encadre strictement la surveillance des salariés en Europe, rendant une pratique similaire juridiquement risquée pour toute entreprise opérant dans l'UE, et pourrait accélérer les débats législatifs sur les droits des travailleurs face à l'IA générative.

ÉthiqueActu
1 source