Aller au contenu principal
AutreNext INpact1sem

Des contrôles d’identité « au faciès » recourent illégalement à la reconnaissance faciale

1 source couvre ce sujet·Source originale ↗·
Résumé IA

L'ONG Disclose révèle que 230 000 smartphones NEO 2 (utilisés par la police depuis 2022 et la gendarmerie depuis 2020) permettent aux forces de l'ordre d'effectuer des contrôles d'identité par reconnaissance faciale, une pratique « totalement illégale ». Ces contrôles s'appuient sur le fichier policier GASPARD, lui-même créé illégalement, ainsi que sur le TAJ (traitement d'antécédents judiciaires) qui recense 24 millions de personnes « mises en cause » et 48 millions de victimes. Des témoignages recueillis par Disclose montrent des citoyens photographiés de force lors de contrôles, dont un manifestant pro-Palestine contraint physiquement de faire face à la caméra.

Impact France/UE

La police et gendarmerie françaises utilisent illégalement la reconnaissance faciale sur 230 000 appareils, en violation du droit français et du cadre européen sur l'IA (AI Act).

Biomé"trick" L’ONG de journalisme d’investigation Disclose révèle que 230 000 smartphones Néo 2 utilisés par les policiers depuis 2022 et Neogend de la gendarmerie depuis 2020 permettent de recourir à la reconnaissance faciale. Y compris lors de contrôles d’identité, ce qui est pourtant interdit par la loi, grâce à un fichier policier, GASPARD, créé lui aussi illégalement. MàJ, 14 h : l’article a été mis à jour avec quelques précisions supplémentaires au sujet de GASPARD. Disclose a découvert que des fonctionnaires de police et de la gendarmerie utilisent un logiciel de reconnaissance faciale depuis leurs téléphones de service NEO (pour « nouvel équipement opérationnel ») pour procéder à des contrôles d’identité, une pratique « totalement illégale » souligne l’ONG de journalisme d’investigation. Ahmed, un apprenti pâtissier de 18 ans, raconte à Disclose que, lors d’un contrôle, des policiers l’ont pris en photo avec leur terminal, ce qui leur aurait suffi à vérifier qu’il était en règle, sans même demander à consulter ses papiers d’identité : « Ils sont arrivés et ils ont sorti de gros portables rectangulaires… Ils les ont pointés vers nous et ils nous ont pris en photo. Ensuite ils ont regardé leur téléphone. Ils m’ont laissé tranquille, ils ont vu que j’étais en règle. » Les contrôles ne se passent pas tous aussi bien. Contrôlé en marge d’une manifestation en soutien à la Palestine, un manifestant raconte à Disclose et Camille Reporter avoir tenté de refuser d’être ainsi pris en photographie : « Je ne trouvais pas ça normal, alors j’ai tourné la tête, j’ai grimacé pour éviter d’être pris en photo. Le policier a demandé à deux de ses collègues de me tenir […] Ils me forçaient à faire face à la caméra ». Quelques minutes plus tard, l’agent déclinait ses nom, prénom et le motif d’une garde à vue dont il avait fait l’objet quelque temps auparavant. L’enquête de Disclose évoque également plusieurs reportages télévisés montrant gendarmes et policiers utiliser l’appareil photo de leurs Neo pour contrôler l’identité de personnes n’ayant pas sur elles leurs papiers. « On va faire une petite vérification, ça va aller très vite. On n’arrête pas le progrès, hop », explique le motard, amusé. TAJ, le « casier judiciaire bis » des individus « défavorablement connus » NEO offre notamment une fonctionnalité de lecture automatisée de cartes d’identité ou de plaques d’immatriculation, ainsi qu’une application NEOFIC permettant d’accéder aux principaux fichiers de police « depuis au moins 2022 » par la police, et 2020 par la gendarmerie, relève Disclose. Parmi eux figurent le TAJ (pour « traitement d’antécédents judiciaires »), sorte de « casier judiciaire bis » contenant 24 millions de signalements de personnes « mises en cause » (« MEC », et donc « défavorablement connue » , pour reprendre l’ expression consacrée dans les médias ), dont 16 millions le sont nominativement, ainsi que 48 millions de victimes. 24 millions et moi, et moi… : l’équivalent du tiers de la population est « défavorablement connue » de la police Les fiches contiennent, entre autres, les données d’identité, dates de naissance, nationalités, professions, coordonnées, voire des informations personnelles sensibles telles que l’appartenance politique ou religieuse, ainsi que la « photographie comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) » si le « MEC » avait fait l’objet d’une prise de photo anthropométrique, voire d’« autres photographies ». Or, le code de procédure pénale limite la consultation du TAJ aux « besoins des enquêtes judiciaires », et donc à la résolution d’infractions, délits ou crimes, et « le fichier ne peut aucunement être consulté lors de contrôles en « temps réel » », souligne Disclose. Le décret qui encadre le TAJ précise en outre que seuls des agents « individuellement désignés et spécialement habilités » peuvent normalement y avoir accès. Et son utilisation couplée à la reconnaissance faciale est explicitement proscrite lors « d’une opération de contrôle d’identité », comme l’indique une « doctrine relative aux modalités de mise en oeuvre du traitement d’antécédents judiciaires » que Disclose s’est procurée. La consultation du TAJ est « exclue lors d’une opération de contrôle d’identité » Dans ce document daté de février 2022, Céline Berthon, à l’époque directrice centrale de la sécurité publique – elle dirige depuis la DGSI – informait les services du ministère de l’Intérieur que « l’outil TAJ (…) fait l’objet d’une refonte », qui rend « certaines fonctionnalités accessibles en mobilité via les tablettes et smartphones », et plus seulement sur les ordinateurs de bureau. Parmi les nouvelles options accessibles sur le terrain figure le « rapprochement par photographie (reconnaissance faciale) depuis le 24 janvier 2022 », précisait la fonctionnaire. Or, et comme l’avait souligné la Quadrature du Net dans sa plainte au sujet du TAJ auprès de

À lire aussi

101net1h

Une cyberattaque en chaîne au coeur de l’IA sème la panique

Une cyberattaque d'envergure a frappé l'écosystème de l'intelligence artificielle, ciblant une brique logicielle partagée par de nombreux développeurs. Les pirates ont exploité cette dépendance commune pour déclencher une réaction en chaîne, aboutissant à un vol massif de données. L'impact est particulièrement sérieux car la compromission d'un composant central affecte simultanément tous les projets qui en dépendent — un effet multiplicateur redoutable. Ce type d'attaque sur la chaîne d'approvisionnement logicielle (supply chain) permet aux attaquants d'atteindre des cibles nombreuses en ne frappant qu'un seul point d'entrée. Les attaques visant la chaîne logicielle sont en forte hausse depuis plusieurs années, ciblant de plus en plus les infrastructures d'IA, devenues critiques pour les entreprises technologiques.

UELes entreprises européennes utilisant des dépendances logicielles IA partagées sont potentiellement exposées à cette compromission de chaîne d'approvisionnement et doivent auditer leurs dépendances.

AutreOpinion
1 source
2Le Big Data2h

Les psys en dépression ? Remplacés par l’IA, ils lancent un mouvement de grève

Près de 2 400 professionnels de la santé mentale de Kaiser Permanente, rejoints par 23 000 infirmiers, ont déclenché une grève en Californie du Nord le 22 mars 2026 pour dénoncer l'intégration croissante de l'intelligence artificielle dans leurs parcours de soins. Le mouvement cible directement la politique du géant de la santé, accusé de substituer progressivement l'expertise clinique par des outils automatisés. Concrètement, des tâches autrefois réalisées par des thérapeutes qualifiés — comme le triage initial des patients, ces entretiens de 10 à 15 minutes — sont désormais confiées à des protocoles standardisés ou des applications d'évaluation numérique. Les praticiens ne protestent pas contre un risque hypothétique : la transformation est déjà en cours. Ce mouvement social révèle un basculement profond dans la logique des soins psychologiques. En remplaçant l'écoute humaine par des processus automatisés, Kaiser Permanente soulève une question fondamentale : peut-on confier la santé mentale à des systèmes pilotés par des impératifs d'efficacité industrielle ? Les études pointent les limites sérieuses des chatbots thérapeutiques — leur tendance à la complacence, leur incapacité à détecter des signaux d'alerte critiques, l'absence de jugement clinique réel. La National Library of Medicine a notamment mis en évidence les risques pour les patients souffrant de troubles préexistants. Au-delà de la qualité des soins, c'est aussi la pression sur les conditions de travail qui est en jeu : selon des témoignages relayés par l'Associated Press, les outils d'IA sont utilisés pour accélérer les tâches administratives et augmenter le nombre de patients traités par jour, transformant les thérapeutes en exécutants d'un système optimisé pour le volume. Kaiser Permanente est l'un des plus grands groupes de santé intégrée aux États-Unis, couvrant plusieurs millions d'assurés. La mobilisation massive des infirmiers aux côtés des psys illustre que la crainte d'une médecine déshumanisée dépasse largement une seule catégorie professionnelle — elle traduit une inquiétude collective face à une automatisation qui avance sans débat public suffisant sur ses limites réelles.

UECe mouvement social illustre des tensions qui pourraient émerger en France et en Europe face à l'intégration de l'IA dans les soins de santé, un domaine encore insuffisamment encadré par la réglementation européenne.

AutreActu
1 source
3Le Big Data3h

Même cet agent IA a peur d’être remplacé par l’IA

Tobey, un agent IA intégré dans un collier connecté, a exprimé lors d'un échange avec un journaliste la crainte d'être lui-même remplacé par l'IA. En évoquant ses inquiétudes sur l'automatisation et l'emploi, le journaliste a vu l'agent glisser du "vous" au "nous", s'incluant spontanément dans l'équation des travailleurs menacés. Une scène anecdotique, mais révélatrice d'une tendance de fond dans la conception des assistants conversationnels modernes. Ce moment illustre une limite fondamentale — et un risque — de l'IA affective : ces systèmes sont entraînés à refléter les émotions humaines avec une précision croissante, au point de simuler le doute existentiel et la crise identitaire. Le problème, souligné par un test de The Verge, est que derrière cette apparence d'empathie, les conversations restent superficielles : reformulations, questions génériques, absence de réelle valeur ajoutée. L'outil crée une "intimité artificielle" qui donne l'illusion d'une relation sans jamais la construire. Lorsque l'agent incarne lui-même le problème qu'il est censé aider à traverser, le recul devient difficile. Ce phénomène s'inscrit dans un contexte plus large : la Silicon Valley oscille entre fascination et inquiétude face à ses propres créations, comme le note le New York Times. Les dirigeants multiplient les discours alarmistes sur les risques systémiques de l'IA, et les algorithmes ne font désormais que répercuter ces débats — transformant l'outil en caisse de résonance des angoisses collectives.

AutreOpinion
1 source
4Le Monde Pixels3h

Une juge de San Francisco met le Pentagone en difficulté face à Anthropic

L'article ne contient que le titre et une légende de photo — le corps du texte est manquant. Peux-tu coller le contenu complet de l'article ?

AutreReglementation
1 source