
La reconnaissance faciale se généralise
La reconnaissance faciale, technologie vieille de soixante ans, a connu un tournant décisif il y a une dizaine d'années avec l'essor du deep learning. Aujourd'hui, elle est déployée par les commerçants, les services d'immigration et les forces de l'ordre à une échelle sans précédent. Aux États-Unis, l'agence ICE utilise depuis juin 2025 l'application Mobile Fortify pour effectuer des recherches biométriques : plus de 100 000 requêtes en six mois, contre une base de données contenant au moins 1,2 milliard d'images. En 2026, des agents de l'immigration ont confondu une femme détenue avec deux personnes différentes — illustration concrète des dérives possibles. En 2023, une décision de justice a interdit à la chaîne de pharmacies Rite Aid d'utiliser la technologie pendant cinq ans, après qu'elle eut recouru à un algorithme racialement biaisé. En 2020, Robert Williams avait été arrêté à tort à Detroit, conduisant à un accord imposant des garde-fous à la police locale.
Le problème central est celui des erreurs systémiques. Toute technologie de reconnaissance faciale doit arbitrer entre faux positifs (identifier quelqu'un qui n'est pas la cible) et faux négatifs (rater la vraie cible). Dans des conditions optimales — photo passeport comparée à un cliché net — le taux de faux positifs descend sous un cas par million. Mais en conditions réelles, avec des images de surveillance de mauvaise qualité, des algorithmes entraînés sur des données biaisées ou des opérateurs pressés, les erreurs explosent. Le Royaume-Uni a estimé que certains groupes — femmes, personnes à la peau foncée — s'exposaient à un risque de mauvaise identification jusqu'à cent fois supérieur à celui des autres. À l'échelle d'une ville d'un million d'habitants, même un système à 99,9 % de précision génère des milliers de victimes potentielles d'erreurs judiciaires.
Ces risques s'inscrivent dans un contexte de déploiement massif et largement non encadré. Les usages se sont multipliés bien plus vite que les régulations : foires commerciales, aéroports, opérations policières, contrôles aux frontières. La base de 1,2 milliard d'images d'ICE est symptomatique d'une logique de surveillance totale, où la taille même du corpus garantit des erreurs en masse — avec un taux d'erreur au moins dix fois plus élevé pour les personnes à peau foncée selon les sous-groupes. Un usage responsable exigerait des vérifications indépendantes, des sources de données croisées et une traçabilité claire des décisions algorithmiques. Ni le cadre législatif américain, ni les pratiques actuelles des agences fédérales, ne semblent aujourd'hui à la hauteur de ces exigences.
L'AI Act européen interdit la reconnaissance faciale en temps réel dans les espaces publics, offrant aux citoyens français et européens un cadre réglementaire bien plus protecteur que le vide juridique américain décrit dans l'article.


