Confondue par une IA, une Américaine innocente passe près de six mois en prison
Une Américaine de 50 ans a passé près de six mois derrière les barreaux pour une fraude qu'elle n'a pas commise — seule « preuve » retenue contre elle : l'identification erronée d'un logiciel de reconnaissance faciale. Libérée sans ressources ni indemnisation immédiate, elle affirme avoir tout perdu : emploi, logement, vie sociale.
Cette affaire illustre une fois de plus les dérives documentées de la reconnaissance faciale appliquée à la justice pénale. Des études indépendantes ont montré que ces algorithmes affichent des taux d'erreur significativement plus élevés sur les femmes et les personnes à la peau foncée, soulevant des questions profondes sur l'équité du système judiciaire américain lorsqu'il s'appuie sur ces outils. Ce n'est pas un cas isolé : plusieurs affaires similaires ont déjà conduit à des arrestations injustifiées aux États-Unis, notamment à Detroit et à New Orleans.
L'identité précise de la victime et le nom du logiciel incriminé n'ont pas été rendus publics dans les informations disponibles, mais le schéma est désormais bien connu : une correspondance algorithmique, rarement contestée par les enquêteurs, suffit parfois à déclencher une arrestation, une mise en examen, puis une détention provisoire prolongée. Dans ce cas, la femme aurait subi près de six mois de détention avant que son innocence ne soit établie — un délai qui souligne les lenteurs du système face aux erreurs technologiques.
Des associations de défense des droits civiques, dont l'ACLU, réclament depuis plusieurs années un moratoire sur l'usage de la reconnaissance faciale dans les enquêtes criminelles. Cette nouvelle affaire devrait renforcer la pression sur les législateurs américains pour encadrer — voire interdire — le recours à ces technologies comme élément de preuve, sans vérification humaine approfondie et contradictoire.
Ce cas illustre les risques concrets des systèmes de reconnaissance faciale utilisés par les forces de l'ordre, un sujet directement encadré par l'AI Act européen qui restreint leur usage dans les espaces publics.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.


