Aller au contenu principal
☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée
SécuritéNext INpact6sem

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

Résumé IASource uniqueImpact UE
Source originale ↗·

Angela Lipps, 50 ans, mère et grand-mère résidant à Elizabethton dans le Tennessee, a été arrêtée le 14 juin 2025 à son domicile et incarcérée pendant cinq mois pour des fraudes bancaires commises à Fargo, dans le Dakota du Nord — un État qu'elle n'avait jamais visité. Le mandat d'arrêt avec demande d'extradition nationale avait été signé le 1er juillet par un juge du Dakota du Nord, treize jours avant son arrestation sous les yeux de ses petits-enfants. Après trois mois de détention dans les prisons du Tennessee, elle a été transférée au Dakota du Nord le 30 octobre, c'était la première fois qu'elle prenait l'avion. Ce n'est qu'à ce moment qu'un avocat lui a été assigné, lequel a rapidement démontré, relevés bancaires à l'appui, qu'elle ne s'était jamais absentée du Tennessee durant la période des fraudes. L'affaire a été classée sans préjudice le 23 décembre 2025.

Ce dossier illustre avec une brutalité rare les dérives concrètes des systèmes de reconnaissance faciale déployés sans garde-fous suffisants. À l'origine de l'erreur : un outil de Clearview AI utilisé par la police de West Fargo, qui avait identifié Angela Lipps comme « suspect potentiel présentant des traits similaires ». Ces images ont été transmises à la police de Fargo, dont un enquêteur les a prises pour des images de surveillance classiques, sans réaliser qu'elles étaient le produit d'un algorithme. Aucune vérification supplémentaire sérieuse n'a été effectuée avant d'émettre un mandat national. Résultat : une femme innocente a passé cinq mois derrière les barreaux, séparée de sa famille, sans accès à un avocat ni aux éléments de l'enquête pendant la majeure partie de sa détention.

Cette affaire s'inscrit dans une série de cas documentés aux États-Unis où la reconnaissance faciale a conduit à des arrestations erronées, touchant de manière disproportionnée des personnes racisées ou, comme ici, des individus n'ayant aucun moyen immédiat de prouver leur innocence. La police de Fargo a depuis annoncé qu'elle n'utiliserait plus les résultats des systèmes de West Fargo, faute de comprendre leur fonctionnement — aveu qui soulève autant de questions qu'il n'en résout. Le directeur des forces de l'ordre Dave Zibolski a évoqué des mesures disciplinaires pour les policiers impliqués, et les bureaux du procureur du Dakota se sont déclarés « très intéressés » par des formations sur les risques liés à ces technologies. Les avocats d'Angela Lipps cherchent toujours à obtenir des explications sur les raisons pour lesquelles leur cliente a été maintenue en détention aussi longtemps sans défense juridique. Aucune excuse officielle ne lui a été présentée à ce jour.

Impact France/UE

Ce cas américain documenté conforte les choix réglementaires de l'UE : l'AI Act interdit la reconnaissance faciale biométrique en temps réel dans les espaces publics, et Clearview AI est déjà sanctionné par la CNIL et plusieurs autorités européennes — cet incident illustre précisément les dérives que ces règles visent à prévenir.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

La reconnaissance faciale se généralise
1IEEE Spectrum AI 

La reconnaissance faciale se généralise

La reconnaissance faciale, technologie vieille de soixante ans, a connu un tournant décisif il y a une dizaine d'années avec l'essor du deep learning. Aujourd'hui, elle est déployée par les commerçants, les services d'immigration et les forces de l'ordre à une échelle sans précédent. Aux États-Unis, l'agence ICE utilise depuis juin 2025 l'application Mobile Fortify pour effectuer des recherches biométriques : plus de 100 000 requêtes en six mois, contre une base de données contenant au moins 1,2 milliard d'images. En 2026, des agents de l'immigration ont confondu une femme détenue avec deux personnes différentes — illustration concrète des dérives possibles. En 2023, une décision de justice a interdit à la chaîne de pharmacies Rite Aid d'utiliser la technologie pendant cinq ans, après qu'elle eut recouru à un algorithme racialement biaisé. En 2020, Robert Williams avait été arrêté à tort à Detroit, conduisant à un accord imposant des garde-fous à la police locale. Le problème central est celui des erreurs systémiques. Toute technologie de reconnaissance faciale doit arbitrer entre faux positifs (identifier quelqu'un qui n'est pas la cible) et faux négatifs (rater la vraie cible). Dans des conditions optimales — photo passeport comparée à un cliché net — le taux de faux positifs descend sous un cas par million. Mais en conditions réelles, avec des images de surveillance de mauvaise qualité, des algorithmes entraînés sur des données biaisées ou des opérateurs pressés, les erreurs explosent. Le Royaume-Uni a estimé que certains groupes — femmes, personnes à la peau foncée — s'exposaient à un risque de mauvaise identification jusqu'à cent fois supérieur à celui des autres. À l'échelle d'une ville d'un million d'habitants, même un système à 99,9 % de précision génère des milliers de victimes potentielles d'erreurs judiciaires. Ces risques s'inscrivent dans un contexte de déploiement massif et largement non encadré. Les usages se sont multipliés bien plus vite que les régulations : foires commerciales, aéroports, opérations policières, contrôles aux frontières. La base de 1,2 milliard d'images d'ICE est symptomatique d'une logique de surveillance totale, où la taille même du corpus garantit des erreurs en masse — avec un taux d'erreur au moins dix fois plus élevé pour les personnes à peau foncée selon les sous-groupes. Un usage responsable exigerait des vérifications indépendantes, des sources de données croisées et une traçabilité claire des décisions algorithmiques. Ni le cadre législatif américain, ni les pratiques actuelles des agences fédérales, ne semblent aujourd'hui à la hauteur de ces exigences.

UEL'AI Act européen interdit la reconnaissance faciale en temps réel dans les espaces publics, offrant aux citoyens français et européens un cadre réglementaire bien plus protecteur que le vide juridique américain décrit dans l'article.

SécuritéOpinion
1 source
Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine
2Le Big Data 

Scandale dans l’IA : les États-Unis dénoncent un vol à grande échelle orchestré depuis la Chine

Le gouvernement américain a officiellement accusé la Chine de mener des campagnes de vol industriel à grande échelle ciblant les laboratoires d'intelligence artificielle du pays. Le 23 avril 2026, Michael Kratsios, directeur de l'Office of Science and Technology Policy (OSTP) à la Maison-Blanche, a publiquement dénoncé ces pratiques dans une note révélée par le Financial Times. Selon ce document, des entités étrangères, principalement chinoises, orchestrent des opérations de "distillation" massives : elles interrogent les modèles d'IA américains via des dizaines de milliers de proxies et de techniques de contournement (jailbreaking) pour en extraire les capacités et reproduire leurs performances à moindre coût. Washington a annoncé que des mesures concrètes seraient prises pour protéger l'innovation américaine. Ce type d'attaque, qualifié de "distillation industrielle", représente une menace sérieuse pour l'avance technologique des États-Unis. En exploitant massivement les API publiques ou en contournant les garde-fous des modèles commerciaux, des acteurs étrangers peuvent reconstituer des systèmes d'IA comparables sans financer les années de recherche et les milliards de dollars d'investissement qui ont permis de les créer. Pour des entreprises comme OpenAI, Anthropic ou Google DeepMind, cela signifie que leur propriété intellectuelle, algorithmes, données d'entraînement, capacités de raisonnement, peut être siphonnée à travers leurs propres interfaces. L'enjeu dépasse la concurrence commerciale : il touche directement à la compétitivité économique nationale et à la sécurité des infrastructures numériques américaines. Cette offensive diplomatique s'inscrit dans un contexte de rivalité technologique croissante entre Washington et Pékin, qui s'est intensifiée depuis les restrictions américaines sur l'exportation de puces avancées vers la Chine en 2022 et 2023. Côté chinois, des acteurs comme DeepSeek ont démontré qu'il était possible de produire des modèles très performants à faible coût, alimentant les soupçons sur leurs méthodes. La montée en puissance de l'OSTP sur ce dossier signale une volonté de l'administration de traiter la protection de l'IA comme une question de sécurité nationale à part entière. Les prochaines mesures pourraient inclure des restrictions d'accès aux modèles, un renforcement des contrôles sur les API, voire des sanctions. La réaction de l'industrie sera déterminante : certains observateurs n'ont pas manqué de noter l'ironie d'un secteur qui a lui-même largement entraîné ses modèles sur des données tierces sans toujours en demander la permission.

UELes acteurs européens utilisant les API des grands modèles américains pourraient être indirectement affectés si Washington impose des restrictions d'accès ou des contrôles renforcés dans le cadre de sa politique de protection de l'IA.

SécuritéReglementation
1 source
Les États-Unis accusent la Chine de vol de données IA à grande échelle, Pékin dément
3Ars Technica AI 

Les États-Unis accusent la Chine de vol de données IA à grande échelle, Pékin dément

Les États-Unis se préparent à durcir leur réponse face à ce qu'ils qualifient de vol massif de propriété intellectuelle dans le domaine de l'intelligence artificielle. Michael Kratsios, directeur du Bureau de la politique scientifique et technologique de la Maison Blanche, a alerté dans une note interne consultée par le Financial Times que "des entités étrangères, principalement basées en Chine, mènent des campagnes délibérées et à l'échelle industrielle pour distiller les systèmes d'IA frontière américains." Les accusations concrètes s'accumulent depuis plusieurs mois : en janvier, Google a signalé que des acteurs "commercialement motivés" avaient sollicité son modèle Gemini plus de 100 000 fois pour entraîner des copies moins coûteuses. En février, Anthropic a révélé que les entreprises chinoises DeepSeek, Moonshot et MiniMax avaient généré plus de 16 millions d'échanges avec Claude via environ 24 000 comptes frauduleux. OpenAI a confirmé au même moment que la majorité des attaques qu'elle détecte proviennent de Chine. La technique incriminée, appelée "distillation", consiste à interroger massivement un modèle IA existant pour en extraire les comportements et reproduire ses capacités à moindre coût. Pour les laboratoires américains, il s'agit d'un contournement délibéré de leur avantage concurrentiel : des années de recherche et des milliards d'investissements potentiellement captés à travers de simples appels API. L'enjeu dépasse le seul plan commercial, car pour Washington, ces pratiques risquent d'accélérer la montée en puissance de la Chine dans la course à l'IA, réduisant l'écart technologique sans que Pékin n'ait eu à supporter les coûts de développement correspondants. La cristallisation de ces accusations coïncide avec le lancement de DeepSeek début 2025, un modèle chinois dont les performances ont suscité l'étonnement dans l'industrie et rapidement fait naître des soupçons. OpenAI avait affirmé que ses propres sorties de modèle auraient servi à entraîner ce concurrent. La Chine a rejeté l'ensemble de ces accusations, les qualifiant de "calomnies". Le contexte est celui d'une rivalité technologique croissante entre les deux puissances, déjà marquée par des contrôles américains à l'exportation sur les semi-conducteurs et les modèles avancés. La réponse réglementaire en préparation pourrait inclure des restrictions d'accès plus strictes aux API des grands modèles et des obligations de surveillance renforcées pour les entreprises du secteur.

UELes entreprises européennes dépendant des API des grands modèles américains pourraient être indirectement affectées si Washington durcit les contrôles d'accès en réponse aux abus détectés.

SécuritéActu
1 source
Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé
4Siècle Digital 

Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé

Anthropic travaille sur un nouveau modèle d'intelligence artificielle baptisé Claude Mythos, décrit en interne comme le système le plus puissant jamais développé par l'entreprise. Selon des documents internes dont le contenu a été révélé par le magazine Fortune, ce modèle surpasse les capacités de tous les modèles Claude actuellement disponibles. Malgré ses performances exceptionnelles, Anthropic a décidé de ne pas le lancer publiquement, du moins pas dans l'immédiat. La raison de cette retenue est précisément la puissance du modèle : Mythos serait jugé trop capable pour être diffusé sans précautions supplémentaires. Ce type de décision illustre un dilemme croissant dans le secteur — plus les modèles progressent, plus les questions de sécurité et d'évaluation des risques deviennent centrales avant tout déploiement. Pour les utilisateurs professionnels et les entreprises qui dépendent des API d'Anthropic, cela signifie que la frontière technologique réelle est désormais en avance sur ce qui est commercialement accessible. Anthropic se distingue depuis sa fondation en 2021 par une approche dite de « sécurité d'abord », à rebours d'OpenAI dont elle est issue. La fuite de ces informations internes intervient dans un contexte de compétition acharnée entre laboratoires d'IA — OpenAI, Google DeepMind, Meta et xAI se livrant une course aux modèles toujours plus puissants. Le cas Mythos soulève une question stratégique : jusqu'où les labos peuvent-ils retenir leurs meilleurs modèles sans perdre du terrain commercial, et comment définir objectivement le seuil au-delà duquel un modèle est « trop dangereux » pour être publié ?

UELes développeurs et entreprises européens utilisant l'API d'Anthropic n'auront pas accès aux capacités les plus avancées de Mythos, creusant l'écart entre la frontière technologique réelle et les outils commercialement disponibles.

SécuritéActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour