Fiabilité de la reconnaissance faciale
-
Une femme enceinte innocente emprisonnée au milieu d’une tendance à la reconnaissance faciale défectueuse.
Les services de police américains continuent d’utiliser la technologie malgré une faible précision et des inadéquations évidentes.
Des études ont montré que la technologie de reconnaissance faciale existante est plus susceptible de générer des faux positifs avec des visages noirs.L’utilisation d’un logiciel de reconnaissance faciale a conduit la police de Detroit à arrêter à tort Porcha Woodruff, 32 ans, pour vol et détournement de voiture, rapporte le New York Times. Enceinte de huit mois, elle a été détenue pendant 11 heures, interrogée et s’est fait saisir son iPhone comme preuve avant d’être libérée. Il s’agit de la dernière d’une série de fausses arrestations dues à l’utilisation de la technologie de reconnaissance faciale, qui, selon de nombreux critiques, n’est pas fiable.
L’erreur semble particulièrement notable car les images de surveillance utilisées pour identifier à tort Woodruff ne montraient pas de femme enceinte, et Woodruff était très visiblement enceinte au moment de son arrestation.
L’incident a commencé par une recherche automatisée de reconnaissance faciale par le département de police de Detroit. Un homme victime d’un vol a signalé le crime et la police a utilisé DataWorks Plus pour exécuter des séquences vidéo de surveillance sur une base de données de photos d’identité criminelles. La photo d’identité de Woodruff en 2015 lors d’une précédente arrestation sans rapport a été identifiée comme une correspondance. Après cela, la victime a confirmé à tort son identité à partir d’une série de photos, ce qui a conduit à son arrestation.
Woodruff a été accusé devant le tribunal de vol qualifié et de détournement de voiture avant d’être libéré moyennant une caution personnelle de 100 000 $. Un mois plus tard, les accusations portées contre elle ont été rejetées par le procureur du comté de Wayne. Woodruff a intenté une action en justice pour arrestation injustifiée contre la ville de Detroit, et le chef de la police de Detroit, James E. White, a déclaré que les allégations étaient préoccupantes et que l’affaire était prise au sérieux.
Selon le New York Times, cet incident est le sixième cas récemment signalé où un individu a été faussement accusé à la suite de la technologie de reconnaissance faciale utilisée par la police, et le troisième à avoir lieu à Detroit. Les six personnes faussement accusées étaient noires . Le département de police de Detroit effectue en moyenne 125 recherches de reconnaissance faciale par an, presque exclusivement sur des hommes noirs, selon les données examinées par le Times.
La ville de Détroit fait actuellement face à trois procès liés à des arrestations injustifiées basées sur l’utilisation de la technologie de reconnaissance faciale. Des groupes de défense, dont l’American Civil Liberties Union du Michigan, appellent à davantage de preuves dans les cas impliquant des fouilles faciales automatisées, ainsi qu’à la fin des pratiques qui ont conduit à de fausses arrestations.
L’arrestation de Woodruff et la tendance récente des fausses arrestations ont déclenché un nouveau cycle dans un débat en cours sur la fiabilité de la technologie de reconnaissance faciale dans les enquêtes criminelles. Les critiques disent que la tendance met en évidence les faiblesses de la technologie de reconnaissance faciale et les risques qu’elle pose aux personnes innocentes.
C’est particulièrement risqué pour les personnes à la peau foncée. Un article de 2020 sur le site Web de l’Université de Harvard par Alex Najibi détaille la discrimination raciale omniprésente dans la technologie de reconnaissance faciale, mettant en évidence des recherches qui démontrent des problèmes importants avec l’identification précise des individus noirs.
Un rapport de 2022 de Georgetown Law sur l’utilisation de la reconnaissance faciale dans les forces de l’ordre a révélé que “malgré 20 ans de recours à la reconnaissance faciale comme technique d’enquête médico-légale, la fiabilité de la reconnaissance faciale telle qu’elle est généralement utilisée dans les enquêtes criminelles n’a pas encore été établie”.
En outre, une déclaration de Georgetown sur son rapport de 2022 a déclaré qu’en tant qu’outil d’enquête biométrique, la reconnaissance faciale “peut être particulièrement sujette aux erreurs résultant d’un jugement humain subjectif, de biais cognitifs, de preuves de mauvaise qualité ou manipulées et d’une technologie sous-performante” et qu’il “ne fonctionne pas assez bien pour servir de manière fiable les objectifs pour lesquels les forces de l’ordre elles-mêmes veulent l’utiliser”.
La faible précision de la technologie de reconnaissance faciale provient de plusieurs sources, notamment des algorithmes non éprouvés, des biais dans les ensembles de données de formation, des angles de photo différents et des images de mauvaise qualité utilisées pour identifier les suspects. De plus, la structure faciale n’est pas un identifiant aussi unique que les gens le pensent, en particulier lorsqu’elle est combinée à d’autres facteurs, comme des données de mauvaise qualité.
Ce faible taux de précision semble encore plus gênant lorsqu’il est associé à un phénomène appelé biais d’automatisation , qui est la tendance à faire confiance aux décisions des machines, malgré les preuves potentielles du contraire.
Ces problèmes ont conduit certaines villes à interdire son utilisation , notamment San Francisco, Oakland et Boston. Reuters a rapporté en 2022, cependant, que certaines villes commençaient à repenser les interdictions de reconnaissance faciale en tant qu’outil de lutte contre la criminalité au milieu “d’une augmentation de la criminalité et d’un lobbying accru de la part des développeurs”.
Quant à Woodruff, son expérience l’a laissée hospitalisée pour déshydratation et profondément traumatisée. Son avocat, Ivan L. Land, a souligné au Times la nécessité pour la police de mener une enquête plus approfondie après un coup de reconnaissance faciale, plutôt que de se fier uniquement à la technologie. “C’est effrayant. Je suis inquiet”, a-t-il dit. “Quelqu’un ressemble toujours à quelqu’un d’autre.”