Des caméras IA alimentées par Amazon utilisées pour détecter les émotions anormales des passagers des trains britanniques
-
Les caméras de vidéosurveillance et l’IA sont combinées pour surveiller les foules, détecter les vols de vélos et repérer les intrus.
Et ce, bien avant les J.O.
Des milliers de personnes prenant le train au Royaume-Uni ont probablement vu leur visage scanné par le logiciel Amazon dans le cadre d’essais généralisés d’intelligence artificielle, révèlent de nouveaux documents . Le système de reconnaissance d’images a été utilisé pour prédire l’âge, le sexe et les émotions potentielles des voyageurs, avec la suggestion que les données pourraient être utilisées dans les systèmes publicitaires à l’avenir.
Au cours des deux dernières années, huit gares du Royaume-Uni, dont de grandes gares telles que Euston et Waterloo à Londres, Manchester Piccadilly et d’autres gares plus petites, ont testé la technologie de surveillance par IA avec des caméras de vidéosurveillance dans le but d’alerter le personnel des incidents de sécurité et potentiellement réduire certains types de criminalité.
Les essais approfondis, supervisés par l’organisme d’infrastructure ferroviaire Network Rail, ont utilisé la reconnaissance d’objets (un type d’ apprentissage automatique capable d’identifier des éléments dans des flux vidéo) pour détecter les personnes intrusives sur les voies, surveiller et prédire la surpopulation des quais, identifier les comportements antisociaux (« courir, crier »). , faire du skateboard, fumer ») et repérer les voleurs de vélos potentiels. Des essais distincts ont utilisé des capteurs sans fil pour détecter les sols glissants, les poubelles pleines et les canalisations susceptibles de déborder.
La portée des essais sur l’IA, dont des éléments ont déjà été rapportés , a été révélée dans une cache de documents obtenus en réponse à une demande d’accès à l’information du groupe de défense des libertés civiles Big Brother Watch. “Le déploiement et la normalisation de la surveillance par l’IA dans ces espaces publics, sans beaucoup de consultations et de conversations, constituent une étape assez préoccupante”, déclare Jake Hurfurt, responsable de la recherche et des enquêtes du groupe.
Les essais d’IA ont utilisé une combinaison de caméras de vidéosurveillance « intelligentes » capables de détecter des objets ou des mouvements à partir des images qu’elles capturent et de caméras plus anciennes dont les flux vidéo sont connectés à une analyse basée sur le cloud. Entre cinq et sept caméras ou capteurs ont été inclus dans chaque station, notent les documents datés d’avril 2023. Une feuille de calcul répertorie 50 cas d’utilisation possibles de l’IA, même si tous ne semblent pas avoir été utilisés dans les tests. Une station, London Euston, devait tester un système de détection du « risque de suicide », mais les documents indiquent que la caméra est tombée en panne et que le personnel n’a pas vu la nécessité de la remplacer car la station était une station « terminus ».
Hurfurt affirme que l’élément le plus « préoccupant » des essais s’est concentré sur « la démographie des passagers ». Selon les documents, cette configuration pourrait utiliser les images des caméras pour produire une « analyse statistique de la tranche d’âge et des données démographiques hommes/femmes », et est également capable « d’analyser les émotions » telles que « heureux, triste et en colère ».
Les images ont été capturées lorsque des personnes franchissaient un « fil-piège virtuel » près des barrières de contrôle des tickets, et ont été envoyées pour être analysées par le système Rekognition d’Amazon, qui permet l’analyse des visages et des objets . Cela pourrait permettre de mesurer la « satisfaction » des passagers, indiquent les documents, notant que « ces données pourraient être utilisées pour maximiser les revenus publicitaires et de vente au détail ».
Les chercheurs en IA ont souvent averti que l’utilisation de la technologie pour détecter les émotions n’est « pas fiable », et certains affirment que la technologie devrait être interdite en raison de la difficulté de déterminer ce que quelqu’un peut ressentir à partir de l’audio ou de la vidéo. En octobre 2022, le régulateur britannique des données, l’Information Commissioner’s Office, a publié une déclaration publique mettant en garde contre l’utilisation de l’analyse des émotions, affirmant que les technologies sont « immatures » et « qu’elles pourraient ne pas fonctionner encore, voire jamais ».
Network Rail n’a pas répondu aux questions sur les essais envoyés par WIRED, y compris aux questions sur l’état actuel de l’utilisation de l’IA, la détection des émotions et les problèmes de confidentialité.
“Nous prenons la sécurité du réseau ferroviaire extrêmement au sérieux et utilisons une gamme de technologies avancées dans nos gares pour protéger les passagers, nos collègues et l’infrastructure ferroviaire contre la criminalité et d’autres menaces”, a déclaré un porte-parole de Network Rail. “Lorsque nous déployons des technologies, nous travaillons avec la police et les services de sécurité pour garantir que nous prenons des mesures proportionnées, et nous respectons toujours la législation en vigueur concernant l’utilisation des technologies de surveillance.”
On ne sait pas exactement dans quelle mesure l’analyse de détection des émotions a été déployée, les documents indiquant parfois que le cas d’utilisation devrait être « considéré avec plus de prudence » et les rapports des stations affirmant qu’il est « impossible de valider l’exactitude ». Cependant, Gregory Butler, PDG de la société d’analyse de données et de vision par ordinateur Purple Transform, qui a travaillé avec Network Rail sur les essais, affirme que la fonctionnalité a été interrompue pendant les tests et qu’aucune image n’a été stockée lorsqu’elle était active.
Les documents de Network Rail sur les essais d’IA décrivent plusieurs cas d’utilisation impliquant la possibilité pour les caméras d’envoyer des alertes automatisées au personnel lorsqu’elles détectent certains comportements. Aucun des systèmes n’utilise la technologie controversée de reconnaissance faciale , qui vise à faire correspondre l’identité des personnes à celles stockées dans les bases de données.
« L’un des principaux avantages est la détection plus rapide des incidents d’intrusion », explique Butler, qui ajoute que le système d’analyse de son entreprise, SiYtE, est utilisé sur 18 sites, y compris les gares et le long des voies ferrées. Au cours du mois dernier, dit Butler, il y a eu cinq cas graves d’intrusion détectés par les systèmes sur deux sites, notamment un adolescent ramassant une balle sur les pistes et un homme « passant plus de cinq minutes à ramasser des balles de golf le long d’un train à grande vitesse ». doubler."
À la gare de Leeds, l’une des plus fréquentées en dehors de Londres , il y a 350 caméras de vidéosurveillance connectées à la plateforme SiYtE, explique Butler. « Les analyses sont utilisées pour mesurer le flux de personnes et identifier des problèmes tels que l’encombrement des plates-formes et, bien sûr, les intrusions, où la technologie peut filtrer les travailleurs à travers leur uniforme EPI », dit-il. « L’IA aide les opérateurs humains, qui ne peuvent pas surveiller toutes les caméras en permanence, à évaluer et à résoudre rapidement les risques et les problèmes de sécurité. »
Les documents de Network Rail affirment que les caméras utilisées dans une gare, Reading, ont permis à la police d’accélérer les enquêtes sur les vols de vélos en étant capable d’identifier les vélos dans les images. “Il a été établi que même si les analyses ne pouvaient pas détecter avec certitude un vol, elles pouvaient détecter une personne avec un vélo”, indiquent les dossiers. Ils ajoutent également que les nouveaux capteurs de qualité de l’air utilisés dans les essais pourraient permettre au personnel de gagner du temps en effectuant des contrôles manuels. Une instance d’IA utilise les données des capteurs pour détecter les sols « transpirants », devenus glissants à cause de la condensation, et alerter le personnel lorsqu’ils doivent être nettoyés.
Bien que les documents détaillent certains éléments des essais, les experts en matière de protection de la vie privée se disent préoccupés par le manque général de transparence et de débat sur l’utilisation de l’IA dans les espaces publics. Dans un document conçu pour évaluer les problèmes de protection des données avec les systèmes, Hurfurt de Big Brother Watch affirme qu’il semble y avoir une « attitude dédaigneuse » envers les personnes susceptibles d’avoir des problèmes de confidentialité. Une question se pose : « Certaines personnes sont-elles susceptibles de s’y opposer ou de trouver cela intrusif ? » Un membre du personnel écrit : « Généralement, non, mais il n’y a pas de comptabilité pour certaines personnes. »
Dans le même temps, des systèmes de surveillance similaires utilisant l’IA, qui utilisent cette technologie pour surveiller les foules, sont de plus en plus utilisés dans le monde. Lors des Jeux Olympiques de Paris en France plus tard cette année, la vidéosurveillance par IA surveillera des milliers de personnes et tentera de détecter les afflux de foule, l’utilisation d’armes et les objets abandonnés .
“Les systèmes qui n’identifient pas les personnes sont meilleurs que ceux qui le font, mais je crains une pente glissante”, déclare Carissa Véliz, professeure agrégée de psychologie à l’Institut d’éthique de l’IA de l’Université d’Oxford. Véliz souligne des essais d’IA similaires dans le métro de Londres qui avaient initialement flouté les visages de personnes qui auraient pu éviter les tarifs, mais qui avaient ensuite changé d’approche, en éliminant le flou des photos et en conservant les images plus longtemps que prévu initialement.
«Il existe une volonté très instinctive d’étendre la surveillance», explique Véliz. « Les êtres humains aiment voir plus, voir plus loin. Mais la surveillance conduit au contrôle, et le contrôle à une perte de liberté qui menace les démocraties libérales.»
Source: https://www.wired.com/story/amazon-ai-cameras-emotions-uk-train-passengers/
-
Orwell est un prophète !
-
Non non ne vous inquiétez pas, on aura jamais de modèle à la chinoise
On y est