Minority Report: Le gouvernement britannique accusé de mettre au point un système secret de “prédiction des meurtres” par IA
-
Prédire les crimes, et appréhender voire punir à l’avance les futurs meurtriers: c’est un sujet classique de la science-fiction, mais les progrès des algorythmes et des moyens de surveillance le rendent d’autant plus crédible. Malgré le risque, déjà démontré, de constituer des biais envers certaine populations. Un risque que n’a pas hésité à prendre le gouvernement britannique avec un projet pilote lancé en 2015.
En 2002 sortait Minority Report, une adaptation de la nouvelle éponyme de Philip K. Dick mise en scène par Steven Spielberg. Un film de science-fiction décrivant un monde dans lequel les homicides n’existent plus car ils peuvent être prédits, et où une brigade spéciale de la police dirigée par Tom Cruise arrête en amont les futurs supposés meurtriers.
Algorythmes et prédiction des meurtres
Une dystopie qui ne parait plus si délirante, une vingtaine d’années plus tard, alors que les algorythmes et la suveillance généralisée sont devenus notre quotidien. Mais si c’est en Chine qui se cristallisaient ces inquiétudes, avec le système de “score social” mis en place dans le pays, l’Occident n’est certainement pas à l’abri des dérives. Selon The Guardian, le gouvernement britannique cherche activement à développer un véritable outil de prédiction des meurtres en identifiant les personnes susceptibles de les commettre.
Selon le quotidien britannique, le programme était à l’origine baptisé “homicide prediction project”, avant d’être renommé en “sharing data to improve risk assessment”, et il reste assez opaque. Il a été révélé par Statewatch, un groupe de soutien aux liberté civiles et de promotion du journalisme d’investigation. Le projet collecterait les données de personnes connues des autorités. Car déjà condamnées, mais aussi, selon Statewatch, parce qu’elles ont elles-même été victimes, qu’elles ont témoigné à la police, ou qu’elles sont considérées comme “vulnérables” pour des raison de santé. Ces informations personnelles sont ensuite analysées par un algorythmes qui détermine qui est le plus susceptible de commettre un crime violent dans un futur indéterminé.
Données de santé et profilage racial
Les données partagées inclueraient les noms, dates de naissance, sexe et origine ethnique, ainsi qu’un numéro identifiant les individus dans le fichier informatique national de la police. Certaines personnes seraient considérées comme “à risque” en raison de détails supposés avoir un “fort pouvoir prédictif”, en général liés à leur état de santé de santé mentale, à des addictions ou à des vulnérabilités particulières, ou encore des antécédents suicidaires ou d’automutilations.
“Les recherches ont montré à maintes reprises que les systèmes algorithmiques de ‘prédiction’ de la criminalité sont intrinsèquement défectueux”, insiste Sofia Lyall, chercheuse au sein de Statewatch. “Pourtant, le gouvernement poursuit ses efforts pour mettre au point des systèmes d’intelligence artificielle qui permettront de cataloguer des personnes comme criminelles avant même qu’elles n’aient fait quoi que ce soit.”
Car l’affaire n’a rien d’une obscure expérience des services secrets qui serait allée trop loin. L’initiative a été lancée en 2015 par le gouvernement précédent du conservateur Rishi Sunak, et dépend d’une collaboration entre le ministère de la Justice et celui de l’Intérieur. Les données utilisées pour développer l’outil de prédiction proviennent de la police du Grand Manchester et de la police métropolitaine de Londres.
Les données personnelles de 100 à 500.000 personnes auraient ainsi été partagées en tout discrétion pour “entrainer” une intelligence artificielle supposée capable de détecter de futurs criminels.
Jusqu’à 500.000 personnes dans le registre“[Ce modèle] renforcera et amplifiera la discrimination structurelle qui sous-tend le système juridique pénal”, insiste Sofia Lyall. “Comme d’autres systèmes de ce type, il codera les préjugés à l’égard des communautés racialisées et à faibles revenus. Construire un outil automatisé pour profiler les gens comme des criminels violents est profondément répréhensible, et utiliser des données aussi sensibles sur la santé mentale, la toxicomanie et le handicap est extrêmement intrusif et alarmant.”
De son côté, le gouvernement ne nie pas, mais tempère. “Ce projet est mené uniquement à des fins de recherche”, a déclaré un porte-parole du ministère de la Justice. “Il a été conçu à partir de données existantes détenues par les services pénitentiaires et de probation ainsi que par les forces de police concernant des délinquants condamnés, afin de mieux comprendre le risque que des personnes en probation commettent des actes de violence grave. Un rapport sera publié en temps voulu.”
Un concept banni dans l’UE
Le ministère élude au passage les accusations de collecte de données de personnes ayant eu un contact avec la police sans avoir été condamnées.
On notera au passage que l’année dernière, l’Union européenne avait de son côté légiféré pour interdire précisément ce genre de pratique. Le règlement européen sur l’IA, approuvé par l’ensemble des pays-membres en août 2024, interdit formellement les systèmes de “scoring social” qui classent les citoyens en fonction de l’agrégation et de l’analyse de leurs données. Mais aussi de la police “prédictive” qui tenterait d’estimer la probabilité que quelqu’un commette un crime. Mais bien sûr, la réglementation européenne ne s’applique pas au Royaume-Uni.