Recours à l'IA pour sécuriser les JO de Paris
-
Mardi 24 janvier 2023, le Sénat a validé l’expérimentation polémique de la vidéosurveillance “augmentée” à l’occasion des Jeux olympiques de Paris 2024.
C’est un tournant majeur qui pourrait avoir lieu, discrètement. Le Sénat a entamé la discussion du projet de loi relatif aux Jeux olympiques et paralympiques, mardi 24 janvier 2023. Sous les plis de ce texte à l’initiative du gouvernement se cache en réalité un arsenal de mesures sécuritaires en vue de l’organisation des JO de Paris 2024.
Hier, son article 7 a été adopté au Palais du Luxembourg, validant l’expérimentation très polémique de la vidéosurveillance « augmentée » ou algorithmique (VSA). Pour la première fois en France, une intelligence artificielle pourrait analyser en temps réel les images des drones et des caméras de surveillance.
Pour ses partisans, cette technologie devrait donner des gages de sécurité lors de cet événement sous haute tension. Pour ses détracteurs, elle pourrait faire basculer la doctrine de maintien l’ordre dans une « société de surveillance ».
Le traumatisme du Stade de France plane sur les Jeux olympiques. En mai dernier, des violences avaient éclaté en marge de la finale de la Ligue des Champions. L’incapacité des autorités à organiser un événement de grande ampleur avait été largement pointé du doigt. Au moment même où Paris doit accueillir près 13 millions de spectateurs pour les JO.
Agnès Canayer, sénatrice de la Seine-Maritime (LR), et rapporteure du projet de loi olympique le reconnaît d’ailleurs volontiers. Le texte examiné au Parlement doit répondre aux « trous dans la raquette » constaté dans l’organisation de la compétition sportive. Pour ce faire, la loi entend fournir de « nouveaux outils » aux pouvoirs publics.
Parmi eux, on retrouve pêle-mêle : des scanners corporels, l’extension des pouvoirs du préfet de police de Paris, la vidéosurveillance « augmentée »… Une inflation du dispositif sécuritaire justifiée par les défenseurs du projet en raison « des risques terroristes majeurs » qui pèsent sur cet événement planétaire.
Mais cet argument ne tient pas debout pour une partie de l’opposition, qui voit dans ces Jeux olympiques un « cheval de Troie » pour voter une nouvelle loi de sécurité. « Une partie des dispositions vont bien au-delà de la période des Jeux olympiques », remarque le sénateur Guy Benarroche (EELV).
Au cœur de la problématique, l’article 7, qui autorise l’utilisation de la VSA « à titre expérimental » pour toutes manifestations sportives, récréatives ou culturelles, jusqu’au 30 juin 2025. Et même au-delà. « Un rapport sera remis six mois avant la fin de l’expérimentation. Il déterminera s’il y a nécessité ou pas de pérenniser le dispositif », annonce Agnès Canayer.
Une perspective qui inquiète au regard de la force de frappe de cette technologie. Concrètement, les images captées par les caméras de surveillance (ou les drones) seront filtrées en continu dans un algorithme. Cette intelligence artificielle signalera automatiquement des événements prédéterminés considérés comme « anormaux » et susceptibles de troubler l’ordre public.
Une technologie d’une puissance considérable, incomparable aux centres de supervision urbains où ce travail est effectué par le regard (imparfait) d’un effectif humain. Entre-t-on pour autant à l’ère de Big Brother ? Agnès Canayer le promet, il ne s’agit là que d’une « aide à la décision » où « le contrôle humain » sera permanent. Et de rappeler qu’en dernière instance, il revient bien aux forces de l’ordre d’intervenir, ou pas.
Mais ce qui inquiète le plus les détracteurs de la VSA, c’est peut-être la phase de création de l’algorithme. Pour apprendre à reconnaitre des situations, le logiciel sera « nourri » d’un volume immense de données, de vidéos, d’images. Ensuite, le constructeur – sur demande de la police – associera une règle : situation normale ou anormale.
« C’est le nœud du sujet, reconnait Agnès Canayer. L’algorithme pourrait aller trop loin sur des critères qui ne sont pas généraux. Des biais attentatoires aux personnes pourraient apparaître ». Face aux risques de dérives, le texte a été amendé en Commission des lois afin que la CNIL [Commission nationale de l’informatique et des libertés, NDLR] soit associée à la création de l’algorithme. Exit également la proposition d’intégrer la reconnaissance faciale dans le dispositif.
Insuffisant pour la Quadrature du net, association de défense et de promotion des droits et libertés, pour qui la CNIL a depuis longtemps « perdu son rôle de garde-fou ». « Au bout du compte, il faut toujours aller au contentieux. Nous voulons que cette technologie intrinsèquement dangereuse pour les libertés individuelles ne soit pas autorisée », martèle Noémie Levain.
Du côté de la Ville de Paris, cet arbitrage entre sécurité et liberté semble avoir été tranchée en faveur de la VSA.
Reste que, l’opportunité de la vidéosurveillance algorithmique s’inscrit dans un contexte encore plus large. Car les bénéfices réels de la vidéosurveillance – au sens strict – sont encore douteux, comme le révélait en 2021 une étude inédite du chercheur Guillaume Gormand, commandée par la gendarmerie.
Contacté par actu Paris, le chercheur estime que la VSA « dispose d’un potentiel d’aide favorable pour un événement d’ampleur comme les Jeux olympiques ». Mais en l’absence d’évaluation préalable, le risque est d’accorder une place trop importante à une « technologie dont l’efficacité est fantasmé et qui, par ailleurs, n’est pas infaillible ».
Voir aussi, la France sur les traces du Qatar: https://actu.fr/ile-de-france/paris_75056/jo-de-paris-2024-plus-de-60-accidents-du-travail-recenses-depuis-le-debut-des-chantiers_53985507.html
-
Paris s’équipe de caméras de vidéosurveillance avec Intelligence Artificielle pour les J.O.
Les systèmes d’Intelligence Artificielle seront utilisés pour surveiller les foules, mais pourraient également être utilisés autour des stades, dans les rues et dans les transports publics.
Avec la mise en application de la loi, ces caméras intelligentes pourront être utilisées à titre expérimental jusqu’en juin 2025… Une utilisation qui va donc au-delà des Jeux Olympiques qui s’achèvent en août 2024.
Source et plus: https://fr.euronews.com/next/2023/02/03/le-cube-paris-sequipe-de-cameras-de-videosurveillance-avec-intelligence-artificielle-pour-
Les “essais” peuvent donc débuter très prochainement et non pas en 2024.
-
Et cela se fera avec l’assentiment des Français.
-
Bah, c’est pour notre bien, contre le terrorisme, contre la pédopornographie, contre les merdes de chiens et de pigeons, etc…
Et la majorité silencieuse qui n’a rien à cacher et est droit dans ses bottes (suis en mode rire cynique) est pour car elle veut dormir sur ses deux oreilles la nuit sans se préoccuper des dérives, qui j’en suis sûr, ne manqueront pas d’arriver…
Bon, je retourne dans mon terrier… -
@Pollux a dit dans Recours à l'IA pour sécuriser les JO de Paris :
Et cela se fera avec l’assentiment des Français.
L’assentiment ou la même résignation ou le moutonnage que l’on voit à chaque élection ?
Le français est visiblement comme le homard, il faut juste le cuire à feu doux.
Il suffit de voir jusqu’ou les choses sont allées en 1789, il y a encore beaucoup de marge.
-
on va rigoler pour les JO, quand on voie comment c’est parti en couille pour un simple match de foot et que la racaille a foutu le bordel, que l’état comme dab na pas porter ces couilles et à accuser les Anglais
Hâte de voir les touristes et supporters se faire dépouiller et découvrir le shithole qu’est paris
-
https://i.imgur.com/gM3T7nw.pngHier, trente-huit organisations européennes et internationales, coordonnées par l’ECNL, ont dénoncé dans une lettre ouverte le projet du gouvernement français de légaliser la vidéosurveillance algorithmique en France. Nous les remercions de leur soutien à notre campagne et republions leur lettre ci-dessous.
Ces associations alertent l’Assemblée nationale sur le fait qu’il s’agirait de la première légalisation de la surveillance biométrique en Europe, qui confirmerait la position de la France comme fer de lance de la surveillance dans l’Union européenne. Cela n’est pas si étonnant quand on se souvient que le Conseil d’État avait courant 2021 écarté le droit de l’UE pour valider les pratiques de surveillance de la police et des services de renseignement, et que plus récemment la France s’est positionnée dans les négociations du règlement sur l’intelligence artificielle pour qu’il y ait le moins de restrictions possibles à l’usage de la surveillance biométrique.
Les Jeux olympiques sont instrumentalisés pour rendre acceptable un objectif politique pensé et voulu de longue date. Alors interpellons les député-es pour les convaincre de refuser ce premier pas vers une société où les logiciels de surveillance automatisée de nos corps deviendraient la norme. Rendez-vous sur notre page de campagne pour empêcher le vote de l’article 7 de la loi !
Lettre de la société civile aux députés français sur le projet de loi relatif aux Jeux olympiques et paralympiques 2024
Nous, 38 organisations de la société civile soussignées, exprimons notre vive inquiétude en ce qui concerne l’article 7 du projet de loi relatif aux Jeux olympiques et paralympiques de 20241. Cette disposition crée une base juridique pour l’utilisation de caméras dotées d’algorithmes en vue de détecter des événements suspects spécifiques dans l’espace public.
Ce projet de loi ouvre la voie à l’utilisation d’une vidéosurveillance algorithmique intrusive sous couvert d’assurer la sécurité lors d’événements de grande ampleur. En vertu de cette loi, la France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques. Nous estimons que les mesures de surveillance introduites sont contraires au droit international relatif aux droits humains dans la mesure où elles ne satisfont pas aux principes de nécessité et de proportionnalité et impliquent des risques inacceptables vis-à-vis de plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination.
Nous invitons les députés français à envisager le retrait de l’article 7 et à consulter la société civile en ouvrant un débat sur cette question. Si l’article était adopté, il créerait un précédent inquiétant en matière de surveillance injustifiée et disproportionnée dans l’espace public, au détriment des droits fondamentaux et des libertés.
Ce projet de loi représente une grave menace pour les libertés civiques et les principes démocratiques
Par sa simple présence dans des zones accessibles au public, la vidéosurveillance algorithmique non ciblée (souvent appelée « indiscriminée ») peut avoir un effet dissuasif sur les libertés civiques fondamentales, et notamment sur le droit à la liberté de réunion, d’association et d’expression. Comme l’ont souligné le Comité européen de la protection des données et le Contrôleur européen de la protection des données2, la surveillance biométrique a de graves répercussions sur les attentes raisonnables des personnes en matière d’anonymat dans les espaces publics et a un effet négatif sur leur volonté et leur capacité d’exercer leurs libertés civiques, car elles redoutent d’être identifiées, repérées ou même poursuivies à tort. En l’état, cette mesure menace l’essence même du droit à la vie privée et à la protection des données, ce qui la rend contraire au droit international et européen relatif aux droits
humains.Conformément aux valeurs et aux principes démocratiques, lors d’événements de grande ampleur tels que les Jeux olympiques, il est essentiel de garantir l’entière protection de ces droits fondamentaux et d’offrir des conditions propices au débat public, et notamment à l’expression politique dans les espaces publics.
Par ailleurs, ce projet de loi allonge considérablement et dangereusement la liste des motifs justifiant la surveillance des espaces publics. Ainsi, les situations de mendicité ou de rassemblements statiques pourraient être qualifiées d’« atypiques », créant un risque de stigmatisation et de discrimination pour les personnes qui passent beaucoup de temps dans l’espace public, par exemple parce qu’elles sont sans abri, en situation de vulnérabilité économique ou de handicap. Il est prouvé que l’utilisation des technologies de surveillance crée un état de contrôle, de profilage et de suivi permanent qui nuit de manière disproportionnée aux personnes marginalisées. L’utilisation de systèmes algorithmiques pour lutter contre la criminalité a entraîné une surveillance excessive de la part de la police, une discrimination structurelle dans le système de justice pénale et une criminalisation disproportionnée des minorités raciales, ethniques et religieuses. Cela conduit à la violation, entre autres, du principe de non-discrimination inscrit dans les normes internationales et européennes relatives aux droits humains.
Ce projet de loi entraînerait une surveillance biométrique de masse
Le paragraphe III de l’article 7 du projet de loi dispose de manière erronée que les systèmes algorithmiques de vidéosurveillance ne traiteront aucune donnée biométrique. Le règlement général sur la protection des données (RGPD) de l’Union européenne définit les données biométriques comme des « données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique » (article 4-14 du RGPD).
Si l’usage de caméras dotées d’algorithmes est destiné à détecter des événements suspects spécifiques dans l’espace public, ces caméras capteront et analyseront forcément des traits physiologiques et des comportements de personnes présentes dans ces espaces. Il pourra s’agir de la posture de leurs corps, de leur démarche, de leurs mouvements, de leurs gestes ou de leur apparence. Le fait d’isoler des personnes par rapport à leur environnement, qui s’avère indispensable en vue de remplir l’objectif du système, constitue une « identification unique ». Tel que l’établit la loi sur la protection des données de l’UE et selon l’interprétation du Comité européen de la protection des données3, la capacité d’isoler une personne parmi une foule ou par rapport à son environnement, que son nom ou son identité soient connus ou non, constitue une « identification unique ».
Il est important de garder à l’esprit que l’utilisation de systèmes basés sur l’intelligence artificielle en vue d’analyser et de prédire les comportements, les émotions ou les intentions des personnes peut être tout autant intrusive et dangereuse que celle de systèmes visant à identifier des personnes. Le fait de placer des personnes dans une catégorie regroupant les comportements « à risque » sur la base de leurs données biométriques constituerait une catégorisation biométrique, que le Défenseur des droits et le projet de loi sur l’intelligence artificielle de l’UE définissent comme le fait de catégoriser des personnes physiques en fonction de
caractéristiques spécifiques en se fondant sur leurs données biométriques. Nous attirons l’attention des députés français sur le risque que cette mesure soit en contradiction avec la future loi de l’UE sur l’intelligence artificielle. Dans le cadre du travail législatif en cours, plusieurs amendements proposent l’interdiction totale de la catégorisation biométrique au regard des risques importants qu’elle entraîne pour les droits fondamentaux.Les atteintes graves aux droits humains contreviennent aux exigences de nécessité et de proportionnalité
Pour garantir une véritable protection des droits humains, il convient de commencer par comprendre les limites des technologies et apporter des preuves de leur adéquation par rapport aux objectifs poursuivis. Dès lors, il est indispensable de mener une étude en vue de déterminer si les technologies introduites au nom de la sécurité répondent à des menaces avérées et quelles incidences leur utilisation aura sur les droits humains et les libertés civiques.
Bien que ce projet de loi présente des risques élevés pour les droits fondamentaux et malgré les preuves existantes4 de l’inefficacité de la vidéosurveillance en matière de prévention des infractions et des menaces à la sécurité, le gouvernement n’a pas démontré la conformité de ce projet de loi aux principes de nécessité et de proportionnalité et il n’a pas engagé de véritable dialogue avec la société civile au sujet de cette mesure. De ce fait, nous estimons que les restrictions des droits humains introduites ne satisfont pas aux trois critères de légalité, de but légitime et de nécessité et de proportionnalité. Elles constituent une violation des obligations incombant aux États en matière de droits humains en vertu de traités internationaux, et notamment du Traité international relatif aux droits civils et
politiques et de la Convention européenne des droits de l’homme.Ce projet de loi constitue une étape vers la normalisation de pouvoirs d’exception en matière de surveillance
L’article 7 du projet de loi est représentatif de la tendance inquiétante des gouvernements à étendre leurs pouvoirs de surveillance dans le cadre de mesures d’urgence prises au nom de la sécurité. Or, il est rare que ces mesures dites « d’exception » soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme. Souvent, elles ne s’accompagnent pas de garanties suffisantes et de mécanismes de responsabilité, elles manquent de transparence et elles ne font l’objet d’aucun dialogue avec les parties intéressées.
Cette tendance a été amplement constatée en ce qui concerne les mesures de surveillance prises au cours des deux dernières décennies sous couvert de la lutte contre le terrorisme et, plus récemment, avec les solutions numériques adoptées dans le contexte de la pandémie de Covid-195. Nous avons également observé par le passé que les Jeux olympiques peuvent servir de terrain d’expérimentation6 pour doter l’État de pouvoirs renforcés qui sont ensuite maintenus lorsque la situation d’exception prend fin.
Ces exemples suffisent à justifier nos craintes de voir l’utilisation de la vidéosurveillance algorithmique perdurer au-delà de 2025. Si elle est adoptée, cette loi constituera également un précédent dangereux pour d’autres pays européens, tels que le Portugal et la Serbie, qui ont tenté, à ce jour sans succès, de légaliser une série de pratiques de surveillance biométrique risquées. La France endosserait alors le rôle peu reluisant de « leader » des politiques de surveillance au sein de l’Union européenne.
Nous espérons sincèrement que les députés français prendront des mesures de toute urgence en consultation avec la société civile afin de répondre aux préoccupations exposées ci-dessus.
- Access Now, International
- AlgoRace, Espagne
- AlgorithmWatch, Allemagne
- AlgorithmWatch CH, Suisse
- Amnesty International, International
- ApTI, Roumanie
- ARTICLE 19, International
- Association Nationale des Supporters, France
- Big Brother Watch, Royaume-Uni
- Bits of Freedom, Pays-Bas
- Centre for Democracy & Technology, Europe
- Chaos Computer Club Lëtzebuerg, Luxembourg
- Citizen D / Državljan D, Slovénie
- Civil Liberties Union for Europe, Europe
- Deutsche Vereinigung für Datenschutz e.V. (DVD), Allemagne
- Digitalcourage e.V., Allemagne
- Digitale Gesellschaft, Suisse
- Digitale Freiheit e.V., Allemagne
- Elektronisk Forpost Norge, Norvège
- Eticas Tech, Espagne
- European Center for Not-for-Profit Law Stichting (ECNL), Europe
- European Digital Rights, Europe
- Fair Trials, International
- Forum Civique Européen, France/Europe
- Football Supporters Europe, Europe
- Homo Digitalis, Grèce
- Human Rights Watch, International
- Irish Council for Civil Liberties, Irlande
- IT-Pol, Danemark
- Iuridicum Remedium, République tchèque
- Liberty, Royaume-Uni
- Panoptykon Foundation, Pologne
- Privacy International, International
- Privacy Network, Italie
- Share Foundation, Serbie
- Society Vrijbit, Pays-Bas
- Statewatch, Europe
- Today is a new day / Danes je nov dan, Slovénie
References
References
| ↑1 | https://www.senat.fr/leg/pjl22-220.html |
| ↑2 | https://edpb.europa.eu/system/files/2021-10/edpb-edps_joint_opinion_ai_regulation_fr.pdf |
| ↑3 | https://edpb.europa.eu/sites/default/files/files/file1/edpb_guidelines_201903_video_devices_fr.pdf |
| ↑4 | https://www.lemonde.fr/societe/article/2021/12/22/une-etude-commandee-par-les-gendarmes-montre-la-relative-inefficacite-de-la-videosurveillance_6106952_3224.html |
| ↑5 | https://ecnl.org/publications/under-surveillance-misuse-technologies-emergency-responses |
| ↑6 | https://www.scielo.br/j/cm/a/zcKnN9ChT9Wqc4hfGWKSk4d/?format=pdf&lang=en |Source : https://www.laquadrature.net
-
@Indigostar Merci beaucoup pour le partage de cet article édifiant sur notre beau pays des droits (pas de majuscule, c’est devenu inutile) de l’homme.