• 1 Votes
    11 Messages
    85 Vues

    j.jpg

  • 2 Votes
    1 Messages
    33 Vues

    Dans le cadre d’une enquête sur les technologies de police prédictive dont nous vous reparlerons très bientôt, La Quadrature s’est intéressée de près à Edicia. Cette startup est peu connue du grand public. Elle joue pourtant un rôle central puisqu’elle équipe des centaines de polices municipales à travers le pays. Son logiciel Smart Police, dont nous avons obtenu le manuel d’utilisation, permet de faire un peu tout et n’importe quoi. Loin de tout contrôle de la CNIL, Smart Police encourage notamment le fichage illégal, une pratique policière en vogue…

    L’entreprise Edicia a été créée en 2013 et a son siège à Nantes. Cette année-là, Vincent Loubert, un ancien consultant de Cap Gemini, rachète, avec le soutien du fonds d’investissement Newfund, une société de logiciels du nom d’Access, lancée à l’origine par un policier à la retraite qui cherchait à développer une application simplifiant le travail des policiers. Sous l’égide d’Edicia, ce logiciel va prendre le nom de Smart Police.

    En 2019, après une expansion rapide en France (Edicia prétend alors équiper près de 600 villes à travers le pays)(1), la startup s’internationalise en développant ses activités aux États-Unis, vendant notamment son logiciel à la police de Denver, dans le Colorado, où elle ouvre même une antenne avec une trentaine de salariés. En France, cette année-là, la startup emploie une quarantaine de personnes et réalise des bénéfices pour la première fois depuis son lancement. Loubert affirme alors avoir consacré près de 10 millions d’euros à la R&D.

    Depuis, il est possible que l’entreprise ait connu quelques difficultés financières. Le site d’Edicia comme ses comptes sur les réseaux sociaux sont globalement inactifs. Elle semble également embaucher moins de salariés. Pour autant, son logiciel Smart Police continue d’être utilisé au quotidien par des milliers de policier municipaux à travers le pays.

    Aperçu de Smart Police

    À quoi sert Smart Police ? À un peu tout et n’importe quoi. Il permet aux agents de police d’utiliser leur téléphone ou tablette pour rédiger leurs rapports directement depuis le terrain, d’ajouter à une base de donnée des clichés photographiques, de rapporter des évènements ou encore d’établir des procès-verbaux (voir les captures d’écran du logiciel à la fin de cet article, ou explorer le manuel d’utilisation au format HTML) (2). Smart Police est aussi utilisé par les officiers pour suivre depuis leurs bureaux les équipes sur le terrain, cartographier les incidents, consulter leurs rapports et recevoir divers indicateurs statistiques en temps réel, de même que les photographies prises en intervention (par exemple lors d’une manifestation).

    Les villes de Marseille, Nice, Élancourt, Antony, Le Pré-Saint-Gervais, Libourne, Chinon, Coignères, Maurepas, ou encore la communauté de communes Grand Paris Sud- Seine Essonne Sénart comptent parmi les clientes d’Edicia (avec en tout 350 villes clientes d’après les derniers chiffres fournis sur le site d’Edicia). Mais bien évidemment, en dehors des affirmations péremptoires des patrons d’Edicia ou de quelques édiles relayés dans la presse, aucune étude disponible ne permet de démontrer le prétendu surcroît d’efficacité policière induit par Smart Police. Par ailleurs, une demande CADA nous a appris qu’une ville comme Cannes avait été cliente d’Edicia, avant de décommissionner le logiciel sans qu’on sache exactement pourquoi. Il est possible qu’à l’image de certains logiciels utilisés aux États-Unis puis abandonnés, le rapport coût-efficacité ait été jugé trop faible.

    Fichage en mode YOLO ?

    L’une des composantes les plus importantes de Smart Police, dont le manuel d’utilisation nous a été communiqué via une demande CADA et est désormais disponible, réside dans son menu « Activités de terrain », que les agents utilisateurs manient quotidiennement. Il leur permet de créer de nouvelles « mains courantes », d’écrire et de référencer des rapports de police (procès-verbaux) documentant diverses infractions que les agents de la police municipale sont autorisés à constater. Lorsqu’ils créent ces fiches, les agents doivent fournir des informations générales, la localisation géographique de l’événement, le type d’infraction, l’identité et les coordonnées du suspect ou des témoins (qui peuvent être enregistrées facilement en scannant une carte d’identité), etc. En tant que telles, ces fiches de signalement peuvent être détournées pour des finalités qui dépassent les prérogatives de la police municipale – lesquelles sont limitées, notamment en matière de contrôle d’identité (3) –, et devraient être soumises à un contrôle étroit.

    Un autre module présente un risque encore plus important de fichage illégal : il s’agit du module « Demande administré », qui comme son nom l’indique, permet d’enregistrer les signalements faits par des administrés à la police municipale (bruit, dégradation, présence d’un animal dangereux, etc.). Là encore, l’interface rend possible l’ajout de données géolocalisées et de photographies.

    Enfin, Smart Police comporte un module « Vigilance active », au sein duquel les agents peuvent rassembler des informations non officielles sur des événements passés ou futurs. Par exemple, si un agent de police a rapporté une rumeur entendue dans la rue ou repérée sur les réseaux sociaux (par exemple concernant un « rassemblement non autorisé », ainsi que l’illustre le manuel), une fiche peut être créée pour la consigner. Celle-ci peut très bien comporter toutes sortes de données dont le traitement par la police est, dans un tel cadre, totalement illégal (identité des personnes suspectées d’organiser ce rassemblement, des photographies extraites des réseaux sociaux, etc.). Ces fiches de renseignement peuvent ensuite être transformées en « missions » assignées aux agents depuis l’interface à disposition des managers, conduire à la création de nouvelles fiches « mains courantes », mais aussi alimenter le module « Analyse prédictive » si la ville cliente d’Edicia y a souscrit (nous y reviendrons dans un prochain article).

    On le comprend au regard de ces descriptions, Smart Police comporte un risque important de voir consignées des données identifiantes, et donc là encore de conduire à des opérations de fichage illégal. Notamment, il ne semble pas respecter le cadre réglementaire s’agissant des traitements automatisés utilisés par les polices municipales pour gérer les mains courantes, puisque ce dernier exclut la prise de photographies (4).

    Loin de tout contrôle

    Par deux fois, nous avons interrogé la CNIL via des demandes CADA pour savoir si elle s’était penchée sur l’utilisation de Smart Police en France. Par deux fois, la même réponse nous a été faite :

    en dehors de quelques formalités préalables réalisées par une demi-douzaine de communes avant l’entrée en vigueur du RGPD, nada (voir ici pour la dernière réponse en date). Nous avons bien mis la main sur l’attestation de conformité RGPD, délivrée à Edicia par le cabinet Olivier Iteanu et obtenue via une demande CADA à la ville de Libourne, ainsi qu’un document relatif à la politique de gestion des données d’Edicia, mais celles-ci n’offrent aucun élément réellement rassurant s’agissant du risque de voir Smart Police servir à des opérations de fichage illégal. Enfin, aucune des dizaines de demandes CADA envoyées aux mairies s’agissant d’Edicia n’a mis en évidence de contrôle réalisé par les personnes déléguées à la protection des données au sein des villes.

    Nos inquiétudes à ce sujet sont évidemment renforcées par des révélations récentes. La presse locale s’est récemment faite l’écho de pratiques de policiers municipaux dans une commune de la région PACA consistant à échanger, sur des boucles WhatsApp privées et à partir de leurs smartphones personnels, des données sensibles relatives à des personnes : images extraites de la vidéosurveillance, photos des personnes contrôlées, plaques d’immatriculation, pièces d’identité, etc (5). Des pratiques totalement illégales mais dont on peut supposer qu’elles sont monnaie courante, non seulement au sein des polices municipales mais aussi au sein de la police nationale.

    Quant au dernier rapport de l’Inspection générale de la police nationale (IGPN) (6), il note une hausse sensible des faits de détournements de fichiers (56 enquêtes, contre 38 en 2021 et 27 en 2020), une évolution qu’elle qualifie de « préoccupante » :

    Ces faits sont de gravité très inégale selon qu’ils procèdent de la curiosité « malsaine » (passage aux fichiers d’une ex-compagne ou d’un nouveau compagnon, de membres de sa famille, d’une personne connue, d’un chef de service, sans argent versé ou contrepartie) ou du commerce des informations récoltées. Ces cas sont les plus sensibles, lorsque les informations confidentielles issues des fichiers de police sont remises à des tiers, avec ou sans but lucratif. Si la preuve de la consultation illégale est assez simple à rapporter par les enquêteurs, il en va différemment pour la preuve éventuelle d’une rétribution à titre de contrepartie.

    Pour l’institution, « cette situation tient à la fois à la multiplication du nombre de fichiers de police et une meilleure accessibilité », notamment du fait d’un déploiement croissant des tablettes et smartphones Neo, lesquelles permettent un accès plus aisé aux fichiers de police pour les agents de la police nationale et de la gendarmerie nationale. L’IGPN estime que l’intelligence artificielle pourrait permettre de détecter plus aisément ces consultations illégales.

    Et maintenant ?

    Pour notre part, plutôt qu’un solutionnisme technologique abscons, la réponse tiendrait plutôt à une désescalade techno-sécuritaire, à savoir le fait de battre en brèche l’augmentation exponentielle du fichage de la population, le recul constant des garanties concrètes apportées aux droits fondamentaux (recul auquel le RGPD et les textes associés ont participé par de nombreux aspects). Au minimum, les contre-pouvoirs institutionnels, comme la CNIL, devraient faire leur travail, à savoir lutter contre les illégalismes policiers, plutôt que d’instaurer une impunité de fait par leur coupable laisser-faire.

    De ce point de vue, un premier pas dans la bonne direction consisterait à procéder à un contrôle résolu des polices municipales clientes d’Edicia, en n’hésitant pas à prononcer de vraies sanctions contre les responsables hiérarchiques dès lors que des infractions seront constatées.


    – Page d’accueil personnalisée du logiciel Smart Police (version 2020).


    – Page d’accueil personnalisée du module « Supervision » montrant la distribution géographique des équipes (voiture en patrouille, agents piétons, deux-roues).


    – Enregistrement d’un nouvel « événement » dans le module « Vigilance active ».


    – Liste des indicateurs disponibles dans le module « observatoire » et, à droite, une liste des infractions pour lesquelles des indicateurs peuvent être affichés.


    – Vue d’une fonctionnalité disponible dans le menu « Activités de terrain » : la liste des derniers rapports de mains courantes (avec leur origine, l’horodatage, etc.).


    – Une vue d’une autre fonctionnalité disponible dans le champ « Activités de terrain » : la liste de tous les rapports inclus dans Smart Police (y compris les mains courantes, les procès-verbaux, les « demandes administrés », etc.).


    – Images extraites du menu « Suivi en images » qui présente sous forme de vignettes « les dernières photos prises par les agents » via le menu « Mains courantes ». Dans l’exemple présenté, la visualisation « détail du suivi » révèle qu’il s’agit d’une photo prise lors d’une manifestation de Gilets jaunes.

    Pour soutenir notre travail, vous pouvez faire un don à La Quadrature du Net.

    (1) À noter : sur son site web, Edicia se targue également de compter parmi ses clients quelques services du ministère de l’Intérieur, mais nos demandes CADA envoyées au ministère sur ces collaborations sont restées infructueuses, le ministère prétendant qu’il n’existe aucun lien avec Edicia.

    (2) Le manuel d’utilisation de Smart Police est disponible à l’adresse suivante : https://technopolice.fr/police-predictive/manuel-edicia/Edicia.html.

    (3) Lorsqu’ils créent des procès-verbaux dans Edicia, les agents sont invités à choisir parmi une liste d’infractions présélectionnées et tirées d’une base de données nationale catégorisant tous les types d’infractions (la base de données NATINF). Rappelons que les types d’infractions que les agents de police municipale peuvent constater sont très limités. Ils peuvent par exemple sanctionner les propriétaires de chiens dangereux qui ne respectent pas la loi, inspecter visuellement et fouiller (avec l’autorisation du propriétaire) les sacs et bagages lors de manifestations publiques ou à l’entrée d’un bâtiment municipal, délivrer des amendes en cas d’incivilités telles que le dépôt d’ordures dans la nature, le tapage nocturne, le fait de laisser des animaux dangereux en liberté, et constater la plupart des infractions au code de la route commises sur le territoire communal dès lors qu’elles ne nécessitent pas d’enquête. Cependant, les agents de la police municipale disposent de pouvoirs beaucoup plus étendus que ne le laisse supposer le code pénal : arrestation en flagrant délit d’une personne ayant commis un crime ou un délit passible de prison pour l’amener au poste de police nationale ou de gendarmerie le plus proche, établissement de rapports et procès-verbaux concernant tout crime, délit ou contravention dont les agents municipaux seraient témoins, documents qui peuvent soit être directement transmis à la police nationale ou à la gendarmerie, soit au maire. Celui-ci, ayant qualité d’officier de police judiciaire, transmet alors l’information au procureur de la république. Bien que la loi ne les autorise pas à procéder à des contrôles d’identité, les agents de police municipaux peuvent collecter l’identité d’une personne, tant qu’ils ne demandent pas de produire une pièce attestant de celle-ci, et sont autorisés à demander une preuve d’identité dans le cas des quelques délits qui rentrent dans leurs prérogatives. Le logiciel d’Edicia semble donc offrir des fonctionnalités qui vont bien au-delà du cadre juridique. Voir « Mémento policiers municipaux et gardes champêtres ». Ministère de l’Intérieur, 10 novembre 2021. https://www.interieur.gouv.fr/content/download/129786/1033871/file/memento-polices-muni-gardes-champetres.pdf.

    (4) Arrêté du 14 avril 2009 autorisant la mise en œuvre de traitements automatisés dans les communes ayant pour objet la recherche et la constatation des infractions pénales par leurs fonctionnaires et agents habilités, consulté le 9 décembre 2023, https://www.legifrance.gouv.fr/loda/id/JORFTEXT000020692173.

    (5) Éric Galliano, « Saint-Laurent-du-Var : Les policiers municipaux ont constitué leurs propres fichiers de délinquants », Nice Matin, 20 novembre 2023, https://www.nicematin.com/justice/a-saint-laurent-du-var-les-policiers-municipaux-ont-constitue-leurs-propres-fichiers-de-delinquants-886441.

    (6) Voir le rapport d’activité de l’Inspection générale de la Police nationale pour l’année 2022, disponible à l’adresse : https://www.interieur.gouv.fr/Publications/Rapports-de-l-IGPN/Rapport-annuel-d-activite-de-l-IGPN-2022

    – Source :

    https://www.laquadrature.net/2024/01/10/smart-police-dedicia-le-logiciel-a-tout-faire-des-polices-municipales/

  • 3 Votes
    17 Messages
    228 Vues

    moi, cette histoire me fait penser à la chanson de Talk Talk - Such a Shame

    un de mes clips préférés, soit dit en passant ^^

  • 3 Votes
    3 Messages
    97 Vues

    @Raccoon a dit dans Une régie publicitaire surveillait plus de 5 milliards de portables via 500 000 applications :

    la plateforme (…) dispose des profils de « plus de 5 milliards d’identifiants d’utilisateurs »

    c’est malheureux à dire mais je m’en fous… comme l’a dit @duJambon tant que les données ne tombent pas entre les mains du commun des mortels je vois pas où est le problème

  • 3 Votes
    6 Messages
    112 Vues

    putain on courrait les cabines téléphoniques !!! et pour en trouver une qui fonctionne, des fois fallait prendre le métro lol

  • 3 Votes
    2 Messages
    60 Vues

    Malheureusement ça va se mettre en place partout, faut pas rêver

  • 1 Votes
    1 Messages
    34 Vues

    Alors qu’une ONG s’apprête à faire pression sur Apple afin qu’elle « détecte, signale et supprime » les contenus pédocriminels, la société explique pourquoi elle a renoncé à son projet décrié de surveillance du cloud chiffré.

    Dans un geste suffisamment rare pour être noté, soulignent Wired et le cryptographe

    , Apple vient d’expliquer pourquoi la société avait finalement décidé, en décembre dernier, de mettre un terme à son controversé projet de détection des contenus à caractère pédopornographique (child sexual abuse material, ou CSAM) sur iCloud.

    En réponse à un courrier de la Heat Initiative, une ONG qui lui demandait de « détecter, signaler et supprimer » les CSAM, Erik Neuenschwander, directeur de la protection de la vie privée des utilisateurs et de la sécurité des enfants chez Apple, explique en effet que « l’analyse des données iCloud privées de chaque utilisateur créerait de nouveaux vecteurs d’attaques que des pirates pourraient trouver et exploiter » :

    « Cela pourrait nous amener sur une pente glissante avec des conséquences imprévues. La recherche d’un type de contenu ouvre la porte à la surveillance en masse et pourrait donner l’envie de rechercher tout type de contenu dans d’autres systèmes de messagerie chiffrée. Nous avons conclu qu’il n’était pas possible de la mettre en œuvre sans mettre en péril la sécurité et la vie privée de nos utilisateurs. »

    | Apple entre renonciations, reports et grogne des employés | Pédopornographie : Apple s’explique, mais la colère et les craintes restent | Apple va chercher des contenus pédopornographiques dans les iPhone américains

    Erik Neuenschwander précise être parvenu à cette conclusion après avoir consulté de nombreux chercheurs en matière de sécurité et de protection de la vie privée, des groupes de défense des droits numériques et de la sécurité des enfants.

    Lettre d’Apple à la Heat Initiative « S’ils ne le peuvent pas, personne ne le peut »

    La Heat Initiative s’était déclarée déçue qu’Apple abandonne son projet, arguant qu’« Apple est l’une des entreprises les plus prospères au monde et dispose d’une armée d’ingénieurs de classe mondiale » :

    « Il est de leur responsabilité de concevoir un environnement sûr et respectueux de la vie privée qui permette de détecter les images et les vidéos d’abus sexuels d’enfants connus. Tant que les gens pourront partager et stocker dans iCloud une image connue d’un enfant en train de se faire violer, nous exigerons qu’ils fassent mieux. »

    « La déclaration d’Apple sonne le glas de l’idée selon laquelle il est possible de scanner les communications de chacun ET de préserver la confidentialité », a

    Meredith Whittaker, chercheuse spécialisée en éthique de l’intelligence artificielle et présidente de la Signal Foundation, qui chapeaute l’application éponyme :

    « Apple possède plusieurs des meilleurs cryptographes + ingénieurs en génie logiciel au monde + $ infinis. S’ils ne le peuvent pas, personne ne le peut. (Ils ne le peuvent pas. Personne ne le peut.) »

    Le manque d’intimité est aussi une menace pour la sécurité

    Le New York Times n’en relève pas moins que Heat Initiative a réussi à lever 2 millions de dollars afin de lancer une « campagne publicitaire nationale » sur des sites web populaires auprès des décideurs politiques à Washington, tels que Politico, arguant que 90 % des États-Uniens estiment qu’Apple doit « détecter, signaler et supprimer » les CSAM.

    Ce chiffre émane d’un sondage d’opinion (.pdf) effectué par le Bellwether Research auprès d’un échantillon représentatif de 2 041 adultes, en ligne. Bien que 79 % des répondants reconnaissent ne pas être familiers avec les technologies utilisées pour détecter les images et vidéos d’abus pédosexuels, 83 % pensent qu’il est possible d’identifier, signaler et supprimer les contenus pédopornographiques sur les plateformes tout en protégeant la vie privée des utilisateurs « en même temps », et 86 % approuvent le fait qu’ « Apple prenne des mesures pour mieux protéger les enfants contre les abus sexuels, même si cela implique de renoncer à une partie de ma propre vie privée ».

    Heat Initiative

    Heat Initiative

    Ce qui fait

    Joseph Menn, journaliste cyber du Washington Post, qui appelle les journalistes à ne pas tomber dans cette « simplification excessive », et à ne pas opposer sécurité et confidentialité, au motif que « le manque d’intimité est AUSSI une menace pour la sécurité » et que « la plupart des gens qui ne comprennent toujours pas cela ont tendance à ne pas vivre dans des pays autoritaires et n’ont jamais couru le risque d’être harcelés, peut-être parce qu’ils sont des hommes et ne sont pas célèbres. Mais une fois qu’une technologie est en panne pour certains, elle est en panne pour tous. »

    Apple n’a fait que 234 signalements, Facebook 22 millions

    La Heat Initiative a programmé sa campagne en prévision de la présentation annuelle de l’iPhone par Apple, le 12 septembre. La campagne est dirigée par Sarah Gardner, auparavant vice-présidente des affaires extérieures de Thorn (une organisation à but non lucratif fondée par Demi Moore et son ex-mari Ashton Kutcher pour lutter contre les abus sexuels commis sur des enfants en ligne) et qui précise que « l’objectif est de poursuivre les tactiques jusqu’à ce qu’Apple change sa politique ».

    La Heat Initiative souligne qu’aux États-Unis, Apple n’a effectué que 160 signalements en 2021 (.pdf) au National Center for Missing and Exploited Children (NCMEC), alors que Google en a fait 875 783, et Facebook 22 millions :

    « En 2022, la CyberTipline du NCMEC a reçu un nombre impressionnant de 32 millions de signalements, dont près de 90 % provenaient de quatre fournisseurs de services électroniques seulement : Facebook, Instagram, WhatsApp et Google. Ces géants de la technologie ont signalé et retiré plus de 29 millions d’images et de vidéos montrant des abus sexuels commis sur des enfants, ce qui montre l’impact considérable que peuvent avoir les entreprises qui s’engagent à protéger les enfants sur leurs plateformes.

    En revanche, la contribution d’Apple n’a consisté qu’en 234 signalements, ce qui souligne la nécessité pour toutes les entreprises technologiques de s’engager activement à assurer la sécurité des enfants en ligne. »

    Un groupe de deux douzaines d’investisseurs gérant près de 1 000 milliards de dollars d’actifs aurait également demandé à Apple de rendre public le nombre d’images abusives détectées sur ses appareils et ses services, rapporte le NYT :

    « Deux investisseurs – Degroof Petercam, un gestionnaire d’actifs belge, et Christian Brothers Investment Services, une société d’investissement catholique – soumettront ce mois-ci une proposition d’actionnaire qui exigerait qu’Apple fournisse un rapport détaillé sur l’efficacité de ses outils de sécurité pour protéger les enfants. »

    Le NYT relève cela dit que « ces signalements ne reflètent pas toujours des contenus réellement abusifs : certains parents ont vu leur compte Google suspendu et ont été signalés à la police pour des images de leurs enfants qui n’étaient pas de nature criminelle », comme nous l’avions d’ailleurs relaté.

    | Accusés à tort de pédophilie pour des photos faites à la demande de médecins
  • 2 Votes
    9 Messages
    187 Vues
  • 1 Votes
    1 Messages
    40 Vues

    C’est une bonne nouvelle pour les organismes de défense de droits numériques. Même si la loi n’est pas encore entrée en vigueur, le contenu du projet de loi affiche bien la volonté des commissions européennes à protéger les Européens contre les dérives de l’Intelligence artificielle. De la reconnaissance faciale à bien d’autres aspects de l’usage de l’IA, l’organisation a mis les verrous pour restreindre les types d’utilisation qui peuvent être faits sur les populations.

    Dans la nouvelle version du projet de loi, il est interdit de se servir de programmes de reconnaissance faciale de masse dans les lieux publics. De même, une interdiction d’usage est adressée pour les algorithmes de police prédictive servant à identifier à l’avance des personnes susceptibles d’être dangereuses pour la société. Ces interdictions visent à protéger l’usage qui est fait des données personnelles de la population. En effet, pour être efficaces, les logiciels de ces catégories ont forcément besoin d’avoir accès à des données personnelles.

    Au-delà de ces interdictions, le projet de loi a prévu la création d’une base de données accessible au public. Cette base de données servira de répertoire des systèmes d’IA « à haut risque » que déploient les autorités gouvernementales et publiques. Le but est d’informer les citoyens de l’Union européenne du moment et de la manière dont ces systèmes les impactent. C’est donc la carte de la transparence que l’UE a décidé de jouer avec ces citoyens. « Cette base de données devrait être librement et publiquement accessible, facilement compréhensible et lisible par une machine », précise le projet. « La base de données devrait également être conviviale et facile à parcourir avec des fonctionnalités de recherche permettant au minimum au grand public de rechercher dans la base de données des systèmes à haut risque spécifiques, des lieux, des catégories de risque [et] des mots-clés ».

    Le projet de loi a aussi prévu des dispositions visant à plus de contrôle pour l’« IA à usage général » ou les systèmes d’IA « fondateurs ». Même si la loi n’a pas vraiment défini ce type de système, il est évident qu’il s’agit des langages d’IA de grande échelle servant à diverses fins. Avec cette explication, il est clair que la législation s’adresse à des systèmes comme GPT-4, ChatGPT. Par extension, les générateurs d’images à base d’IA comme Stable Diffusion, Midjourney et DALL-E sont aussi concernés.

    Microsoft, Google, OpenAI et les autres créateurs de système d’IA à grande échelle devront évaluer et atténuer divers risques avant que leurs outils ne soient mis à disposition du public. La législation a cité les divers contrôles à effectuer pour évaluer les systèmes créés. Entre autres, il faudra évaluer les dommages causés à l’environnement par la formation de ces systèmes. En effet, la mise en place des systèmes d’IA à grande échelle consomme souvent beaucoup d’énergie.

    Le projet de loi oblige aussi les entreprises à divulguer « l’utilisation de données de formation protégées par la législation sur le droit d’auteur ».

    Le processus n’est pas encore à son terme pour ce projet de loi. Son entrée en vigueur est programmée pour 2024. Le projet de loi était en examen depuis des années, mais la course contre l’IA a obligé les législateurs à apporter des modifications de dernière minute. La commission du marché intérieur et la commission des libertés civiles ont déjà validé la nouvelle version du projet de loi.

    La démarche et le contenu du projet ont reçu un écho favorable de certains acteurs du domaine. « C’est une très bonne nouvelle », a déclaré à The Verge Daniel Leufer, analyste politique principal de l’organisation à but non lucratif Access Now. « Je pense que d’énormes changements positifs ont été apportés au texte. »

    Source: https://www.fredzone.org/ue-elabore-projet-loi-interdit-usage-ia-surveillance-biometriqu

    On peut rêver, mais si la loi sortait avant les jo de Paris… :lol:

  • 3 Votes
    22 Messages
    508 Vues
    L’armée britannique obtient des viseurs de fusil tuant des drones

    Pour aider à contrer la menace croissante des micro et mini drones, l’armée britannique a déboursé 4,6 millions de livres sterling (5,8 millions de dollars) pour équiper les fusils d’assaut SA80 A3 de l’infanterie du système de contrôle de tir SmartShooter SMASH Smart Weapon Sight, un viseur spécial qui permet à un soldat de se verrouiller automatiquement sur un UAV en vol.

    Pour fournir la capacité nécessaire de contre-petits systèmes aériens sans équipage (C-sUAS), SMASH a été développé. Conçu pour s’adapter comme un viseur standard sur le fusil d’assaut SA80 A3 et d’autres armes de service individuelles, il intègre un processeur d’image qui utilise l’intelligence artificielle pour identifier et verrouiller un drone lorsqu’il se trouve dans le champ de vision. Il peint ensuite une boîte autour de la cible. Lorsque le viseur est correctement aligné, l’arme est alors autorisée à tirer, augmentant considérablement la probabilité de détruire le drone.

    Source: https://newatlas.com/military/british-army-drone-killing-rifle-sights/

    Un truc relativement facile à bricoler 🙂

  • 2 Votes
    15 Messages
    310 Vues

    @Jean-François 😕 racheté par Avast… ce n’est pas une bonne nouvelle. J’espère que des forks vont vite voir le jour.

  • 1 Votes
    11 Messages
    366 Vues

    @Memorex91 a dit dans Top 5 des pays où internet est le plus surveillé par le gouvernement :

    Par le plus grand des hasards on y retrouve tous les ennemis de "l’occident "

    Certes la plupart des pays occidentaux surveillent ce qui se passe sur internet, en France comme ailleurs. Mais il y a une “petite” différence avec les pays dictatoriaux cités, c’est qu’en occident, jusqu’à preuve du contraire, tu peux faire à peu près tout ce que tu veux sur internet, et aller voir où bon te semble sans avoir à prendre des précautions d’espions, et sans risquer de te retrouver en taule ou au goulag comme dans les les dictatures pré-citées.
    Ça me parait être une différence majeure.

  • 2 Votes
    6 Messages
    165 Vues

    merci la NSA qui pousse derrière

  • 1 Votes
    3 Messages
    63 Vues

    @duJambon

    Pour les autres pays, ils ont confié la tâche à l’IA de Google, qui s’en acquitte très bien.

  • 2 Votes
    8 Messages
    207 Vues

    @Kourhage domage “This repository and qTox are unmaintained!”

  • 1 Votes
    4 Messages
    72 Vues

    Même si ça peut résoudre des enquêtes,ces technologies comme la vidéo n’empêchent pas les crimes à part les enregistrer au moment où ça se passe. Comme le gars qui a attaqué des gens a la gare du nord ya quelques jours,ça n’aurait pas pu l’empêcher. Donc à part pousser toujours plus loin le curseur de la dérive sécuritaire sous prétexte de prévenir le crime,tout ceci n’est qu’un business juteux pour ceux qui font leur beurre en attisant les peurs…

  • 5 Votes
    14 Messages
    252 Vues
    L’Institut d’Enseignement à Distance de Paris 8 obligé d’abandonner TestWe pour ses examens

    Suite à la contestation par des étudiants de l’utilisation du logiciel TestWe pour surveiller lors de leurs examens, la justice oblige l’Institut d’Enseignement à Distance de Paris 8 à suspendre l’utilisation de ce logiciel.

    Le tribunal administratif de Montreuil s’est prononcé mercredi 14 décembre sur la demande des étudiants de l’Institut d’Enseignement à Distance (IED) de Paris 8 dont nous vous avions fait part, et a décidé de suspendre l’utilisation de TestWe pour surveiller leurs examens.

    TestWe : surveiller et punir à l’Institut d’Enseignement à Distance de Paris 8

    Dans son ordonnance, le tribunal conclut notamment que :

    « L’exécution de la délibération du 21 septembre 2022 par laquelle le conseil de l’institut d’enseignement à distance de l’université Paris-VIII a décidé d’avoir recours pour l’organisation et la surveillance des examens en ligne à une application du type de celle proposée par la société Testwe est suspendue. »

    Un « doute sérieux » sur le respect du RGPD

    La suspension est justifiée dans cette ordonnance [PDF] du tribunal administratif de Montreuil par « un doute sérieux quant à la légalité de la décision » de l’IED d’utiliser le logiciel TestWe pour surveiller ses examens.

    Les juges pointent que cette décision est de nature à porter atteinte au RGPD et spécialement au fait que « les données à caractère personnel doivent être adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées (minimisation des données) », citant l’article 5 paragraphe 1 point C du règlement.

    Devant le tribunal, l’Université Paris 8 a soutenu avoir «  décidé d’organiser les examens à distance de licence de l’institut d’enseignement à distance au moyen de la plate-forme TestWe, au motif du dysfonctionnement de l’autre modalité envisagée ».

    Cette autre modalité envisagée n’est autre que le logiciel Moodle configuré spécialement pour le passage des examens. Celle-ci est déjà utilisée dans d’autres formations de l’université et dans bien d’autres établissements et ne semble pas être remise en question ailleurs.

    Elle s’appuyait aussi sur « les garanties relevées dans la documentation de l’application Testwe » pour assurer que la requête des étudiants n’était pas fondée. Visiblement, ces garanties n’ont pas convaincu les juges du tribunal administratif de Montreuil qui ont pris cette ordonnance de suspension en urgence et donc ne se prononçaient pas sur le fond.

    Le tribunal ne s’est par contre pas prononcé pour l’obligation d’effectuer ces examens via Moodle contrairement à ce que demandaient les étudiants.

    Les juges expliquent que « la présente ordonnance n’implique pas nécessairement, contrairement à ce que demandé XXX* et les intervenants, que l’université Paris-VIII organise les examens de licence au sein de son institut d’enseignement à distance au moyen de la plate-forme « Moodle » » (XXX étant le nom biffé de l’étudiante ayant attaqué l’IED).

    L’IED pourra donc décider, si son administration le souhaite, d’organiser ces examens en présentiel comme elle l’avait menacé suite aux réactions des étudiants.

    TestWe : « ce rêve de cancre » réalisé

    Dans un post publié sur le réseau social LinkedIn, le PDG de TestWe, Benoît Sillard, a réagi :

    « Je n’arrive pas à comprendre comment, en 2022, on peut encore rejeter le principe du passage d’examens à distance dans des conditions équitables. »

    L’éditeur du logiciel de surveillance d’examen rajoute « Imaginez une salle d’examen sans aucun contrôle d’identité ou de convocation, un cauchemar pour le monde de l’enseignement supérieur. Ce rêve de cancre, quelques étudiants en psychologie de l’IED Paris VIII viennent de le réaliser en obtenant d’un juge des référés la suspension de la surveillance de leurs examens à distance ».

    L’entreprise a aussi publié un billet de blog affirmant « TestWe est certifiée ISO 9001, nos services respectent les normes de la CNIL et du RGPD ».

    La Quadrature se réjouit

    La Quadrature du Net, dont l’intervention lors de cette requête a été admise par le tribunal, a réagi par un communiqué appelant à se réjouir « que la surveillance algorithmique soit écartée de l’Université : en émettant des doutes quant à la légalité de ce genre de dispositif, le tribunal administratif de Montreuil a envoyé un avertissement à toutes les autres universités et écoles ».

    L’association explique pourtant que « Le juge n’a pas dit que TestWe est illégal, simplement qu’il y a un doute sérieux quant à sa légalité » et explique donc poursuivre «  la procédure au fond ».

    Contacté par email et par téléphone, l’IED de Paris 8 n’a pas répondu à nos sollicitations.

    Source : nextinpact.com

  • 2 Votes
    5 Messages
    141 Vues

    Le pire, c’est que les jeunes vont s’habituer à ça et trouver cette pratique tout à fait normale.
    Après tout, il y a déjà des caméras partout dehors (et même chez soi)…

  • 1 Votes
    3 Messages
    159 Vues

    @Indigostar a dit dans Les VPN ferment leurs serveurs en Inde, mais pourquoi ? :

    leurs serveurs hindous

    J’ignorai qu’un serveur pouvait avoir une religion !

  • 2 Votes
    7 Messages
    217 Vues

    @Ashura a dit dans [USA] La police peut désormais visionner les caméras de surveillance privées en temps réel, cette mesure ne rendrait pas la ville sécurisée :

    J’aurais précisé dans le titre que ça se passe aux US et non en FRANCE.

    ca commence toujours comme ca et ca arrive chez nous après

    Pas pour tout, j’attends toujours mon Dodge Ram, et mon boeuf aux hormones.