• 3 Votes
    17 Messages
    220 Vues

    moi, cette histoire me fait penser à la chanson de Talk Talk - Such a Shame

    un de mes clips préférés, soit dit en passant ^^

  • 3 Votes
    3 Messages
    95 Vues

    @Raccoon a dit dans Une régie publicitaire surveillait plus de 5 milliards de portables via 500 000 applications :

    la plateforme (…) dispose des profils de « plus de 5 milliards d’identifiants d’utilisateurs »

    c’est malheureux à dire mais je m’en fous… comme l’a dit @duJambon tant que les données ne tombent pas entre les mains du commun des mortels je vois pas où est le problème

  • 3 Votes
    6 Messages
    94 Vues

    putain on courrait les cabines téléphoniques !!! et pour en trouver une qui fonctionne, des fois fallait prendre le métro lol

  • 3 Votes
    2 Messages
    60 Vues

    Malheureusement ça va se mettre en place partout, faut pas rêver

  • 1 Votes
    1 Messages
    30 Vues

    Alors qu’une ONG s’apprête à faire pression sur Apple afin qu’elle « détecte, signale et supprime » les contenus pédocriminels, la société explique pourquoi elle a renoncé à son projet décrié de surveillance du cloud chiffré.

    Dans un geste suffisamment rare pour être noté, soulignent Wired et le cryptographe

    , Apple vient d’expliquer pourquoi la société avait finalement décidé, en décembre dernier, de mettre un terme à son controversé projet de détection des contenus à caractère pédopornographique (child sexual abuse material, ou CSAM) sur iCloud.

    En réponse à un courrier de la Heat Initiative, une ONG qui lui demandait de « détecter, signaler et supprimer » les CSAM, Erik Neuenschwander, directeur de la protection de la vie privée des utilisateurs et de la sécurité des enfants chez Apple, explique en effet que « l’analyse des données iCloud privées de chaque utilisateur créerait de nouveaux vecteurs d’attaques que des pirates pourraient trouver et exploiter » :

    « Cela pourrait nous amener sur une pente glissante avec des conséquences imprévues. La recherche d’un type de contenu ouvre la porte à la surveillance en masse et pourrait donner l’envie de rechercher tout type de contenu dans d’autres systèmes de messagerie chiffrée. Nous avons conclu qu’il n’était pas possible de la mettre en œuvre sans mettre en péril la sécurité et la vie privée de nos utilisateurs. »

    | Apple entre renonciations, reports et grogne des employés | Pédopornographie : Apple s’explique, mais la colère et les craintes restent | Apple va chercher des contenus pédopornographiques dans les iPhone américains

    Erik Neuenschwander précise être parvenu à cette conclusion après avoir consulté de nombreux chercheurs en matière de sécurité et de protection de la vie privée, des groupes de défense des droits numériques et de la sécurité des enfants.

    Lettre d’Apple à la Heat Initiative « S’ils ne le peuvent pas, personne ne le peut »

    La Heat Initiative s’était déclarée déçue qu’Apple abandonne son projet, arguant qu’« Apple est l’une des entreprises les plus prospères au monde et dispose d’une armée d’ingénieurs de classe mondiale » :

    « Il est de leur responsabilité de concevoir un environnement sûr et respectueux de la vie privée qui permette de détecter les images et les vidéos d’abus sexuels d’enfants connus. Tant que les gens pourront partager et stocker dans iCloud une image connue d’un enfant en train de se faire violer, nous exigerons qu’ils fassent mieux. »

    « La déclaration d’Apple sonne le glas de l’idée selon laquelle il est possible de scanner les communications de chacun ET de préserver la confidentialité », a

    Meredith Whittaker, chercheuse spécialisée en éthique de l’intelligence artificielle et présidente de la Signal Foundation, qui chapeaute l’application éponyme :

    « Apple possède plusieurs des meilleurs cryptographes + ingénieurs en génie logiciel au monde + $ infinis. S’ils ne le peuvent pas, personne ne le peut. (Ils ne le peuvent pas. Personne ne le peut.) »

    Le manque d’intimité est aussi une menace pour la sécurité

    Le New York Times n’en relève pas moins que Heat Initiative a réussi à lever 2 millions de dollars afin de lancer une « campagne publicitaire nationale » sur des sites web populaires auprès des décideurs politiques à Washington, tels que Politico, arguant que 90 % des États-Uniens estiment qu’Apple doit « détecter, signaler et supprimer » les CSAM.

    Ce chiffre émane d’un sondage d’opinion (.pdf) effectué par le Bellwether Research auprès d’un échantillon représentatif de 2 041 adultes, en ligne. Bien que 79 % des répondants reconnaissent ne pas être familiers avec les technologies utilisées pour détecter les images et vidéos d’abus pédosexuels, 83 % pensent qu’il est possible d’identifier, signaler et supprimer les contenus pédopornographiques sur les plateformes tout en protégeant la vie privée des utilisateurs « en même temps », et 86 % approuvent le fait qu’ « Apple prenne des mesures pour mieux protéger les enfants contre les abus sexuels, même si cela implique de renoncer à une partie de ma propre vie privée ».

    Heat Initiative

    Heat Initiative

    Ce qui fait

    Joseph Menn, journaliste cyber du Washington Post, qui appelle les journalistes à ne pas tomber dans cette « simplification excessive », et à ne pas opposer sécurité et confidentialité, au motif que « le manque d’intimité est AUSSI une menace pour la sécurité » et que « la plupart des gens qui ne comprennent toujours pas cela ont tendance à ne pas vivre dans des pays autoritaires et n’ont jamais couru le risque d’être harcelés, peut-être parce qu’ils sont des hommes et ne sont pas célèbres. Mais une fois qu’une technologie est en panne pour certains, elle est en panne pour tous. »

    Apple n’a fait que 234 signalements, Facebook 22 millions

    La Heat Initiative a programmé sa campagne en prévision de la présentation annuelle de l’iPhone par Apple, le 12 septembre. La campagne est dirigée par Sarah Gardner, auparavant vice-présidente des affaires extérieures de Thorn (une organisation à but non lucratif fondée par Demi Moore et son ex-mari Ashton Kutcher pour lutter contre les abus sexuels commis sur des enfants en ligne) et qui précise que « l’objectif est de poursuivre les tactiques jusqu’à ce qu’Apple change sa politique ».

    La Heat Initiative souligne qu’aux États-Unis, Apple n’a effectué que 160 signalements en 2021 (.pdf) au National Center for Missing and Exploited Children (NCMEC), alors que Google en a fait 875 783, et Facebook 22 millions :

    « En 2022, la CyberTipline du NCMEC a reçu un nombre impressionnant de 32 millions de signalements, dont près de 90 % provenaient de quatre fournisseurs de services électroniques seulement : Facebook, Instagram, WhatsApp et Google. Ces géants de la technologie ont signalé et retiré plus de 29 millions d’images et de vidéos montrant des abus sexuels commis sur des enfants, ce qui montre l’impact considérable que peuvent avoir les entreprises qui s’engagent à protéger les enfants sur leurs plateformes.

    En revanche, la contribution d’Apple n’a consisté qu’en 234 signalements, ce qui souligne la nécessité pour toutes les entreprises technologiques de s’engager activement à assurer la sécurité des enfants en ligne. »

    Un groupe de deux douzaines d’investisseurs gérant près de 1 000 milliards de dollars d’actifs aurait également demandé à Apple de rendre public le nombre d’images abusives détectées sur ses appareils et ses services, rapporte le NYT :

    « Deux investisseurs – Degroof Petercam, un gestionnaire d’actifs belge, et Christian Brothers Investment Services, une société d’investissement catholique – soumettront ce mois-ci une proposition d’actionnaire qui exigerait qu’Apple fournisse un rapport détaillé sur l’efficacité de ses outils de sécurité pour protéger les enfants. »

    Le NYT relève cela dit que « ces signalements ne reflètent pas toujours des contenus réellement abusifs : certains parents ont vu leur compte Google suspendu et ont été signalés à la police pour des images de leurs enfants qui n’étaient pas de nature criminelle », comme nous l’avions d’ailleurs relaté.

    | Accusés à tort de pédophilie pour des photos faites à la demande de médecins
  • 2 Votes
    9 Messages
    178 Vues
  • 1 Votes
    1 Messages
    38 Vues

    C’est une bonne nouvelle pour les organismes de défense de droits numériques. Même si la loi n’est pas encore entrée en vigueur, le contenu du projet de loi affiche bien la volonté des commissions européennes à protéger les Européens contre les dérives de l’Intelligence artificielle. De la reconnaissance faciale à bien d’autres aspects de l’usage de l’IA, l’organisation a mis les verrous pour restreindre les types d’utilisation qui peuvent être faits sur les populations.

    Dans la nouvelle version du projet de loi, il est interdit de se servir de programmes de reconnaissance faciale de masse dans les lieux publics. De même, une interdiction d’usage est adressée pour les algorithmes de police prédictive servant à identifier à l’avance des personnes susceptibles d’être dangereuses pour la société. Ces interdictions visent à protéger l’usage qui est fait des données personnelles de la population. En effet, pour être efficaces, les logiciels de ces catégories ont forcément besoin d’avoir accès à des données personnelles.

    Au-delà de ces interdictions, le projet de loi a prévu la création d’une base de données accessible au public. Cette base de données servira de répertoire des systèmes d’IA « à haut risque » que déploient les autorités gouvernementales et publiques. Le but est d’informer les citoyens de l’Union européenne du moment et de la manière dont ces systèmes les impactent. C’est donc la carte de la transparence que l’UE a décidé de jouer avec ces citoyens. « Cette base de données devrait être librement et publiquement accessible, facilement compréhensible et lisible par une machine », précise le projet. « La base de données devrait également être conviviale et facile à parcourir avec des fonctionnalités de recherche permettant au minimum au grand public de rechercher dans la base de données des systèmes à haut risque spécifiques, des lieux, des catégories de risque [et] des mots-clés ».

    Le projet de loi a aussi prévu des dispositions visant à plus de contrôle pour l’« IA à usage général » ou les systèmes d’IA « fondateurs ». Même si la loi n’a pas vraiment défini ce type de système, il est évident qu’il s’agit des langages d’IA de grande échelle servant à diverses fins. Avec cette explication, il est clair que la législation s’adresse à des systèmes comme GPT-4, ChatGPT. Par extension, les générateurs d’images à base d’IA comme Stable Diffusion, Midjourney et DALL-E sont aussi concernés.

    Microsoft, Google, OpenAI et les autres créateurs de système d’IA à grande échelle devront évaluer et atténuer divers risques avant que leurs outils ne soient mis à disposition du public. La législation a cité les divers contrôles à effectuer pour évaluer les systèmes créés. Entre autres, il faudra évaluer les dommages causés à l’environnement par la formation de ces systèmes. En effet, la mise en place des systèmes d’IA à grande échelle consomme souvent beaucoup d’énergie.

    Le projet de loi oblige aussi les entreprises à divulguer « l’utilisation de données de formation protégées par la législation sur le droit d’auteur ».

    Le processus n’est pas encore à son terme pour ce projet de loi. Son entrée en vigueur est programmée pour 2024. Le projet de loi était en examen depuis des années, mais la course contre l’IA a obligé les législateurs à apporter des modifications de dernière minute. La commission du marché intérieur et la commission des libertés civiles ont déjà validé la nouvelle version du projet de loi.

    La démarche et le contenu du projet ont reçu un écho favorable de certains acteurs du domaine. « C’est une très bonne nouvelle », a déclaré à The Verge Daniel Leufer, analyste politique principal de l’organisation à but non lucratif Access Now. « Je pense que d’énormes changements positifs ont été apportés au texte. »

    Source: https://www.fredzone.org/ue-elabore-projet-loi-interdit-usage-ia-surveillance-biometriqu

    On peut rêver, mais si la loi sortait avant les jo de Paris… :lol:

  • 3 Votes
    22 Messages
    482 Vues
    L’armée britannique obtient des viseurs de fusil tuant des drones

    Pour aider à contrer la menace croissante des micro et mini drones, l’armée britannique a déboursé 4,6 millions de livres sterling (5,8 millions de dollars) pour équiper les fusils d’assaut SA80 A3 de l’infanterie du système de contrôle de tir SmartShooter SMASH Smart Weapon Sight, un viseur spécial qui permet à un soldat de se verrouiller automatiquement sur un UAV en vol.

    Pour fournir la capacité nécessaire de contre-petits systèmes aériens sans équipage (C-sUAS), SMASH a été développé. Conçu pour s’adapter comme un viseur standard sur le fusil d’assaut SA80 A3 et d’autres armes de service individuelles, il intègre un processeur d’image qui utilise l’intelligence artificielle pour identifier et verrouiller un drone lorsqu’il se trouve dans le champ de vision. Il peint ensuite une boîte autour de la cible. Lorsque le viseur est correctement aligné, l’arme est alors autorisée à tirer, augmentant considérablement la probabilité de détruire le drone.

    Source: https://newatlas.com/military/british-army-drone-killing-rifle-sights/

    Un truc relativement facile à bricoler 🙂

  • 2 Votes
    15 Messages
    280 Vues

    @Jean-François 😕 racheté par Avast… ce n’est pas une bonne nouvelle. J’espère que des forks vont vite voir le jour.

  • 1 Votes
    11 Messages
    347 Vues

    @Memorex91 a dit dans Top 5 des pays où internet est le plus surveillé par le gouvernement :

    Par le plus grand des hasards on y retrouve tous les ennemis de "l’occident "

    Certes la plupart des pays occidentaux surveillent ce qui se passe sur internet, en France comme ailleurs. Mais il y a une “petite” différence avec les pays dictatoriaux cités, c’est qu’en occident, jusqu’à preuve du contraire, tu peux faire à peu près tout ce que tu veux sur internet, et aller voir où bon te semble sans avoir à prendre des précautions d’espions, et sans risquer de te retrouver en taule ou au goulag comme dans les les dictatures pré-citées.
    Ça me parait être une différence majeure.

  • 2 Votes
    6 Messages
    149 Vues

    merci la NSA qui pousse derrière

  • 1 Votes
    3 Messages
    55 Vues

    @duJambon

    Pour les autres pays, ils ont confié la tâche à l’IA de Google, qui s’en acquitte très bien.

  • 2 Votes
    8 Messages
    203 Vues

    @Kourhage domage “This repository and qTox are unmaintained!”

  • 1 Votes
    4 Messages
    60 Vues

    Même si ça peut résoudre des enquêtes,ces technologies comme la vidéo n’empêchent pas les crimes à part les enregistrer au moment où ça se passe. Comme le gars qui a attaqué des gens a la gare du nord ya quelques jours,ça n’aurait pas pu l’empêcher. Donc à part pousser toujours plus loin le curseur de la dérive sécuritaire sous prétexte de prévenir le crime,tout ceci n’est qu’un business juteux pour ceux qui font leur beurre en attisant les peurs…

  • 5 Votes
    14 Messages
    238 Vues
    L’Institut d’Enseignement à Distance de Paris 8 obligé d’abandonner TestWe pour ses examens

    Suite à la contestation par des étudiants de l’utilisation du logiciel TestWe pour surveiller lors de leurs examens, la justice oblige l’Institut d’Enseignement à Distance de Paris 8 à suspendre l’utilisation de ce logiciel.

    Le tribunal administratif de Montreuil s’est prononcé mercredi 14 décembre sur la demande des étudiants de l’Institut d’Enseignement à Distance (IED) de Paris 8 dont nous vous avions fait part, et a décidé de suspendre l’utilisation de TestWe pour surveiller leurs examens.

    TestWe : surveiller et punir à l’Institut d’Enseignement à Distance de Paris 8

    Dans son ordonnance, le tribunal conclut notamment que :

    « L’exécution de la délibération du 21 septembre 2022 par laquelle le conseil de l’institut d’enseignement à distance de l’université Paris-VIII a décidé d’avoir recours pour l’organisation et la surveillance des examens en ligne à une application du type de celle proposée par la société Testwe est suspendue. »

    Un « doute sérieux » sur le respect du RGPD

    La suspension est justifiée dans cette ordonnance [PDF] du tribunal administratif de Montreuil par « un doute sérieux quant à la légalité de la décision » de l’IED d’utiliser le logiciel TestWe pour surveiller ses examens.

    Les juges pointent que cette décision est de nature à porter atteinte au RGPD et spécialement au fait que « les données à caractère personnel doivent être adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées (minimisation des données) », citant l’article 5 paragraphe 1 point C du règlement.

    Devant le tribunal, l’Université Paris 8 a soutenu avoir «  décidé d’organiser les examens à distance de licence de l’institut d’enseignement à distance au moyen de la plate-forme TestWe, au motif du dysfonctionnement de l’autre modalité envisagée ».

    Cette autre modalité envisagée n’est autre que le logiciel Moodle configuré spécialement pour le passage des examens. Celle-ci est déjà utilisée dans d’autres formations de l’université et dans bien d’autres établissements et ne semble pas être remise en question ailleurs.

    Elle s’appuyait aussi sur « les garanties relevées dans la documentation de l’application Testwe » pour assurer que la requête des étudiants n’était pas fondée. Visiblement, ces garanties n’ont pas convaincu les juges du tribunal administratif de Montreuil qui ont pris cette ordonnance de suspension en urgence et donc ne se prononçaient pas sur le fond.

    Le tribunal ne s’est par contre pas prononcé pour l’obligation d’effectuer ces examens via Moodle contrairement à ce que demandaient les étudiants.

    Les juges expliquent que « la présente ordonnance n’implique pas nécessairement, contrairement à ce que demandé XXX* et les intervenants, que l’université Paris-VIII organise les examens de licence au sein de son institut d’enseignement à distance au moyen de la plate-forme « Moodle » » (XXX étant le nom biffé de l’étudiante ayant attaqué l’IED).

    L’IED pourra donc décider, si son administration le souhaite, d’organiser ces examens en présentiel comme elle l’avait menacé suite aux réactions des étudiants.

    TestWe : « ce rêve de cancre » réalisé

    Dans un post publié sur le réseau social LinkedIn, le PDG de TestWe, Benoît Sillard, a réagi :

    « Je n’arrive pas à comprendre comment, en 2022, on peut encore rejeter le principe du passage d’examens à distance dans des conditions équitables. »

    L’éditeur du logiciel de surveillance d’examen rajoute « Imaginez une salle d’examen sans aucun contrôle d’identité ou de convocation, un cauchemar pour le monde de l’enseignement supérieur. Ce rêve de cancre, quelques étudiants en psychologie de l’IED Paris VIII viennent de le réaliser en obtenant d’un juge des référés la suspension de la surveillance de leurs examens à distance ».

    L’entreprise a aussi publié un billet de blog affirmant « TestWe est certifiée ISO 9001, nos services respectent les normes de la CNIL et du RGPD ».

    La Quadrature se réjouit

    La Quadrature du Net, dont l’intervention lors de cette requête a été admise par le tribunal, a réagi par un communiqué appelant à se réjouir « que la surveillance algorithmique soit écartée de l’Université : en émettant des doutes quant à la légalité de ce genre de dispositif, le tribunal administratif de Montreuil a envoyé un avertissement à toutes les autres universités et écoles ».

    L’association explique pourtant que « Le juge n’a pas dit que TestWe est illégal, simplement qu’il y a un doute sérieux quant à sa légalité » et explique donc poursuivre «  la procédure au fond ».

    Contacté par email et par téléphone, l’IED de Paris 8 n’a pas répondu à nos sollicitations.

    Source : nextinpact.com

  • 2 Votes
    5 Messages
    135 Vues

    Le pire, c’est que les jeunes vont s’habituer à ça et trouver cette pratique tout à fait normale.
    Après tout, il y a déjà des caméras partout dehors (et même chez soi)…

  • 1 Votes
    3 Messages
    145 Vues

    @Indigostar a dit dans Les VPN ferment leurs serveurs en Inde, mais pourquoi ? :

    leurs serveurs hindous

    J’ignorai qu’un serveur pouvait avoir une religion !

  • 2 Votes
    7 Messages
    209 Vues

    @Ashura a dit dans [USA] La police peut désormais visionner les caméras de surveillance privées en temps réel, cette mesure ne rendrait pas la ville sécurisée :

    J’aurais précisé dans le titre que ça se passe aux US et non en FRANCE.

    ca commence toujours comme ca et ca arrive chez nous après

    Pas pour tout, j’attends toujours mon Dodge Ram, et mon boeuf aux hormones.

  • 4 Votes
    2 Messages
    122 Vues
  • 1 Votes
    5 Messages
    98 Vues

    @Ashura Ah le bon temps, nous on avait un prof de travaux manuels qui lançait des cales à poncer, voir même son trousseau de clefs, et il y en avait des clefs sur le trousseau!