Le porno Deepfake est hors de contrôle (Les orgasmes de l'AI)
-
De nouvelles recherches montrent que le nombre de vidéos deepfake monte en flèche et que les plus grands moteurs de recherche du monde redirigent les clics vers des dizaines de sites dédiés aux contrefaçons non consensuelles.
Les moteurs de recherche de Google et de Microsoft ont un problème avec les vidéos pornographiques deepfake. Depuis l’apparition des deepfakes il y a cinquante ans, la technologie a été constamment utilisée pour abuser et harceler les femmes, en utilisant l’apprentissage automatique pour transformer la tête de quelqu’un en pornographie sans leur permission. Aujourd’hui, le nombre de vidéos pornographiques deepfakes non consensuelles augmente à un rythme exponentiel, alimenté par les progrès des technologies de l’IA et un écosystème deepfake en expansion.
Une nouvelle analyse de vidéos pornographiques deepfake non consensuelles, menée par un chercheur indépendant et partagée avec WIRED, montre à quel point les vidéos sont devenues omniprésentes. Au moins 244 625 vidéos ont été mises en ligne sur les 35 principaux sites Web créés exclusivement ou partiellement pour héberger des vidéos pornographiques deepfake au cours des sept dernières années, selon le chercheur, qui a requis l’anonymat pour éviter d’être ciblé en ligne.
Au cours des neuf premiers mois de cette année, 113 000 vidéos ont été mises en ligne sur les sites Web, soit une augmentation de 54 % par rapport aux 73 000 vidéos mises en ligne au cours de l’année 2022. D’ici la fin de cette année, selon l’analyse, davantage de vidéos auront été produites en 2023. que le nombre total de toutes les deux années combinées.
Ces chiffres surprenants ne sont qu’un aperçu de l’ampleur des problèmes liés aux deepfakes non consensuels : l’ampleur du problème est bien plus vaste et englobe d’autres types d’images manipulées. Toute une industrie de deepfake abus, qui cible principalement les femmes et est produite sans le consentement ou la connaissance des gens, a émergé ces dernières années. Les applications d’échange de visage qui fonctionnent sur des images fixes et les applications permettant de « retirer les vêtements d’une personne » sur une photo en quelques clics seulement sont également très répandues. Il est probable que des millions d’images soient créées avec ces applications.
“C’est quelque chose qui cible les gens ordinaires, les lycéens ordinaires, les adultes ordinaires, c’est devenu un phénomène quotidien”, déclare Sophie Maddocks, qui mène des recherches sur les droits numériques et la violence cybersexuelle à l’Université de Pennsylvanie. « Cela ferait une grande différence si nous pouvions rendre ces technologies plus difficiles d’accès. Cela ne devrait pas prendre deux secondes pour potentiellement inciter à un crime sexuel.
La nouvelle recherche met en évidence 35 sites Web différents, qui existent pour héberger exclusivement des vidéos pornographiques deepfakes ou incorporer les vidéos à d’autres contenus pour adultes. (Cela n’englobe pas les vidéos publiées sur les réseaux sociaux, celles partagées en privé ou les photos manipulées.) WIRED ne nomme pas ni ne crée de lien direct vers les sites Web, afin de ne pas augmenter davantage leur visibilité. Le chercheur a exploré les sites Web pour analyser le nombre et la durée des vidéos deepfakes, et a examiné comment les gens trouvent les sites Web à l’aide du service d’analyse SimilarWeb.
De nombreux sites Web indiquent clairement qu’ils hébergent ou diffusent des vidéos pornographiques deepfakes, comportant souvent le mot deepfakes ou ses dérivés dans leur nom. Les deux principaux sites Web contiennent chacun 44 000 vidéos, tandis que cinq autres hébergent plus de 10 000 vidéos deepfake. La plupart d’entre eux contiennent plusieurs milliers de vidéos, tandis que certains n’en répertorient que quelques centaines. Certaines vidéos analysées par le chercheur ont été visionnées des millions de fois.
La recherche a également identifié 300 autres sites Web de pornographie générale qui intègrent d’une manière ou d’une autre de la pornographie deepfake non consensuelle. Le chercheur affirme que les sites Web de « fuite » et les sites Web qui existent pour republier les photos des gens sur les réseaux sociaux intègrent également des images deepfake. Un site Web de photographie affirme avoir « déshabillé » des personnes sur 350 000 photos.
Mesurer l’ampleur des vidéos et des images deepfakes en ligne est incroyablement difficile. Il est difficile de savoir où le contenu est partagé sur les réseaux sociaux, tandis que le contenu abusif est également partagé dans des groupes de messagerie privés ou sur des canaux fermés, souvent par des personnes connues des victimes. En septembre, plus de 20 filles âgées de 11 à 17 ans se sont manifestées dans la ville espagnole d’Almendralejo après que des outils d’IA ont été utilisés pour générer des photos nues d’elles à leur insu .
“Il y a eu une croissance significative de la disponibilité d’outils d’IA pour créer des images pornographiques non consensuelles et une augmentation de la demande pour ce type de contenu sur les plateformes pornographiques et les réseaux en ligne illicites”, a déclaré Asher Flynn, professeur agrégé à l’Université Monash, en Australie. , qui se concentre sur l’IA et les abus facilités par la technologie. Cela ne fera qu’augmenter avec les nouveaux outils d’IA générative.
La passerelle vers de nombreux sites Web et outils permettant de créer des vidéos ou des images deepfakes se fait via la recherche. Des millions de personnes sont dirigées vers les sites Web analysés par le chercheur, et 50 à 80 % des personnes y accèdent via la recherche. Trouver des vidéos deepfakes via la recherche est trivial et ne nécessite pas de connaissances particulières sur ce qu’il faut rechercher.
L’enjeu est mondial. À l’aide d’un VPN, le chercheur a testé les recherches Google au Canada, en Allemagne, au Japon, aux États-Unis, au Brésil, en Afrique du Sud et en Australie. Dans tous les tests, les sites Web deepfakes étaient affichés en bonne place dans les résultats de recherche. Les célébrités, les streamers et les créateurs de contenu sont souvent ciblés dans les vidéos. Maddocks affirme que la propagation des deepfakes est devenue « endémique » et c’est ce que de nombreux chercheurs craignaient pour la première fois lorsque les premières vidéos deepfakes ont pris de l’importance en décembre 2017 .
Depuis que les outils nécessaires à la création de vidéos deepfake sont apparus, ils sont devenus plus faciles à utiliser et la qualité des vidéos produites s’est améliorée. La vague d’outils de génération d’images offre également la possibilité de créer des images abusives de meilleure qualité et, à terme, des vidéos. Et cinq ans après l’apparition des premiers deepfakes, les premières lois font leur apparition . qui criminalisent le partage d’images truquées
La prolifération de ces applications deepfake, combinée à une plus grande dépendance aux communications numériques à l’ère du Covid-19 et à « l’incapacité des lois et des politiques à suivre le rythme », a créé une « tempête parfaite », dit Flynn.
Les experts affirment qu’en plus de nouvelles lois, une meilleure éducation sur les technologies est nécessaire, ainsi que des mesures pour arrêter la propagation d’outils créés pour nuire. Cela inclut l’action des entreprises qui hébergent les sites Web ainsi que des moteurs de recherche, notamment Google et Bing de Microsoft. Actuellement, les plaintes déposées au Digital Millennium Copyright Act (DMCA) constituent le principal mécanisme juridique dont disposent les femmes pour faire retirer des vidéos des sites Web.
Henry Ajder, un expert en deepfake et en IA générative qui a surveillé la diffusion des technologies , affirme qu’il ajoute plus de « frictions » au processus de recherche de vidéos pornographiques deepfake, d’applications pour changer les visages des gens et d’outils qui permettent spécifiquement la création d’images non consensuelles. peut réduire la propagation. « Il s’agit d’essayer de rendre la tâche aussi difficile que possible pour que quelqu’un puisse trouver quelqu’un », dit-il. Il peut s’agir de résultats déclassés par les moteurs de recherche pour des sites Web nuisibles ou de fournisseurs de services Internet bloquant des sites, dit-il. « Il est difficile d’être vraiment optimiste, compte tenu du volume et de l’ampleur de ces opérations, et de la nécessité pour les plateformes – qui, historiquement, n’ont pas pris ces problèmes au sérieux – de le faire soudainement », explique Ajder.
“Comme tout moteur de recherche, Google indexe le contenu qui existe sur le Web, mais nous concevons activement nos systèmes de classement pour éviter de choquer les gens avec du contenu inattendu, nuisible ou explicite qu’ils ne veulent pas voir”, a déclaré le porte-parole de Google, Ned Adriance, en soulignant son page sur quand il supprime les résultats de recherche . Les pages d’assistance de Google indiquent qu’il est possible pour les gens de demander que la « fausse pornographie involontaire » soit supprimée. Son formulaire de suppression oblige les utilisateurs à soumettre manuellement les URL et les termes de recherche utilisés pour trouver le contenu. “À mesure que cet espace évolue, nous travaillons activement à ajouter davantage de mesures de protection pour aider à protéger les personnes, sur la base des systèmes que nous avons construits pour d’autres types d’images explicites non consensuelles”, explique Adriance.
Courtney Gregoire, responsable de la sécurité numérique chez Microsoft, déclare qu’il n’autorise pas les deepfakes et qu’ils peuvent être signalés via ses Web formulaires . « La diffusion d’images intimes non consensuelles (NCII) constitue une violation flagrante de la vie privée et de la dignité personnelle, avec des effets dévastateurs pour les victimes », déclare Grégoire. “Microsoft interdit le NCII sur nos plateformes et services, y compris la sollicitation du NCII ou le plaidoyer en faveur de la production ou de la redistribution d’images intimes sans le consentement de la victime.”Même si le nombre de vidéos et d’images continue de monter en flèche, l’impact sur les victimes peut être durable. « Le harcèlement en ligne fondé sur le genre a un effet dissuasif énorme sur la liberté d’expression des femmes », déclare Maddocks. Comme le rapporte WIRED , les streameuses Twitch ciblées par les deepfakes se sentent violées, exposées à davantage de harcèlement et perdent du temps, et certaines ont déclaré que le contenu non consensuel a été retrouvé par des membres de leur famille.
Flynn, professeur à l’Université Monash, affirme que ses recherches ont révélé des « taux élevés » de problèmes de santé mentale, tels que l’anxiété, la dépression, l’automutilation et le suicide, résultant d’abus numériques. « Les impacts potentiels sur la santé mentale et physique d’une personne, ainsi que sur son emploi, sa famille et sa vie sociale, peuvent être immenses », explique Flynn, « que l’image soit truquée ou « réelle ».
Source: https://www.wired.com/story/deepfake-porn-is-out-of-control/
Ne cliquez pas sur le site ci-dessus, il n’y a pas d’images ni de lien et encore moins de dujambon dans un porno.
-
si y a pas dujambon effectivement pourquoi mettre un lien ?
-
ça c’était malheureusement prévisible, et ce depuis le début des deepfake voire même de photoshop psp et autre coreldraw !
-
C’est l’occasion de regarder un trilobite en action.
-
La petite Hermione de Harry potter 1, j’étais choqué