copie d’un article paru sur le site : Numérama
*Les deepfakes existent depuis plusieurs années. Mais, désormais, on réalise que la plupart des usages délétères de ces outils sont misogynes. C’est le sujet de la newsletter #Règle30 de Numerama cette semaine.
On peut comprendre beaucoup de choses du web en observant les pubs en ligne. La semaine dernière, une étudiante américaine, Lauren Barton, a compris quelque chose de très déprimant. Alors qu’elle utilisait un logiciel de retouche d’image sur son smartphone, elle est tombée sur une publicité pour une application permettant de modifier des vidéos et d’y ajouter le visage d’une autre personne. Ce genre de services s’est popularisé ces dernières années. Ils utilisent une technique de manipulation baptisée « deepfake » : la rencontre de deep learning (apprentissage profond, un champ d’intelligence artificielle) et fake (faux).
Souvent, ces applications proposent des choses amusantes, comme de mettre sa tête dans un clip de musique ou une scène connue d’un film. Mais, le service découvert par Lauren Barton faisait plutôt la promotion de contenus adultes. Dans la publicité en question, on voit une imitation de l’actrice Emma Watson sourire à la caméra, puis se mettre à genoux, en suggérant un acte sexuel à venir.
Parce que la tech appartient à tout le monde Lauren Barton a partagé son choc sur Twitter, entraînant la publication de plusieurs articles sur cette application, et finalement son retrait de Google Play et de l’App Store. Si l’application faisait sa promotion avec des imitations de célébrités (Emma Watson, Scarlett Johansson), elle promettait de créer des deepfakes facilement avec « n’importe quel visage ». Les internautes pouvaient proposer la vidéo de leur choix à modifier ou utiliser des scènes fournies par l’application. Aucune n’était à caractère pornographique, mais la majorité étaient promues comme « sexy », avec des femmes et des hommes en sous-vêtements et/ou dans des poses lascives.
Le fond du problème des deepfakes n’est pas technologique
Les technologies permettant la création de deepfakes existent depuis un certain temps. Le grand public a lui découvert le sujet à partir de 2018, avec la médiatisation d’un subreddit (un sous-forum sur le site américain Reddit) dédié aux deepfakes pornographiques, mettant en scène des célébrités sans leur consentement. Pourtant, on s’est d’abord préoccupés des traficotages visant les hommes et les femmes politiques. Et si un deepfake faisait basculer une élection ?
Aujourd’hui, on réalise que l’immense majorité des applications délétères de ces technologies sont misogynes. Je vous parlais récemment de ce streameur américain surpris en train de chercher des vidéos deepfakes pornographiques de ses consœurs sur Twitch. L’application découverte par Lauren Barton est choquante, mais elle est aussi de plus en plus banale. Alors qu’en 2018, les deepfakes étaient plutôt réservés à des personnes avec des compétences techniques, des services proposent désormais d’en créer en quelques clics. Et pour les personnes paresseuses, il suffit d’aller sur les sites pornographiques spécialisés dans les deepfakes qui pullulent sur le web.
Je suis quelqu’un d’optimiste. Néanmoins, sur le sujet des deepfakes, je suis plutôt fataliste. Je crois qu’il est possible de limiter ce fléau : les réseaux sociaux peuvent les interdire (c’est le cas sur Facebook ou Instagram par exemple, sauf dans un cadre parodique), ainsi que les sites pornographiques (il est impossible de chercher « deepfakes » sur Pornhub depuis 2018, mais il existe encore de nombreuses vidéos du genre hébergées sur le site), à condition de mettre des moyens suffisants dans leur modération. Il faut aussi adapter notre arsenal législatif pour punir sévèrement cette nouvelle forme de harcèlement sexuel, ce qui est déjà le cas dans plusieurs pays (pas encore en France). Au final, on ne peut pas faire disparaître les deepfakes d’un claquement de doigt. Déjà parce que ces technologies sont utilisées pour plein de choses différentes, y compris des positives, au même titre que d’autres outils permettant de modifier des images ou des vidéos. Surtout, parce que le fond du problème n’est pas technologique.
Contrairement à d’autres formes de manipulation en ligne, il ne sert à rien de fact-checker un deepfake sexuel. Créer une vidéo pornographique d’une femme sans son consentement, ce n’est pas (forcément) vouloir tromper les internautes. C’est un désir de contrôle. Peu importe que ça soit pour de vrai ou pour de faux. Le traumatisme des victimes, lui, est réel. L’intérêt des hommes aussi. Pour humilier quelqu’un, se l’approprier, ruiner sa vie, même par curiosité.
Nos corps ne sont que des objets numériques à réarranger pour le plaisir de certains. « On ne doit pas oublier le contexte dans lequel les deepfakes se sont popularisés », rappelait la journaliste Samantha Cole dans un édito publié en 2018, toujours très actuel aujourd’hui. « On peut dépasser ce contexte, parler d’éthique en intelligence artificielle, d’éducation à la désinformation, de qui a les moyens techniques de faire de l’apprentissage profond. Mais avant tout ça, on doit reconnaître que cette technologie est utilisée par les hommes pour posséder les femmes. » Ce qui m’amène à une dernière question : avez-vous été tentés de chercher les sites de deepfakes pornographiques mentionnés dans cet édito, juste pour voir ?*
ça fait réfléchir sur les dangers de ce truc.
Perso ça fait des années que le porno ne me branche plus, donc les fakes encore moins !
Mais bon, avec la puissance des machines de maintenant, les ia par ci les ia par là !!!
bénit soient mes enfants …