Deepfaking : "Ils ont mis mon visage sur une vidéo porno"

Deepfaking : mis mon visage sur une vidéo porno

Sun, 13 Nov 2022 Source: www.bbc.com

Imaginez que votre visage ait été monté numériquement dans une vidéo pornographique sans votre consentement, puis partagé sur Internet. Une femme révèle l'horreur de ce qui lui est arrivé.

En faisant défiler son fil Twitter un soir, Kate Isaacs est tombée sur une vidéo troublante parmi ses notifications.

"Cette panique m'a envahie", raconte Kate, qui parle publiquement pour la première fois de ce qui s'est passé. "Quelqu'un avait pris mon visage, l'avait mis sur une vidéo porno, et avait fait croire que c'était moi".

Kate avait fait l'objet d'une mystification. Quelqu'un avait utilisé l'intelligence artificielle pour manipuler numériquement son visage sur celui d'une autre personne - en l'occurrence une actrice porno.

La vidéo de deepfake diffusée sur Twitter - avec Kate, qui fait campagne contre le porno non consensuel, étiquetée - avait été réalisée à partir de séquences d'interviews télévisées qu'elle avait données pendant sa campagne. Elle semblait la montrer en train de faire l'amour.

"Mon cœur s'est effondré. Je ne pouvais pas penser clairement", dit-elle. "Je me souviens avoir eu l'impression que cette vidéo allait être diffusée partout - c'était horrible".

Dans le passé, les célébrités et les hommes politiques très en vue étaient les cibles les plus courantes des deepfakes - les vidéos n'étaient pas toujours pornographiques, certaines avaient une valeur comique. Mais au fil des ans, la situation a changé : selon la société de cybersécurité Deeptrace, 96 % des deepfakes sont des vidéos pornographiques non consensuelles.

Comme le revenge porn, la pornographie deepfake est ce que l'on appelle un abus sexuel basé sur l'image - un terme générique qui englobe la prise, la réalisation et/ou le partage d'images intimes sans consentement.

Kate, 30 ans, a fondé la campagne #NotYourPorn en 2019. Un an plus tard, son activisme a contribué à ce que le site de divertissement pour adultes, Pornhub, doive retirer toutes les vidéos téléchargées sur le site par des utilisateurs non vérifiés - la majorité de son contenu.

Kate a donc supposé que la personne à l'origine du deepfake d'elle avait été ennuyée par sa campagne. Elle avait "enlevé leur porno".

Mais elle n'avait aucune idée de l'identité de cette personne, ni des personnes qui avaient pu voir la vidéo. Et si elle pouvait voir que son visage avait été superposé à la séquence d'un acteur porno, la vidéo était suffisamment convaincante pour qu'elle craigne que d'autres personnes ne se rendent pas compte de la supercherie.

"C'était une violation - mon identité était utilisée d'une manière à laquelle je n'avais pas consenti".

Sous la vidéo, des personnes ont commencé à laisser des flux de commentaires injurieux, disant qu'elles allaient suivre Kate chez elle, la violer, filmer l'attaque et publier les images sur Internet.

"Vous commencez à penser à votre famille", dit-elle en retenant ses larmes. "Comment se sentiraient-ils s'ils voyaient ce contenu ?"

La menace s'est intensifiée lorsque les adresses du domicile et du travail de Kate ont été publiées sous la vidéo - une pratique connue sous le nom de doxing.

Je suis devenue complètement paranoïaque : "Qui connaît mon adresse ? Est-ce quelqu'un que je connais qui a fait ça ?

Je me disais : "Je suis vraiment dans le pétrin, ce n'est pas juste des gens sur Internet qui se vantent, il y a un vrai danger".

Grâce à son expérience de soutien aux autres dans des situations similaires, Kate savait exactement ce qu'il fallait faire si quelqu'un devenait une victime - mais à ce moment-là, elle s'est figée.

"Je n'ai suivi aucun de mes propres conseils", dit-elle. "Kate la militante était très forte et ne montrait aucune vulnérabilité - et puis il y avait moi, Kate, qui avait vraiment peur".

Un collègue a signalé la vidéo, les commentaires vicieux et le doxing à Twitter, et ils ont tous été retirés de la plateforme. Mais une fois qu'un deepfake a été publié et partagé en ligne, il est difficile de le retirer entièrement de la circulation.

"Je voulais juste que cette vidéo disparaisse d'Internet", dit Kate, "mais je ne pouvais rien y faire".

Il existe un marché pour les deepfakes dans les forums en ligne. Les gens postent des demandes de vidéos de leurs épouses, voisins et collègues et - aussi insondable que cela puisse paraître - même de leurs mères, filles et cousins.

Les créateurs de contenu répondent en donnant des instructions étape par étape, en indiquant le matériel de base dont ils auront besoin, en donnant des conseils sur les meilleurs angles de prise de vue et en indiquant le prix du travail.

Un créateur de contenu deepfake basé dans le sud-est de l'Angleterre, Gorkem, a parlé à la BBC sous le couvert de l'anonymat. Il a commencé à créer des deepfakes de célébrités pour sa propre satisfaction - il dit qu'ils permettent aux gens de "réaliser leurs fantasmes d'une manière qui n'était pas vraiment possible auparavant".

Plus tard, Gorkem est passé à la création de deepfakes de femmes qui l'attiraient, y compris des collègues de travail qu'il connaissait à peine.

"L'une était mariée, l'autre en couple", dit-il.

Réalisant qu'il pouvait gagner de l'argent avec ce qu'il appelle son "hobby", Gorkem a commencé à prendre des commandes pour des deepfakes personnalisés. La collecte d'images à partir des profils de réseaux sociaux des femmes lui fournit beaucoup de matériel de base. Il dit qu'il a même récemment fait un deepfake d'une femme en utilisant un enregistrement d'appel Zoom.

"Avec une bonne quantité de vidéo, regardant directement la caméra, ce sont de bonnes données pour moi. Ensuite, l'algorithme peut simplement extrapoler à partir de cela et faire une bonne reconstruction du visage sur la vidéo de destination."

Il admet que "certaines femmes" pourraient être psychologiquement blessées en étant deepfaked, mais semble indifférent à l'impact potentiel de la façon dont il les objective.

"Elles peuvent simplement dire : "Ce n'est pas moi - cela a été truqué". Elles devraient simplement le reconnaître et continuer leur journée.

"D'un point de vue moral, je ne pense pas qu'il y ait quoi que ce soit qui puisse m'arrêter", dit-il. "Si je peux gagner de l'argent grâce à une commission, je le ferai, c'est évident.

Le niveau des deepfakes peut varier énormément, et dépend à la fois de l'expertise de la personne qui a réalisé la vidéo et de la sophistication de la technologie utilisée.

Mais l'homme à l'origine du plus grand site pornographique de deepfakes admet qu'il n'est plus facile de savoir avec certitude si l'on regarde des images manipulées ou non. Son site attire environ 13 millions de visiteurs par mois et héberge quelque 20 000 vidéos à tout moment. Il est basé aux États-Unis et s'adresse rarement aux médias, mais il a accepté de parler à la BBC sous le couvert de l'anonymat.

Le deepfaking de femmes "ordinaires" est une ligne rouge pour lui, dit-il, mais selon lui, l'hébergement de vidéos deepfake pornographiques de célébrités, d'influenceurs de réseaux sociaux et de politiciens, est justifiable.

"Ils sont habitués aux médias négatifs, leur contenu est disponible. Ils sont différents des citoyens normaux", dit-il.

"De la façon dont je le vois, ils sont capables d'y faire face d'une manière différente - ils peuvent simplement l'effacer. Je ne pense pas vraiment que le consentement soit nécessaire - c'est un fantasme, ce n'est pas réel."

Pense-t-il que ce qu'il fait est mal ? Une partie de lui est "dans le déni de l'impact sur les femmes", admet-il - et notamment, il révèle que son épouse ne sait pas ce qu'il fait pour vivre.

"Je ne l'ai pas dit à ma femme. J'ai peur de l'effet que cela pourrait avoir sur elle".

Jusqu'à une date relativement récente, les logiciels de deepfake n'étaient pas facilement disponibles, et la personne moyenne n'aurait pas eu les compétences nécessaires pour les fabriquer. Mais aujourd'hui, toute personne âgée de plus de 12 ans peut télécharger légalement des dizaines d'applications et réaliser des deepfakes convaincants en quelques clics.

Pour Kate, c'est inquiétant et "vraiment effrayant".

"Ce n'est pas le dark web, c'est dans les magasins d'applications - juste sous nos yeux".

Elle craint également que le projet de loi sur la sécurité en ligne ne soit pas à la hauteur de la technologie. Il y a trois ans, lorsque le projet de loi a été rédigé, la création de "deepfake" était considérée comme une compétence professionnelle à laquelle il fallait être formé, et non simplement télécharger une application.

"Nous sommes des années plus tard et le contenu [du projet de loi] est dépassé - il y a tellement de choses qui manquent", dit-elle.

Mais pour le créateur Gorkem, la criminalisation du deepfaking changerait les choses.

"Si je pouvais être tracé en ligne, je m'arrêterais là et trouverais probablement un autre passe-temps", dit-il.

Le fait d'être victime de deepfaking et de doxing a eu un impact sur la santé de Kate et sur sa capacité à faire confiance aux autres. Elle pense que les auteurs de ces attaques ne cherchaient pas seulement à l'intimider et à l'humilier, mais aussi à la faire taire. Pendant un temps, elle s'est retirée de la campagne, se demandant si elle pouvait continuer à dénoncer la misogynie.

Mais aujourd'hui, elle est d'autant plus enthousiaste. Elle a réalisé qu'elle se sentait trop concernée pour s'en aller.

"Je ne vais pas les laisser gagner."

Les "deepfakes" peuvent être utilisés pour contrôler les femmes, et les entreprises technologiques - y compris celles qui créent des applications permettant l'échange de visages - devraient être encouragées à mettre en place des protections, dit-elle.

"Toute application devrait être capable de détecter les contenus sexuels".

"Si les entreprises n'ont pas mis de l'argent, des ressources et du temps pour s'assurer que leur appli n'est pas utilisée comme lieu de création de contenu à caractère sexuel abusif, elles sont délibérément irresponsables. Elles sont coupables."

Ni Gorkem, ni l'homme à l'origine du plus grand site de deepfake, n'ont été impliqués dans le deepfaking de Kate Isaacs.


Source: www.bbc.com