Après un buzz énorme, la chanteuse Taylor Swift a réussi à faire disparaitre un « deep fake ». Comme elle, de plus en plus de femmes sont victimes de « deep fake » pornographique rendu possible par l’IA. Éclairage sur ce fléau numérique. Et des projets de régulation.
![](https://www.lesnouvellesnews.fr/wp-content/uploads/2024/01/artificial-intelligence-2167835_1280-1024x686.jpg)
Depuis 24h, l’un des posts les plus repartagés et aimés sur X (anciennement Twitter) est une photo où figure Taylor Swift. Jusque là rien d’étonnant pour la chanteuse américaine qui a l’habitude de faire le buzz. Mais ces photos sont des deep fake à caractère pornographique. Plus de 47 millions de personnes ont vu ce contenu et 25 millions l’ont re-posté. L’incident est tellement relayé que Karine Jean-Pierre, porte-parole de la Maison Blanche, déclare : « C’est alarmant. [Les réseaux sociaux] ont un rôle important à jouer dans l’application de leur propre règles afin d’empêcher la propagation de la désinformation et d’images intimes. ».
Le « deep fake » ?
Le deep fake se traduit comme un hyper trucage vidéo, photo ou sonore généré grâce à l’IA. Le terme est une abréviation de « deep learning » (trad : apprentissage profond) et de « fake » (tard : faux). Cette technologie est apparue en 2014. À ses débuts, les usages sont artistiques ou humoristiques. Certains s’amusent à créer des photos complètement fausses, comme le pape François en doudoune Gucci et lunettes de soleil, et font le buzz sur les réseaux sociaux. Avec le développement de l’intelligence artificielle, le deep fake est devenu de plus en plus courant et est désormais à la portée de chacun.
Régulièrement décrié, le deep fake inquiète. Il représente une menace de désinformation grandissante. Des fausses images, comme la violente arrestation de Donal Trump ou d’Emmanuel Macron en gilet jaune, ont perturbé les internautes qui ont d’abord pensé que ces scènes étaient réelles. Pour générer ces images, il suffit de prendre des photos existantes d’une personne pour lui faire dire ou faire des choses qu’elle n’a jamais dites ou faites. Le réalisme de ces contenus est aussi fascinant que troublant et il devient de plus en plus complexe de dissocier le vrai du faux.
Les femmes sont les premières victimes des deep fake
Une étude menée par la société de cybersécurité Deeptrace révèle que plus de 96 % des vidéos développées en deep fake sont de nature pornographique et la grande majorité d’entre elles mettent en scène des femmes. Cela consiste à coller le visage d’une personne ou personnalité connue à l’aide d’une intelligence artificielle à des images pornographiques déjà existantes.
L’analyste américaine Geneviève Oh, spécialiste de la question – recense un total de 276.149 vidéos de deep fake pornographique sur internet lors du troisième trimestre de l’année 2023, comme le révèle Le Monde. En 2019, on en recensait 15.000. L’augmentation de ce contenu est affolante. Le visionnage de ces vidéos est lui aussi en hausse. Sur les dix sites de Deep Fake les plus consultés, elles cumulent plus de 4,2 milliards de vues, soit quatre fois l’audience atteinte en 2019 qui était de 1,3 milliard.
À lire aussi : “Face au réarmement du sexisme, les HCE appelle à agir”
Les célébrités et créatrices de contenu sont les premières victimes du deep fake. Leur visage est régulièrement accolé au corps d’une autre femme dans une posture sexuellement suggestive. En août 2023, c’est l’influenceuse Léna Situations qui en fait les frais. Dans une vidéo, elle confie son dégoût : « C’est horrible. Et il y a tellement de meufs sur Internet qui vivent ça. C’est vraiment dégueulasse. ». Elle n’est pas la seule à le dénoncer. La youtubeuse fitness Juju Fitcats en a elle aussi été victime : « Des gens s’amusent pendant des heures à m’enlever mes vêtements pour ensuite me mettre une fausse poitrine. Ils utilisent mon contenu posté sur les réseaux pour fabriquer des faux nudes de moi » dénonce t-elle. Un véritable fléau qui s’ajoute à la longue liste d’obstacles qui complique la présence des femmes sur internet.
La législation dépassée par le phénomène
À l’issue du scandale des fausses images intimes de Taylor Swift, des élu.e.s américaine.s exigent un meilleur encadrement de l’intelligence artificielle. Face à la polémique, X a supprimé les photos et à fermé tous les comptes qui les ont repartagé. Toutefois, il aura fallu que les fans de la chanteuse se mobilisent et inondent le réseau de photos (réelles cette fois-ci) de cette dernière, afin de fondre les deep fake dans la masse. À ce jour, il n’existe aucune loi fédérale qui sanctionne le partage ou la création de ces images.
En France, le législateur commence tout juste à se saisir de la question de la sécurisation de l’espace numérique. Deux amendements sont actuellement soumis à la Commission mixte paritaire. S’ils sont adoptés, la captation, le montage et la diffusion d’images portant atteinte à l’intimité d’un individu sans son consentement seront passibles de trois ans d’emprisonnement et 75 000 euros d’amende. Si le contenu n’est pas publié sur internet, la sanction sera tout de même de deux ans d’emprisonnement et de 60 000 euros d’amende. Une lueur d’espoir se dessine pour les victimes de deep fake, célébrités comme anonymes.
À lire aussi : “Les créatrices à peine visibles sur Youtube”