Poza – w większości – azjatyckim pochodzeniem filmów, badacze stwierdzili również, że aż 96 proc. deepfake’ów to pornografia. Wszystkie z nich przedstawiają nieprawdziwe ujęcia kobiet. Wskazali również, jak duże jest zainteresowanie takimi treściami. Z ich podsumowania wynika, że 4 strony pornograficzne, których właściciele trudnią się udostępnianiem filmów dla dorosłych z aktorkami i piosenkarkami, doczekały się już 134 milionów odsłon. W badaniu sprawdzono łącznie 19 stron pornograficznych. 10 z nich to najbardziej popularne serwisy. Na 8 znaleziono łącznie 802 filmy. Cała reszta (ponad 13 tys.) znajdowała się na portalach poświęconych tylko zmodyfikowanym nagraniom.

Gdzie uczą się kolejni amatorzy sfałszowanej twórczości? Według autorów raportu, najczęściej pierwsze kroki stawiają w serwisach społecznościowych i forach internetowych poświęconych zmanipulowanym nagraniom. Wśród nich wymieniają Reddit, 4chan, a także 8chan. Spośród 20 społeczności, 13 ujawniło liczbę użytkowników zainteresowanych deepfake’ami. Odwiedziło je niemal 100 tys. użytkowników. Zainteresowaniem cieszą się również repozytoria na GitHubie związane z tzw. faceswap, czyli podmianą twarzy na nagraniach.
Większa dostępność dotyczy również osób, które nie do końca są za pan brat z technologią, ale sobie radzą. Mogą stworzyć własny film, korzystając programów z wyraźnymi instrukcjami. Jeśli nawet te nie pomogą, mają do dyspozycji serwisy usługowe. Wystarczy wydać kilkanaście złotych i kupić własny deepfake’owy film. Problematyczne może być jedynie dostarczenie odpowiedniej liczby zdjęć – niektóre ze stron wymagały nawet 250 fotografii. Trzeci sposób na urzeczywistnienie fikcji to wyszukanie oferty specjalistów, którzy reklamują swoje umiejętności w serwisach ogłoszeniowych.
Choć na stronach pornograficznych najczęściej pojawiają się filmy ze znanymi osobami, przed deepfake’iem trudno się ustrzec. Jednym z przykładów bardzo szerokiej dostępności narzędzi do tworzenia sfałszowanych treści jest aplikacja DeepNude. Również w tym przypadku działania były wymierzone przede wszystkim w kobiety. | CHIP