Aplikacja jest ewidentnym wykorzystaniem popularności zjawiska tzw. revenge porn, czyli pornograficznej zemsty. Revenge porn to publikowanie intymnych zdjęć byłych partnerów. Ofiarami takiej porno zemsty najczęściej padają kobiety. DeepNude umożliwił publikowanie rozebranych zdjęć nawet tych osób, które nigdy w żadnej rozebranej sesji udziału nie brały. A efekt zastosowanych algorytmów był tak dobry, że nie można rozróżnić czy zdjęcie jest prawdziwe, czy też przerobione.
Twórcy aplikacji z jednej strony zaskoczeni powodzenie projektu, z drugiej falą krytyki umieścili na Twitterze oświadczenie, w którym piszą m.in. że: Stworzyliśmy ten projekt dla rozrywki użytkowników kilka miesięcy temu. Myśleliśmy, że będziemy sprzedawać kilka sztuk w miesiącu. Tak naprawdę aplikacja wcale nie jest taka świetna, działa tylko z określonymi zdjęciami. Nigdy nie sądziliśmy, że stanie się viralem. Źle oszacowaliśmy zainteresowanie. Jeśli 500 tys. osób użyje aplikacji, to prawdopodobieństwo, że zostanie ona użyta w zły sposób, jest zbyt duże. Nie chcemy zarabiać pieniędzy w ten sposób.
https://twitter.com/deepnudeapp/status/1144307316231200768
Może i autorzy nie planowali zarabiać na swoim dziele (wersja premium kosztowała ok. 370 zł, a uzyskane zdjęcia pozbawione były znaku wodnego; twórcy obiecują zwrot pieniędzy), ale jaki w takim razie światły cel towarzyszył autorom DeepFake? Pokój na całym świecie? Czy może Ziemia bez plastiku? Pomysł na taką aplikację jest – mówiąc wprost – obrzydliwy.