Kluczowe wydaje się więc opracowanie narzędzi, które mogłyby ograniczyć tego typu problemy. Jedno z nich pochodzi od firmy Intel. Proponowane podejście skupia się na szczegółowej analizie twarzy widocznych na nagraniach. Dlaczego? Ano dlatego, że technologia deepfake polega na nakładaniu fałszywych obrazów na te faktycznie istniejące. W efekcie można na przykład zmienić wyraz twarzy rozmówcy czy też kompletnie zmodyfikować jego mimikę, tak, aby wpłynąć na końcową wypowiedź czy zachowanie.
Czytaj też: Ten problem matematyczny czekał 115 lat na rozwiązanie. Poradziła sobie z nim dopiero sztuczna inteligencja
Dotychczas stosowane “kontry” względem deepfake polegały na poszukiwaniu nawet najmniejszych poszlak wskazujących na ewentualne ingerencje w źródłowy materiał wideo. Intel postanowił ugryźć temat nieco inaczej: analizując przepływ krwi w obrębie twarzy. Dzięki temu narzędzie oparte na głębokim uczeniu jest w stanie zidentyfikować delikatne zmiany koloru wywołane przepływem krwi przez naczynia krwionośne.
FakeCatcher, bo tak nazywa się nowe zabezpieczenie przed owocami technologii deepfake, działa na podobnej zasadzie jak na przykład popularna ostatnimi czasy aplikacja Heart Monitor. Dzięki niej możemy zmierzyć puls przy pomocy smartfona. Wystarczy nakierować obiektyw aparatu na odpowiednio oświetloną twarz, a następnie pozwolić oprogramowaniu na analizę przepływu krwi pod skórą. W ten sposób po kilkudziesięciu sekundach otrzymujemy szereg wyników dotyczących kondycji naszego układu krążeniowo-oddechowego.
FakeCatcher ma być zabezpieczeniem przed owocami technologii deepfake
Wróćmy jednak do FakeCatchera. W tym przypadku firma Intel przekonuje, iż mowa o nawet 96-procentowej skuteczności w wyłapywaniu oszustw. Narzędzie wykorzystuje procesory Xeon Scalable trzeciej generacji z możliwością obsługi do 72 równoczesnych strumieni detekcji i działa za pośrednictwem interfejsu internetowego. Rezultat pojawia się w ułamku sekundy.
Czytaj też: Praca na zdalnych stanowiskach furtką dla oszustów. Wszystko przez deepfake
Tego typu rozwiązania są obecnie na wagę złota. Deepfake jest bowiem powszechnie wykorzystywana do siania dezinformacji, o czym mogliśmy przekonać się w związku z trwającą wojną. Poza tym bardzo często stosuje się ją w… przemyśle pornograficznym, gdzie powstają przerobione materiały na przykład z postaciami z showbiznesu. Narzędzia pokroju FakeCatchera powinny więc stanowić istotne zabezpieczenie przed oszustwami.