Łatwo sobie wyobrazić wpływowego polityka, którego słowa wywołują wojnę. To ekstremalny przykład. Fake newsy mogą też służyć dyskredytacji danego kandydata w wyborach. Z tego powodu DARPA pracuje nad narzędziem, które ułatwi wykrywanie fałszywych filmów. Nie jest to jednak łatwym zadaniem. Pomimo przeznaczenia 68 milionów dolarów na badania, które potrwają jeszcze dwa lata, do tej pory wyniki pracy naukowców nie są zadowalające.
Sztuczna inteligencja DARPA w tej chwili wykrywa oczywiste manipulacje, których autorzy nie biorą pod uwagę takich szczegółów jak zacinające się przejścia i źle padające światło słoneczne. Można jednak przypuszczać ze względu na rozwój technologii, wykrywanie coraz dokładniejszych podróbek wystąpień osób publicznych będzie coraz trudniejsze. Dlatego tak istotne jest sprawdzanie źródeł, z których pochodzą kontrowersyjne nagrania. | CHIP