Na następny dzień brytyjska edycja MediaWeek podała, że 13 marek wycofało swoje reklamy z Facebooka, aby nie pojawiać się obok negatywnych treści. Następnie New York Times poinformował, że wśród wycofujących się z mediów społecznościowych jest producent samochodów Nissan. Jeszcze tego samego dnia rzecznik Nissana w Ameryce Dawid Reuter dementował, że wycofane zostały reklamy jedynie z brytyjskiej części Facebooka i że Nissan nie zmienia swojej strategii w odniesieniu do mediów społecznościowych globalnie.
Faktem pozostaje jednak, że duże, szanujące się i dbające o wizerunek firmy nie chcą, aby reklamy ich produktów pojawiały się w kontekście obraźliwych komentarzy, mimo, że sami reklamodawcy nie mają z nimi nic wspólnego. Kontekst pozostaje negatywny.
Pracownicy Facebooka w poście opublikowanym na swoim blogu przyznają: “Pracujemy od kilku miesięcy nad ulepszeniem systemu reakcji na zgłoszenia nadużyć, ale wytyczne używane w systemie moderacji nadal nie wyłapują wszystkich negatywnych treści. Musimy zrobić to lepiej – i zrobimy”.
Wypowiedzi pracowników Facebooka to reakcja na list otwarty wystosowany w zeszłym tygodniu przez
Women, Action & the Media — grupę, która wezwała firmę do skuteczniejszego reagowania na treści, które “trywializują lub gloryfikują przemoc wobec dziewcząt lub kobiet”. Grupa zachęcała również użytkowników Facebooka do kontaktowania się z firmami, których reklamy pojawiają się obok tego typu negatywnych treści.
Dlaczego Facebook ma problem z mechanizmem usuwania mowy nienawiści?
Aby usunąć mowę nienawiści, czy jakiekolwiek inne niepożądane treści, należy po pierwsze liczyć na raportowanie takich stron przez użytkowników i potem ręczną weryfikację przez moderatorów, a po drugie oprzeć się na zaawansowanym systemie automatycznie weryfikującym treści — wyjaśnia Krzysztof Kicior-Rychlicki z Makimo Systems firmy zajmującej się inteligentnymi systemami tłumaczeń treści.
Moderatorzy treści stanowią rozwiązanie bardzo drogie, zważywszy na ilość treści publikowanych na całym świecie i potrzebę szybkiej reakcji na zmiany. Dodatkowo, zarówno Facebook jak i Google często korzystają z nisko płatnych usług off-shore do moderacji treści, przez co ich, jakość jest wątpliwa. Globalnie to olbrzymia operacja obejmująca tysiące moderatorów.
Automatyczny algorytm treści nie da rady
Najlepszym rozwiązaniem byłaby automatyzacja procesu i zlecenie pracy robotom i komputerom, które podążają za algorytmem wykrywania słów negatywnych. Tego jednak zrobić się nie da. –
Problem w tym, że wykrywanie mowy nienawiści, czy to skierowanej na płeć, religię, czy cokolwiek innego, nie może być zrealizowane tylko na podstawie np. filtrowania tekstów wg. określonych słów. Często liczy się kontekst – słowa same z siebie nie są wulgarne, czy też obraźliwe, ale połączone ze sobą dają taki właśnie przekaz — tłumaczy specjalista z Makimo Systems. Komputer nie rozumie metafor czy odniesień do rozmaitych aspektów kulturowych, które ludzie chwytają w mig. Wyobraźmy sobie zdanie “Jurek Owsiak jest niespełna rozumu”. Żadne z tych słów nie jest obraźliwe, ale wypowiedź jest jednoznacznie negatywna i mogłaby wywołać burzę wśród użytkowników.
Jakby tego było mało, system automatycznie dopasowuje reklamy do użytkowników, przez co mogą one pojawiać się również przy treściach obraźliwych, dopóki te nie zostaną zdjęte z serwisu. To oczywiście bardzo duży problem dla reklamodawców.
Podsumowując, prewencja, do której zaliczamy automatyczne i ręczne analizowanie treści, jest nie do końca skuteczna i droga, a późniejsza obsługa zgłoszeń związanych z mową nienawiści wymaga bardzo precyzyjnych kryteriów klasyfikacji treści niepożądanych, a także procesów postępowania z nimi. Jak widać, te kryteria i procesy są nadal niedopracowane.
Zarówno Google jak i Facebook musi w niedługim czasie znaleźć sposób na uporanie się z problemem jeśli nie chcą tracić dużych reklamodawców, a co za tym idzie pieniędzy na rozwój serwisów.