Facebook usunął prawie 12 mln postów zawierających treści związane z wykorzystywaniem dzieci

[banner slot=”text”]
treści
treści

Facebook skasował 11,6 mln wpisów, w których pojawiały się nagie dzieci oraz treści związane z ich wykorzystywaniem seksualnym. Serwis poinformował o postach, które skasowane zostały od lipca do września tego roku, nie wyjaśnia jednak, czy wszystkie zostały wówczas opublikowane, czy mowa też o starszych wpisach, które się w serwisie jakoś uchowały. Niezależnie od tego liczba robi wrażenie.

Jednocześnie serwis informuje o sukcesywnym przeglądaniu zawartości Instagrama, pod kątem postów związanych z samobójstwami i samookaleczeniami. To pokłosie oburzenia opinii publicznej po śmierci 14-letniej Brytyjki Molly Russell. Nastolatka popełniła samobójstwo w 2017 roku, a jej ojciec znalazł na instagramowym koncie dziewczyny wiele materiałów dotyczących samookaleczenia, depresji i samobójstwa. Ojciec Molly, Ian, uznał, że to Instagram jest częściowo odpowiedzialny za śmierć jego córki. Od tego czasu Instagram, jak oświadczył wiceprezes FB Guy Rosen, stara się usuwać wszystkie treści, które skłaniają do podobnych zachowań. 

Według danych przedstawionych przez FB od lipca do września 2019 r. usuniętych zostało:

  • 11,6 miliona wpisów na FB i 754 tys. na Instagramie przedstawiających dzieci w kontekście seksualnym.
  • 2,5 miliona treści związanych z samobójstwem i samookaleczeniem usunięto z Facebooka, a 845 000 z Instagrama
  • 4,4 miliona treści dotyczących sprzedaży narkotyków zostało usuniętych z Facebooka – i 1,5 miliona z Instagrama

Pełną treść raportu znajdziecie tutaj. Wynika z niego, że coraz więcej szkodliwych treści usuwanych jest z serwisu. Jednak skuteczności pracy moderatorów i algorytmów może zaszkodzić polityka prywatności promowana przez Marka Zuckerberga oraz wprowadzenie szyfrowania treści, które wzorem WhatsAppa ma pojawić się również na FB i Instagramie.