Nie ulega wątpliwości, że moderacja niepożądanych treści jest konieczna, ale problemem jest to, kto powinien o tym decydować. Wyniki śledztwa dziennikarzy Guardiana dają podstawy, by sądzić, że Facebook postanowił odgórnie narzucić swoje własne reguły 2-miliardowej, źróżnicowanej etnicznie i kulturowo społeczności użytkowników. Komfortu Facebooka nie zwiększają liczne polityczne naciski, zarówno ze strony rządu Stanów Zjednoczonych jak i Unii Europejskiej.
Widoczna wyżej ilustracja pokazuje instrukcję reagowania na wpisy dotyczące tzw. “pornograficznej zemsty” (“revenge porn”), czyli publikowania zdjęć w celu publicznego ośmieszenia i oszkalowania osób widocznych na fotografiach. Chodzi o zdjęcia publikowane bez zgody osób na nich widocznych, które w takim przypadku są najczęściej ofiarami czyjegoś działania. Widać wyraźnie, że, aby moderator mógł w ogóle zakwalifikować treść jako “pornograficzną zemstę”, muszą być spełnione trzy warunki. Fotografia musi być prywatna, osoba na zdjęciu naga, prawie naga lub w okolicznościach seksualnych. Trzecim warunkiem jest mściwy kontekst całości przekazu, np. w formie napisów na zdjęciu. Do “zemsty pornograficznej” zostanie zakwalifikowana tez treść, którą opublikowano bez zgody zainteresowanej osoby.
Guardian opisuje również zasady reagowania na wpisy, które zachęcają do przemocy. Tutaj ciekawostka, o ile jakikolwiek wpis czy komentarz o treści “someone shoot Trump” (“niech ktoś zastrzeli Trumpa”) powinien być usunięty (argumentem jest, że mężowie stanu to kategoria szczególnie chroniona), o tyle adresowane do osoby nie będącej “mężem stanu” stwierdzenia typu “kopnij rudego”, “bijmy grube dzieci” czy wulgarne nawoływania do zabicia kogoś – mogą być uznane za zgodne z zasadami moderacji. Uzasadnienie? Bo – wg Facebooka – nie stanowią realnej groźby.
Będziemy w CHIP-ie uważnie śledzili zmiany, które chce wprowadzić Facebook. Jak pokazał niesławny eksperyment psychologiczny portalu, kiedy grupie użytkowników pokazywano ręcznie dobierane treści o jednolitej (pozytywnej lub negatywnej) konotacji – to co czytają internauci realnie wpływało na ich samopoczucie i na życiowe wybory. Nic zatem dziwnego, że niedoskonałe usztywnienie norm moderacji może budzić poważne kontrowersje, a nawet być społecznie szkodliwe.