Na stronie internetowej projektu Amnesty International stwierdziło, że wiele kobiet autocenzuruje treści, które publikują, ograniczają interakcje na Twitterze lub po prostu rezygnuje z platformy. “W czasach, kiedy kobiety na całym świecie jednoczą się i mogłyby przedstawić swoje stanowisko za pośrednictwem mediów społecznościowych, nieumiejętność Twittera do konsekwentnego i przejrzystego egzekwowania własnych standardów społecznościowych w celu zwalczania przemocy i nadużyć oznacza, że kobietom zamykane są usta” – podsumowała organizacja broniąca praw człowieka.
Jak wyglądało samo badanie? Najpierw należało nauczyć SI rozpoznawania twittów o charakterze “problematycznym”. Celowo przy tym używam terminu zastosowanego przez samo Amnesty International. Jak rozumie ten termin sama organizacja? Jako takie rozpoznawano twitty, które zawierają szkodliwe lub wrogie treści, zwłaszcza jeśli powtarzano je użytkowniczkom wielokrotnie, ale niekoniecznie spełniały one tzw. próg nadużycia. Jako nadużycie rozumiano te twitty, które naruszają zasady serwisu i obejmują treści promujące przemoc lub groźby ze strony ludzi ze względu na ich rasę, pochodzenie etniczne, pochodzenie narodowe, orientację seksualną, płeć, tożsamość płciową, przynależność religijną, wiek, niepełnosprawność lub chorobę. SI miała nauczyć się tych właśnie zasad rozpoznawania. Najpierw 6500 ochotników i ochotniczek ze 150 krajów, w wieku od 18 do 70 lat przeszkolono pod kątem reagowania na problematyczne wpisy.
Następnie pokazano im anonimowe twitty, w których wymieniono jedną z 778 kobiet i zapytano, czy ich zdaniem dany wpis jest obraźliwy czy też nie. Każdy wpis został pokazany kilku osobom. Ponadto Amnesty International zadbała, by trójka ekspertów ds. przemocy wobec kobiet sprawdziła losową próbkę 1000 twittów, aby upewnić się, że wolontariusze oceniają treści we właściwy sposób.
Troll Patrol, jak nazwano zespół wolontariuszy, przeanalizowali 288 000 wpisów wysyłanych między styczniem a grudniem 2017 r. do 778 adresatek z Wielkiej Brytanii i Stanów Zjednoczonych. Wśród nich znalazły się członkinie parlamentu USA i Kongresu USA, oraz dziennikarki m.in “The Daily Mail”, |The New York Times”, “Guardian”, “The Sun”, gal-dem, Pink News i Breitbart. Następnie zbiór wpisów, uznanych za problematyczne, został przetworzony przy użyciu oprogramowania do uczenia maszynowego Element AI. Korzystając z nabytej wiedzy SI przeanalizowało następnie 14,5 miliona twittów z 2017 r., w których pojawiały się wspomniane wcześniej 778 kobiety. Na podstawie tych badań stwierdzono, że aż 7,1% wysłanych do nich twittów jest problematycznych lub nękających. Dziennikarkom “dostało się” od internautów mniej więcej tak samo jak paniom zajmującym się polityką. Czarnoskóre kobiety, Azjatki i latynoski były o 34 proc. bardziej narażone na problematyczne lub obraźliwe tweety niż białe kobiety. | CHIP