
Naukowcy analizowali też informacje udostępnione przez organizacje, które zajmują się weryfikowaniem wiadomości. Podczas badania zebrano 15 tysięcy doniesień, pochodzących z zaufanych źródeł oraz ponad milion tweetów podających je jako argument w dyskusji. Do badania wykorzystano oprogramowanie Hoaxy oraz Botometer, stworzone na Uniwersytecie Indiana. Hoaxy zbierał fałszywe informacje, Botometr następnie sprawdzał, czy konto, z którego wyszła nieprawdziwa informacja, może być botem.

Z badania wynika, że za większością udostępnień fałszywych newsów kryje się niewielka liczba kont. Co ciekawe, podobne wyniki uzyskali uczeni z Oxfordu, badający między innymi polskie profile na Twitterze, o czym pisaliśmy w CHIP-ie wcześniej. Konta kontrolowane za pomocą programów zachowują się zupełnie inaczej, niż prowadzone przez ludzi. Np., te komputerowe, potrafią błyskawicznie, w ciągu kilku sekund po pojawieniu się informacji na stronie internetowej, przekazywać ją dalej w świat. Boty starają się również oznaczać wpływowych użytkowników, aby sprawiać wrażenie, że wiadomość jest wiarygodna, istotna i komentowana.
Fałszywe informacje publikowane przez boty dość szybko są udostępniane także przez prawdziwych użytkowników sieci. Aby temu przeciwdziałać, amerykańskie uczelnie nawiązały współpracę z portalami społecznościowymi. Do wykrywania podejrzanych kont mają zostać użyte algorytmy uczenia maszynowego. Ich wykorzystanie jednak wiąże się z ryzykiem błędnego rozpoznawania profili. Z tego powodu właściciele portali wolą na razie wspomagać oprogramowanie do filtrowania treści pracą człowieka. Takie rozwiązanie jest jednak mniej efektywne i nie nadąża za automatami, rozsyłającymi fake newsy. I mamy błędne koło. | CHIP