TikTok i inne platformy społecznościowe muszą w końcu wziąć odpowiedzialność za algorytmy
Według danych Kepios, w lipcu 2024 roku z mediów społecznościowych korzystało 5,17 mld osób na świecie, czyli 63,7% populacji naszego globu. Tymczasem dane GWI ujawniają, że typowy użytkownik mediów społecznościowych aktywnie korzysta lub odwiedza średnio 6,7 różnych platform społecznościowych miesięcznie i spędza na nich średnio 2 godziny i 20 minut dziennie. Można więc śmiało powiedzieć, że social media są istotną częścią naszego życia i jako takie mają też na nasze życie znaczny wpływ.
Jak to zwykle bywa, wpływ ten może być zarówno pozytywny, jak i negatywny, zwłaszcza u konkretnych grup wiekowych. O tym, jak media społecznościowe działają na młodych użytkowników, mówi się wiele, choć zdaje mi się, że wciąż za mało. Platformy pokroju TikToka, YouTube’a, Facebooka czy Instagrama swoje działanie opierają na algorytmach. W uproszczeniu – uczą się naszych nawyków, zapamiętują treści, które nam się podobają, a potem dostarczają kolejne treści na podstawie tego, czego się nauczyły. Teoretycznie algorytmy mają oferować nam zestaw treści, dostosowany do naszych zainteresowań i przez to zwiększać nasze zaangażowanie, byśmy jak najczęściej wchodzili w interakcje z daną platformą. W rzeczywistości jednak jest to znacznie bardziej skomplikowane.
Chociaż giganci społecznościowi zapewniają, że dbają o poziom treści, filtrują te niezgodne z regulaminem, by ich serwisy były bezpiecznym miejscem, to przy tak dużym przemiale postów, filmów czy zdjęć oraz przy kreatywności samych użytkowników, nie da się wszystkiego wyłapać. Zresztą, trudno też powiedzieć, by algorytmy odpowiedzialne za to filtrowanie działały idealnie. W efekcie jesteśmy narażeni na oglądanie treści potencjalnie szkodliwych i wcale takowych nie musimy wyszukiwać, bo mogą podsuwać nam je algorytmy.
Właśnie o tej mrocznej stronie rekomendacji w mediach społecznościowych mówi się ostatnio coraz więcej, choć tak naprawdę ta dyskusja trwa od lat – niestety temat zwykle nagłaśniany jest przy okazji jakiejś tragedii. Specjaliści, rodzice i rządzący biją na alarm, wdrażane są nowe zarządzenia, jednak są to wciąż tylko zmiany o zasięgu regionalnym i brakuje tutaj bardziej zdecydowanego działania. Zwykle pod naciskiem organów regulacyjnych platformy wdrażają pewne zmiany, ale algorytmy pozostają takie same, równie nachalne i obojętne na to, jakie treści podsuwają użytkownikom, by zatrzymać ich na danej platformie.
Zwłaszcza w ostatnich latach coraz częściej słyszymy o pozwach skierowanych przeciwko mediom społecznościowym, głównie w kontekście ich wpływu na młode osoby. Niestety, najczęściej musi się zdarzyć jakaś tragedia, by zrobiło się o tym głośno. Jednym z przykładów jest sprawa 14-letniej Brytyjki o imieniu Molly Russell, która zmarła w wyniku samobójstwa w 2017 roku – w wyniku procesu i wnikliwego śledztwa, na początku 2022 roku to Instagram został oficjalnie wymieniony jako przyczyna jej śmierci. Wykazano bowiem, że dziewczynka była wręcz bombardowana treściami promującymi samookaleczenie, bo bezpośrednio doprowadziło do jej śmierci.
Kolejnym przykładem jest sprawa strzelaniny w Buffalo, do której doszło w połowie ubiegłego roku. Po skazaniu 18-letniego napastnika rodziny ofiar chciały pociągnąć do odpowiedzialności wszystkich winnych, ostatecznie wytaczając proces przeciwko gigantom internetowym, wśród których wymieniono Metę, Amazona i Alphabet (właściciel Google’a) oraz należące do nich platformy społecznościowe, a także mniejsze serwisy, takie jak Reddit i Snapchat. Cel pozwu był prosty – pokazanie, że zwykły amerykański nastolatek nie stał się radykalnym zwolennikiem białej supremacji sam z siebie. Ta sprawa jest tak naprawdę jedną z wielu toczonych właśnie w USA, a wszystkie natrafiają na mur zwany „Sekcja 230”.
Czym jest „sekcja 230” w amerykańskim prawie i dlaczego to właśnie przez nią media społecznościowe robią, co chcą?
Zanim na rynku w ogóle pojawiły się takie serwisy jak TikTok, Instagram czy Facebook, w Stanach Zjednoczonych została uchwalona ustawa o przyzwoitości w komunikacji (Communications Decency Act). Wśród licznych zawartych tam zapisów jest też sekcja 230, która zasadniczo zwalnia platformy internetowe z odpowiedzialności za treści publikowane przez ich użytkowników. Jeśli znajdują się tam treści zniesławiające, obraźliwe lub nielegalne, to platforma nie może być pociągnięta do odpowiedzialności. Choć 25 lat temu sekcja 230 faktycznie mogła być uznana za kluczowy czynnik napędzający rozwój internetu i mediów społecznościowych, to obecnie przepis ten coraz częściej przyczynia się do siania dezinformacji, mowy nienawiści i rozprzestrzeniania się szkodliwych treści w internecie.
Stany Zjednoczone są głównym rynkiem dla większości mediów społecznościowych i specjaliści twierdzą, że obecnie sekcja 230 robi więcej szkody niż pożytku. Kiedy wprowadzono te przepisy, platformy nie miały środków i narządzi do ciągłego monitorowania wszystkich publikowanych treści, ale dzisiaj odpowiadają za to inne algorytmy. Co prawda giganci twierdzą, że tego pilnują, jednak bardzo łatwo zweryfikować te słowa, a sypiące się kolejne pozwy tylko to potwierdzają – obecnie sekcja 230 stała się przeżytkiem, a winą za nieodpowiednie treści pełne przemocy, nienawiści czy nawet pornografii powinni być obarczani nie tylko ich twórcy, ale też same platformy. I być może wkrótce amerykańskie sądy mogą stworzyć w tej kwestii ważny precedens.
W 2021 roku, 10-letnia dziewczynka Nylah Andreson, otrzymała w ramach rekomendacji na TikToku film promujący tzw. „The Blackout Challenge”. Tego typu wyzwań jest w social mediach dużo i najczęściej są one nieszkodliwe, ale w tym wypadku tak nie było, bo to wyzwanie zachęcało do duszenia się, aż do utraty przytomności. Dziewczynka zmarła podczas tej próby, a od tego czasu jej rodzina pozywa TikToka. O ile sądy niższej instancji oddaliły sprawę, to Sąd Apelacyjny Stanów Zjednoczonych orzekł, że rodzina Nylah może pozwać TikToka i wskazał konkretnie, że algorytm serwisu nie jest chroniony przez federalną sekcję 230.
TikTok dokonuje wyborów dotyczących treści rekomendowanych i promowanych konkretnym użytkownikom, a czyniąc to, angażuje się w swoją własną mowę pierwszoosobową – napisano w orzeczeniu.
Teoretycznie TikTok, tak samo jak inne serwisy, nie ma jednej osoby, która selekcjonuje dla nas treści, ale ma algorytmy, które zostały przez platformę zaprogramowane. Powinien więc odpowiadać za to, w jaki sposób te algorytmy kształtują nasze kanały. Warto pamiętać, że obecnie chińska aplikacja jest na celowniku amerykańskich organów regulacyjnych także z innych powodów, więc jeśli rodzina Nylah wygra proces, może być to początkiem ogromnych zmian. Nie tylko na TikToku, bo dotyczyć to będzie wszystkich innych gigantów społecznościowych.
Jeśli TikTok będzie mógł zostać pociągnięty do odpowiedzialności, to Meta, X czy Google także. Oczywiście chiński serwis będzie walczył i tak łatwo się nie podda, jednak możliwe, że w końcu doszliśmy do punktu, w którym ich przegrana jest możliwa, a serwisy społecznościowe nareszcie będą zmuszone do przerobienia swoich algorytmów, by nie skończyć pogrzebane pod kosztownymi procesami grożącymi przegraną w sądzie.
Algorytmy stosowane na platformach stworzone zostały tak, by podsuwać użytkownikom interesujące ich treści, co samo w sobie jest pożądane, ale jednocześnie nie można przy tym uniknąć faktu, że w wielu przypadkach te treści są w ten czy w inny sposób coraz bardziej radykalne. O ile dorośli użytkownicy są w stanie weryfikować te treści i patrzeć na nie krytycznym okiem, o tyle większość młodych osób może mieć z tym problem.
Zmiany są konieczne, a im szybciej wejdą w życie, tym lepiej
Informacje, które nastolatki publikują, to jeden czynnik, a innym są informacje, które przyjmują. Media społecznościowe dają im dostęp do obrazów, ludzi i pomysłów, do których inaczej nie mieliby dostępu. Może to być bardzo pozytywna rzecz, ale wiemy, że może to mieć również negatywne konsekwencje — mówi Jessica Holzbauer z Huntsman Mental Health Institute.
Wprowadzane przez serwisy społecznościowe funkcje ochrony, zwłaszcza użytkowników nieletnich, mają za zadanie zamydlić oczy samym użytkownikom, jak i specjalistom czy organom regulacyjnym. Meta doskonale zdaje sobie sprawę z tego, jak szkodliwy dla młodych osób jest Instagram, jednak niczego realnego z tym nie robi. Podobnie jest z pozostałymi platformami. Dopóki będą one miały możliwość zasłaniania się brakiem odpowiedzialności, dopóty żadnych realnych zmian nie zobaczymy. Choć w Europie jest pod tym względem nieco lepiej, to wciąż to w Ameryce muszą zostać zapoczątkowane pewne procesy, które później zostaną rozpowszechnione na pozostałą część świata.
Obecnie nie da się całkowicie wyeliminować tego typu platform z naszego życia, dlatego ingerencja w algorytmy jest tak istotna. Kolejne pozwy, jakie sypią się przeciwko gigantom, pokazują, że społeczeństwo jest coraz bardziej świadome skali zagrożenia i chce temu przeciwdziałać. I być może wkrótce zaczniemy w końcu widzieć tego efekty, nie tylko lokalnie i na małą skalę, ale globalnie.