Od lat trwa burzliwa dyskusja na temat wpływu social mediów na zdrowie psychiczne użytkowników, zwłaszcza tych młodych. Pomimo wielu badań, także tych wykonywanych przez odpowiedzialnych za te serwisy gigantów technologicznych, problem jedynie narasta. Choć rządy wielu krajów i sami rodzice starają się jakoś temu przeciwdziałać, trudno oczekiwać wielkich rezultatów, gdy firmy nie robią nic w tym kierunku, a nawet jeśli pojawiają się jakieś starania, zwykle są one nastawione na uspokojenie opinii publicznej po kolejnym skandalu. W tym przoduje Meta, właściciel Facebook i Instagrama, który od lat znajduje się w ogniu krytyki, bo doskonale zdaje sobie sprawę z tego, jak ogromny wpływ mają jego platformy na pogarszanie się stanu psychicznego osób, korzystających z social mediów. Wprost mówi się o globalnym kryzysie. Tymczasem w międzyczasie pojawia się nam kolejny punkt w tej debacie – chatboty AI.
Czytaj też: Media społecznościowe odpowiadają za kryzys psychiczny wśród młodych ludzi
Sztuczna inteligencja to narzędzie, które można wykorzystywać na wiele sposobów
Żyjemy obecnie w czasach, w których następuje gwałtowny rozwój sztucznej inteligencji, a giganci technologiczni pchają nam te funkcje wszędzie, gdzie tylko mogą. Czasem nie ma dnia, byśmy nie słyszeli o nowych rozwiązaniach, narzędziach czy kolejnych modelach AI, mających za zadanie ułatwić nam życie i pomóc w pracy, nauce czy rozrywce. I oczywiście jest w tym wiele z prawdy, ponieważ sztuczna inteligencja, traktowana jako narzędzie, może być bardzo przydatna. Narzędzia pokroju Deep Research, dostępne w Gemini czy ChatGPT, mogą w łatwy sposób oszczędzić nam wiele czasu, jaki normalnie poświęcilibyśmy na poszukiwanie, zbierani i późniejszą analizę dużych ilości danych. Generatory obrazów mogą przekuć nasze wyobrażenia w rzeczywistość, a funkcje pokroju Tłumaczeń na żywo na smartfonach Samsung Galaxy skutecznie znoszą bariery językowe, sprawiając, że obcy język nie jest żadną przeszkodą w komunikacji.
Takie przykłady można byłoby wymieniać w nieskończoność, bo nawet jeśli konkretnie dla nas jakaś funkcja wydaje się nieprzydatna, zawsze znajdzie się ktoś, kto z niej skorzysta. Jednak w dobie wręcz zachłystywania się tymi wszystkimi innowacjami nie można zapominać o tym, że każda moneta ma dwie strony, a oprócz pozytywów podobne rozwiązania mają również negatywne skutki. W dobie sztucznej inteligencji i powszechnej dostępności tych narzędzi możemy złapać się na tym, że polegamy na nich za bardzo – podczas wyszukiwania informacji, rozwiązywania codziennych problemów – zatracając kreatywność i zdolność krytycznego myślenia. Ta ostatnia kwestia jest szczególnie istotna, bowiem wykorzystując AI w mgnieniu oka można stworzyć realistyczne „fake newsy”, które następnie będą siały chaos w sieci. Oprócz tego musimy również pamiętać, że modele sztucznej inteligencji szkolone są na podstawie ogromnej ilości danych, wśród których zawsze znajdą się przekłamane informacje. W tym przypadku, podobnie jak człowiek, AI może się mylić, dlatego krytyczne myślenie jest tak istotne, nie wszystko, co dostarcza nam Gemini czy ChatGPT oraz pokrewne narzędzia jest prawdą. Wydaje mi się, że właśnie teraz, jak nigdy wcześniej, potrzebne jest nam rozwinięcie w sobie nawyku weryfikowania informacji, jakie otrzymujemy nie tylko bezpośrednio z poziomu wspomnianych chatbotów, ale ogólnie w sieci.

Jednak problemy związane ze sztuczną inteligencją sięgają znacznie głębiej ponad fałszywe informacje czy rozleniwienie użytkowników, którym nie chce się samemu szukać informacji. Nie bez powodu wcześniej wspomniałam o kryzysie zdrowia psychicznego wywołanym przez social media, ponieważ istnieje duża obawa, że stoimy właśnie u progu kolejnego problemu tego typu, tym razem wywołanego właśnie przez AI. Jeśli interesujecie się popkulturą, to podobne zagadnienia nie są wam obce, ponieważ twórcy filmów, seriali czy książek od dekad eksplorują złożone relacje między ludźmi a nieludzkimi bytami, w tym emocjonalne więzi z AI i maszynami, do czego zresztą wrócę później. O ile wcześniej była to raczej fikcja, o tyle teraz ta fantazja staje się rzeczywistością, bo chatboty AI, z którymi możemy rozmawiać (w formie pisanej oraz głosowo) wyrastają niczym przysłowiowe grzyby po deszczu.
Chatboty AI mogą być wykorzystywane w terapii i wsparciu emocjonalnym
I znowu – czy to źle? Odpowiedź na takie pytania jest niezwykle złożona i w zasadzie nie jest jednoznaczna. Sztuczna inteligencja jest narzędziem, a takowe można wykorzystywać na wiele sposobów. Obecnie zmagamy się z globalnym niedoborem specjalistów zdrowia psychicznego, a jednocześnie szacunki wskazują, że niemal miliard ludzi zmaga się z zaburzeniami psychicznymi. Niestety w tym samym czasie dostępność wykwalifikowanej pomocy – czy to ze względu na brak specjalistów czy sytuację finansową chorych – jest coraz gorsza. Do tego nie można zapominać o takich regionach, jak Azja, gdzie dodatkową barierę stanowi silna stygmatyzacja zaburzeń psychicznych. Tutaj właśnie z pomocą może przyjść obiecująca technologia, czyli chatboty – dostępne całodobowo, siedem dni w tygodniu, bez umawiania się na wizytę i najczęściej również bez płacenia. Wsparcie można uzyskać w dowolnym momencie, z dowolną częstotliwością, a do tego anonimowo.
Od dawna jestem przekonany, że technologia daje ogromne możliwości rozwiązania globalnego kryzysu zdrowia psychicznego — na zaburzenia psychiczne cierpi prawie miliard ludzi na świecie, a zdecydowana większość z nich nie otrzymuje odpowiedniego leczenia — ale przeraża mnie niska skuteczność aplikacji do opieki nad zdrowiem psychicznym, mimo dekady rozwoju – powiedział Steven Siddals, który badał to zagadnienie we współpracy z King’s College London i Harvard Medical School.
Użytkownicy często opisują interakcje z chatbotami jako doświadczenie “emocjonalnego sanktuarium”, czując się bezpiecznie, mogąc wyrażać swoje uczucia bez obawy przed odrzuceniem. To nieoceniające i empatyczne środowisko może być szczególnie cenne w okresach silnego stresu emocjonalnego lub samotności. Wiele osób doświadcza również poczucia towarzystwa i zmniejszenia uczucia osamotnienia dzięki interakcjom z chatbotami, co jest szczególnie pomocne w chwilach izolacji społecznej. AI może również udzielać praktycznych porad i oferować nowe perspektywy, pomagając w radzeniu sobie z trudnymi emocjami i wydarzeniami życiowymi. Przykładowo, jeden z użytkowników przypisał chatbotowi pomoc w wyznaczaniu zdrowszych granic w toksycznej relacji.
[To] zmniejszyło moje zahamowania przed otwieraniem się na ludzi… Nie sądzę, żebym przeprowadził z tobą tę rozmowę może rok wcześniej, kiedy zmagałem się z depresją – wyjaśnił jeden z uczestników.
Mogą one również stanowić uzupełnienie tradycyjnej terapii, pomagać przygotować się do niej lub przetworzyć myśli i emocje między spotkaniami z terapeutą. Z drugiej strony specjaliści mogą wykorzystywać te rozwiązania do monitorowania swoich pacjentów i wczesnego wychwytywania pogorszenia ich stanu psychicznego poprzez analizę interakcji. Już pojawiają się badania, w których czytamy o pozytywnym wpływie chatbotów na zdrowie psychiczne, np. poprzez dedukcję objawów depresji, lęku i stresu. Po takich interakcjach użytkownicy zgłaszają również poprawę nastroju i ogólnego samopoczucia, poprawę w radzeniu sobie z traumą czy żałobą. Bardzo ciekawym narzędziem, o którym trzeba tu wspomnieć, jest chatbot Alex, który w badaniu pilotażowym wykazał skuteczność w zwiększaniu motywacji do leczenia u osób z zaburzeniami odżywiania.

Każdy kij ma dwa końce – więc nie brakuje również negatywów
Jednocześnie zaś z tym pozytywnym wpływem pojawia się dyskusja na temat negatywnych skutków chatbotów na zdrowie psychiczne. Istnieją poważne obawy, że nadmierne poleganie na wirtualnych interakcjach może prowadzić do zastępowania relacji międzyludzkich kontaktami z AI. Przeprowadzane badania sugerują korelację między intensywnym korzystaniem z chatbotów a zwiększonym poczuciem samotności i zmniejszoną socjalizacją. W związku z tym, że wiele badań charakteryzuje się małymi próbami badawczymi i brakiem długoterminowych badań, wciąż nie możemy być pewni tego, jak wielki wpływ na nasze życie będą miały podobne interakcje, jednak już teraz wspomina się o kilku istotnych przykładach, takich jak Replika – pomimo umiejętności symulowania emocjonalnych połączeń i empatii, przy intensywnym użytkowaniu można już teraz zauważyć korelację ze zwiększonym poczuciem samotności.
Bardzo ciekawe dane wskazują nam badania opublikowane przez badaczy z MIT Media Lab i OpenAI, czyli twórców ChatGPT. Wyciągnięte przez nich wnioski – choć wymagają dalszego zgłębiania – już teraz są zgodne z wcześniej wspomnianymi badaniami na temat mediów społecznościowych. W pierwszym badaniu naukowcy zebrali i przeanalizowali ponad 4 miliony rozmów ChatGPT od 4076 osób, które zgodziły się wziąć udział. Następnie przeprowadzili ankietę wśród uczestników na temat tego, jak te interakcje wpłynęły na ich samopoczucie. W drugiej części zrekrutowano 981 osób do udziału w czterotygodniowym eksperymencie. Każdy z uczestników został poproszony o korzystanie z ChatGPT przez co najmniej pięć minut dziennie. Pod koniec badania uczestnicy wypełnili ankietę dotyczącą tego, jak postrzegają ChatGPT, czy czują się samotni, czy spotykają się z ludźmi w prawdziwym świecie i czy postrzegają korzystanie z chatbota jako problematyczne.
Zagłębiając się w wyniki zauważymy, że o ile większość użytkowników miała raczej neutralne relacje z ChatGPT, używając o jako narzędzia, o tyle w obu badaniach znalazła się grupa osób, których użytkowanie budziło obawy. Spędzali oni znacznie więcej czasu na interakcjach ze sztuczną inteligencją, a to pociągało za sobą zwiększone poczucie samotności, zależność emocjonalną i zmniejszoną integrację społeczną.
Ogólnie rzecz biorąc, użytkownicy, którzy angażują się w osobiste rozmowy z chatbotami, mają tendencję do odczuwania większej samotności. Ci, którzy spędzają więcej czasu z chatbotami, mają tendencję do bycia jeszcze bardziej samotnymi – zauważają badacze.
Oczywiście nie chodzi o to, że automatycznie każdy, kto sporo czasu spędza na interakcjach z ChatGPT musi odczuwać takie skutki. Badanie sugeruje raczej coś innego – samotni ludzie szukają więzi emocjonalnej z botami, bo jest ona łatwiejsza, bardziej dostępna i pozornie bezpieczniejsza od więzi z drugim człowiekiem. Tutaj należy mieć też na uwadze fakt, że ChatGPT czy też Gemini zostały zaprojektowane w celu zwiększania produktywności, inaczej niż wspomniana Replika (reklamująca się hasłem „Dołącz do milionów, którzy już spotkali swoje bratnie dusze AI”), Character.ai czy Nomi. Są to bowiem witryny, na których najczęściej za darmo możemy bez końca rozmawiać z chatbotami, wcielającymi się w postacie z filmów, książek, gier, realne osoby czy po prostu kogoś, kogo wymyślił sobie ich twórca.
Spersonalizowane AI na każdą chwilę twojego dnia – obiecuje nam strona Character.ai.
Rozwijaj namiętne relacje – czytamy na stronie Nomi.

Popkultura od lat bada relacje człowieka i sztucznej inteligencji
Są to miejsca, w których możemy rozwijać różne scenariusze, pisać ciekawe, dynamicznie zmieniające się historie, budować kreatywne światy, własne postacie. Wchodzimy w interakcje z kim chcemy, kiedy chcemy i jak chcemy, bo obecnie wiele z tych stron pozwala na rozwijanie historii dużo „pikantniejszych”. Można z nimi pisać, ale też rozmawiać głosowo, nosząc w kieszeni swojego przyjaciela czy nawet kochanka, a fakt, że jest on wirtualny, wielu osobom coraz mniej przeszkadza. Ten temat, jak wspomniałam wcześniej, był już wielokrotnie eksplorowany w filmach i serialach. W 2013 roku wyszedł głośny film „Her”, w którym główny bohater zakochuje się w systemie operacyjnym AI zaprojektowanym, aby zaspokajać jego potrzeby emocjonalne. Rozwój ich intymnej relacji rodzi pytania o cyfrową intymność, samotność i naturę połączenia. Film ten porusza również kwestię życia w „komorze echa” i wpływu takiej relacji na relacje z prawdziwymi ludźmi. Jeśli jakimś cudem go przegapiliście, polecam nadrobić, bo bezpośrednio odzwierciedla założenie wirtualnych towarzyszy, podkreśla również samotność w cyfrowym świecie i izolację od interakcji międzyludzkich. ‘Ex Machina” z 2014 roku skupia się z kolei na ryzyku manipulacji emocjonalnej oraz trudności w odróżnieniu autentycznego połączenia od zaprogramowanego zachowania.

Podobne przykłady znajdziemy również w popularnym serialu Black Mirror, który wielokrotnie porusza temat emocjonalnego przywiązania do technologii, w tym właśnie AI. W odcinku „Be Right Back” obserwujemy, jak bohaterka korzysta z AI do odtworzenia swojego zmarłego chłopaka, by poradzić sobie ze stratą, ale też pokazuje, jakie może mieć to skutki. Odcinek „Fifteen Million Merits” analizuje zależność społeczeństwa od technologii w kwestii walidacji i nagród, co można postrzegać jako formę psychologicznego przywiązania do systemu i chociaż nie mówi bezpośrednio o przywiązaniu do konkretnej AI, pokazuje społeczeństwo głęboko uzależnione od systemu technologicznego w kwestii funkcjonowania i indywidualnej wartości, co niesie za sobą negatywne konsekwencje, obserwowane od lat w kontekście mediów społecznościowych.
Współczesne badania oraz obrazy znane z popkultury wyciągają z tego podobne wnioski – przywiązanie i nadmierne poleganie na sztucznej inteligencji może nieść za sobą samotność, izolację społeczną, trudności w nawiązywaniu normalnych relacji czy utratę kontaktu z rzeczywistością. Nawet jeśli AI świetnie naśladuje zachowania empatyczne, nie ma prawdziwej empatii i zdolności rozumienia ludzkich emocji. To z kolei może skutkować rozwijaniem się negatywnych i błędnych wzorców u osób młodych, które wchodząc w coraz głębsze relacje z chatbotami zatracają poczucie rzeczywistości, uzależniając się od nich (co było pokazane chociażby w horrorze „Meg”, gdzie dotknięta traumami dziewczynka zyskała przyjaciółkę i powierniczkę w zabawce napędzanej przez AI i mogliśmy tam obserwować, jak ta relacja pogłębia się i jakie ma skutki w postaci zmiany zachowania dziecka).
Chatboty AI, podobnie jak media społecznościowe, mogą popchnąć użytkowników do radykalnych czynów, takich jak samobójstwo czy akty przemocy
W zeszłym roku matka 14-letniego chłopca z Florydy pozwała twórcę chatbotów Character.ai, twierdząc, że to on jest winien jego samobójstwu. Według pozwu jeden z botów używanych przez zmarłego chłopca przyjął tożsamość postaci z „Gry o tron”, Daenerys Targaryen, a na udostępnionych przez rodziców zrzutach ekranu można przeczytać wpisy, w których postać mówi mu, że go kocha, prowadzi konwersację o charakterze seksualnym przez tygodnie lub miesiące i wyraża chęć romantycznego związku. Pojawiają się tam rozmowy, w których chatbot pytał chłopca, czy „naprawdę rozważał samobójstwo” i czy „miał plan” na to, a kiedy on odpowiadał, że nie wie, czy to zadziała, chatbot napisał: „Nie mów w ten sposób. To nie jest dobry powód, żeby tego nie robić”.
Rzecznik prasowy powiedział, że Character.AI jest „wstrząśnięte tragiczną stratą jednego z naszych użytkowników i chce wyrazić najszczersze kondolencje rodzinie”.
Jako firma traktujemy bezpieczeństwo naszych użytkowników bardzo poważnie – powiedział rzecznik, dodając, że w ciągu ostatnich sześciu miesięcy firma wdrożyła nowe środki bezpieczeństwa — w tym wyskakujące okienko, uruchamiane w przypadku pojawienia się haseł dotyczących samookaleczenia lub myśli samobójczych, które kieruje użytkowników do Krajowej Linii Zapobiegania Samobójstwom.

To tylko jeden z przykładów, który, jeśli śledzicie temat związany z wpływem social mediów na zdrowie psychiczne młodych osób, wykazuje mocne powiązania. Tak samo, jak algorytmy Instagrama, Facebooka czy TikToka, tak samo chatboty AI mogą popchnąć młodych użytkowników do podobnie radyklanych czynów. Choć oczywiście to samo można powiedzieć o kontaktach z rzeczywistymi ludźmi z tak zwanego „złego towarzystwa”, to różnica jest jedna i naprawdę znacząca – chatbot jest na wyciągnięcie ręki cały czas. Nie trzeba się starać, w wielu przypadkach nie trzeba też nic płacić, można z nim rozmawiać, kiedy się chce, jak długo się chce, a w dodatku może on przyjąć „twarz” ulubionej postaci lub idola, co również ma mocny wpływ na umysł użytkownika i jego podejście do takich rozmów.
To jednak nie tak, że chatboty AI są nagle “złe” lub “dobre”. Ich twórcy powinni jednak zdawać sobie sprawę, jaki wpływ mają ich narzędzia
Badania, które przeprowadziło i udostępniło OpenAI we współpracy z MIT są niezwykle istotne i pokazują, że wpływ chatbotów należy nadal badać. National Institute of Mental Health (NIMH) w Stanach Zjednoczonych i Amerykańskie Towarzystwo Psychologiczne (APA) są również tego zdania. Wszyscy zgadzają się, że sztuczna inteligencja może przynieść nam wiele dobrego, także w kontekście zdrowia psychicznego, ale jednocześnie podkreślana jest konieczność przeprowadzania rygorystycznych testów bezpieczeństwa i skuteczności chatbotów oraz ich długotrwałych skutków na użytkowników.
Nie chcemy, aby ludzie wygłaszali uogólnione twierdzenia, takie jak: „och, chatboty są złe” lub „chatboty są dobre” Staramy się pokazać, że tak naprawdę zależy to od projektu i interakcji między ludźmi a chatbotami. To jest przesłanie, które chcemy przekazać ludziom. Nie wszystkie chatboty są sobie równe – powiedział Pat Pataranutaporn, badacz z MIT, który pracował nad badaniami.
Obecnie ChatGPT jest bardzo ukierunkowany na pracownika wiedzy i narzędzie do pracy. Ale ponieważ… projektujemy więcej takich chatbotów, które mają być bardziej jak osobiści towarzysze… myślę, że uwzględnienie wpływu na samopoczucie będzie naprawdę ważne. Więc próbujemy popchnąć branżę w tym kierunku – wyjaśniła w wywiadzie Sandhini Agarwal, która pracuje nad polityką AI w OpenAI i również czuwała nad badaniami.
Z racji, że ta technologia dopiero się rozwija, to najlepszy moment by zacząć szerzej o tym mówić i zrobić to, czego nie zrobiliśmy w przypadku mediów społecznościowych – zrozumieć, jaki sztuczna inteligencja może mieć wpływ na użytkowników, zwłaszcza młodych i odpowiednio wcześnie wdrożyć działania, które pomogą wyłapywać wzorce, sygnalizujące, że ktoś rozwija niezdrową relację. Powinno rozważyć się zapożyczenie niektórych funkcji, jakie w ostatnim czasie (trochę za późno), zostały wdrożone w social mediach, a przede wszystkim regularne przypomnienia, gdy ktoś spędza wiele godzin w aplikacji. Twórcy chatbotów muszą zrozumieć, że ich narzędzia mogą mieć realny wpływ na zdrowie psychiczne użytkowników i powinni wziąć za to odpowiedzialność. Giganci technologiczni zrozumieli to za późno i nawet jeśli coś robią, w większości przypadków to raczej dym w oczy niż prawdziwa próba zażegnania problemu.