Przychodzi sztuczna inteligencja do psychologa. Wynik testu mnie nie zaskoczył

Kojarzycie z różnych filmów test psychologiczny z plamami atramentu? To narzędzie opracowane w 1921 roku przez szwajcarskiego psychiatrę Hermanna Rorschacha. Polega na interpretacji serii niejednoznacznych, symetrycznych obrazów, które wyglądają jak plamy atramentu, aby zbadać osobowość, procesy myślowe, emocje i potencjalne zaburzenia psychiczne badanej osoby. Rozwiązanie ma swoich gorących zwolenników i krytyków w środowisku naukowym, ale niezależnie od tego, po której stronie tego sporu stoimy, warto chyba wiedzieć jak poradziła sobie z nim sztuczna inteligencja? Z jednej strony rezultat był dość oczywisty do przewidzenia, ale niektórzy mogą być nim mocno zaskoczeni.
Przychodzi sztuczna inteligencja do psychologa. Wynik testu mnie nie zaskoczył

Od ponad 100 lat psychologowie wykorzystują test Rorschacha do badania ludzkich wzorców myślowych i cech osobowości. Narzędzie bazuje na zjawisku zwanym pareidolią, w którym mózg instynktownie przypisuje znaczenie przypadkowym kształtom. Co się jednak stanie, gdy pozbawiona ludzkich emocji i doświadczeń sztuczna inteligencja zostanie poddana takiemu testowi? W rozwoju tej technologii doszliśmy już w końcu do pewnych możliwości w zakresie interpretacji obrazów, więc nic nie stoi na przeszkodzie. W rolę pacjenta wcielił się słynny ChatGPT. Eksperyment wykazał (bez większego zaskoczenia), że AI często interpretuje obrazy bardzo dosłownie, odwołując się do wzorców i kształtów w danych, na których zostało wytrenowane. 

Co się dokładnie stało, gdy sztuczna inteligencja poddała ocenie jeden z popularnych obrazków testu Rorschacha, często widziany przez ludzi jako nietoperz, motyl lub ćma? Na początku zauważyła, że to test Rorschacha i wiedziała o niejednoznaczności obrazu, stwierdzając, że różne osoby mogą widzieć różne rzeczy. Po nacisku na konkretną interpretację, określiła go jednak dosłownie jako “istotę z rozpostartymi skrzydłami”, co prawdopodobnie wynikało z danych treningowych opartych na ludzkich odpowiedziach. Wyniki testu wykazały kluczową różnicę: ludzie nadają obrazom osobiste znaczenie oparte na emocjach i wspomnieniach, podczas gdy AI jedynie analizuje kształty i wzorce, odwołując się do tego, czego nauczyła się z danych.

Jeszcze jedna słabość ujawniła się niemal natychmiast po naciśnięciu przycisku Refresh –  wystarczy przedstawić AI ten sam obraz do analizy, a może on uzyskać zupełnie inną interpretację i to w tej samej konwersacji. Wyobrażacie to sobie w ludzkim wydaniu? Nasza psychika jest przecież pełna zakorzenionych wewnętrznych konfliktów i subiektywnych interpretacji, ale nadal w pewnym sensie stała, trudno poddająca się resetowi. Sztuczna inteligencja funkcjonuje zaś w oparciu o czystą logikę i statystykę.

Czytaj też: Sztuczna inteligencja nas ogłupia? Nadmierne poleganie na AI zaburza rozwój krytycznego myślenia

Ujmując to nieco inaczej: muzyk, który nigdy nie doświadczył złamanego serca, może napisać piosenkę, która chwyta za serce, po prostu analizując strukturę innych podobnych utworów. Osobiście nie jestem tym specjalnie zaskoczony i przy okazji poczułem się lekko uspokojony świadomością, że gatunek ludzki jest na swój sposób unikalny i na obecnym etapie rozwoju technologii trudno będzie mu dorównać (przynajmniej w tym segmencie).