Nieco więcej światła na ten nurtujący temat rzuca niedawne badanie przeprowadzone przez zespół naukowców z Microsoft Research oraz Carnegie Mellon University, ale odpowiedź na powyżej postawione pytania nie jest wcale taka prosta i oczywista. Postawiono sobie bowiem ambitne zadanie – zbadania, jak sami użytkownicy postrzegają wpływ generatywnej sztucznej inteligencji na ich własne krytyczne myślenie. W zasadzie w jaki sposób można tego dokonać? Oceniamy nasze własne procesy myślowe w odniesieniu do ustalonych norm i metod dobrego rozumowania. Pod uwagę bierzemy precyzję, jasność, dokładność, rozległość, głębokość, trafność, znaczenie i logikę argumentów.
To jednak nie wystarczy, bo istnieją przecież inne czynniki, które mogą wpływać na jakość naszego myślenia – światopogląd, uprzedzenia poznawcze, a nawet niekompletne lub niedokładne modelach mentalne.
Badanie wykazało, że większe zaufanie do GenAI wiąże się z mniejszym wysiłkiem poznawczym postrzeganym w kategoriach wiedzy, rozumienia, analizy, syntezy i oceny. Problem w tym, że badania prowadzone przez Microsoft Research oraz Carnegie Mellon University były oparte na taksonomii Blooma opracowanej w 1956
roku, przestarzałej i potencjalnie problematycznej. Umiejętności poznawcze rozwijają się według niej hierarchicznie z podziałem na poziom podstawowy, a na nim dopiero poziom wyższy. Tymczasem ocena (ewaluacja), która jest uważana za umiejętność “wyższego rzędu”, może może być początkiem badania, łatwym do wykonania w niektórych kontekstach. To bowiem kontekst, a nie możliwości poznawcze, często decydują o poziomie myślenia.
Wyniki innego badania opublikowanego nieco wcześniej wskazują, że ludzie, którzy mieli większe zaufanie do sztucznej inteligencji, generalnie wykazywali się mniej krytycznym myśleniem, podczas gdy ludzie z większym zaufaniem do swoich umiejętności w tym zakresie wykazywali tendencję do bardziej krytycznego myślenia. Reasumując, generatywna sztuczna inteligencja nie szkodzi krytycznemu myśleniu – pod warunkiem, że ktoś taką umiejętność już posiada.
Czytaj też: Deepseek vs ChatGPT. Starcie gigantów, czy walka Dawida z Goliatem?
Tymczasem krytyczne myślenie jest niezbędne nie tylko przy ocenie wyników AI, ale również na etapie formułowania pytań i hipotez. Należy kwestionować założenia, oceniać perspektywy, systematycznie rozumować i ścierać swoje pomysły z innymi ludźmi. Generatywne AI, podobnie jak wcześniejsze przełomowe w historii ludzkości technologie (pisanie, druk, kalkulatory, internet), wpływa na gatunek ludzki w coraz większym stopniu, więc budzi dość naturalne obawy o negatywny wpływ na jakość naszego myślenia. Aby uniknąć negatywnego wpływu GenAI na krytyczne myślenie, należy stać się krytycznym myślicielem przed jego użyciem. Kreda oraz tablice uczyniły nas lepszymi matematykami, więc może w tym szaleństwie jest jakaś metoda?