Swoją opinią o wykorzystaniu narzędzi AI podzielił się tym razem pracownik techniczny jednej z firm, która takie technologie tworzy. Pracujący dla OpenAI Will Depue uważa, że AI może prowadzić do polaryzacji społeczeństwa pod względem intelektualnym. Osoby z niższych przedziałów umiejętności mogą pozostać w tyle, podczas gdy osoby z wyższych przedziałów wskoczą na jeszcze wyższy poziom zaawansowania. Z kolei niedawne badanie OpenAI wykazało, że nadmierna zależność od narzędzi pokroju ChatGPT może prowadzić do poczucia osamotnienia i utraty pewności siebie w podejmowaniu decyzji.
Przedstawiciel OpenAI sugeruje, że wpływ AI na ludzkość nie będzie jednolity. Dla niektórych będzie to narzędzie wzmacniające inteligencję i ułatwiające naukę, podczas gdy dla innych doprowadzi do “ogłupienia” z powodu braku samodzielnego myślenia i zaangażowania poznawczego. Obawy pracownika OpenAI podzielają również sami użytkownicy mediów społecznościowych — ich zdaniem nadmierne korzystanie z AI bez zaangażowania własnego mózgu może prowadzić do “ogłupienia” i utraty motywacji do krytycznego myślenia. Wraz z błyskawicznym tempem rozwoju AI pojawiają się naturalnie pytania o długoterminowy wpływ tej technologii na zdolności poznawcze użytkowników oraz o to, czy może to przyczynić się do poszerzenia przepaści w poziomie wiedzy.
W kontekście edukacji badania wskazują, że uczniowie korzystający z narzędzi takich jak ChatGPT do odrabiania zadań domowych czy pisania esejów mogą wykazywać mniejszą inicjatywę w samodzielnym rozwiązywaniu problemów. Na przykład raport SAPEA (2024) dotyczący wykorzystania AI w nauce podkreślił, że choć AI przyspiesza analizę danych i automatyzuje zadania. Jej niewłaściwe użycie może prowadzić jednak do “zubożenia” umiejętności analitycznych, zwłaszcza jeśli studenci przestają ćwiczyć rozumowanie na rzecz szybkich odpowiedzi generowanych przez maszyny.
Czytaj też: ChatGPT generuje fałszywe rachunki. Ludzka kreatywność wybucha OpenAI w twarz
Z kolei badania nad poprawą zdolności rozumowania AI, jak te dotyczące metody Quiet-STaR (2024), pokazują, że choć AI może lepiej symulować procesy myślowe, nadal nie dorównuje ludzkim zdolnościom w zakresie rozumowania abstrakcyjnego czy kontekstowego. To sugeruje, że poleganie na AI w złożonych zadaniach może prowadzić do “lenistwa poznawczego”, gdzie człowiek przestaje angażować się w głębsze procesy myślowe.