Sztuczna inteligencja myśli zupełnie inaczej, niż człowiek. To wielki problem

Nie trzeba być ekspertem, żeby dostrzec, że sposób myślenia sztucznej inteligencji i człowieka się od siebie różni. Autorzy nowych badań w tej sprawie postanowili zapoznać się z tym problemem i określić jego konsekwencje. Niedawno zaprezentowali swoje ustalenia na łamach Transactions on Machine Learning Research.
Sztuczna inteligencja myśli zupełnie inaczej, niż człowiek. To wielki problem

Jednym z kluczowych wniosków wyciągniętych przez autorów wspomnianej publikacji było to, że sztuczna inteligencja nie posiada ludzkiej zdolności do tworzenia kreatywnych połączeń umysłowych. To bardzo istotna informacja w kontekście działań mających na celu wprowadzanie tego rodzaju narzędzi do codziennych zastosowań.

Czytaj też: PLLuM – gdy sztuczna inteligencja mówi i myśli po polsku

Celem prowadzonych analiz było określenie, jak LLM, czyli duże modele językowe, radzą sobie w starciu z tworzeniem analogii. Okazało się, że zadania, które ludziom nie sprawiały większych kłopotów, dla sztucznej inteligencji były sporym utrudnieniem. Jedna z autorek nowych badań, Martha Lewis, z Uniwersytetu w Amsterdamie, podała praktyczny przykład tego, co zaobserwowano.

Sztuczna inteligencja myśli inaczej niż człowiek, dlatego naukowcy starają się zrozumieć te różnice. Mogą one wpłynąć na zakres wykorzystywania tego typu narzędzi

Zadanie dotyczyło ciągów liter i było przedstawiane zarówno dużym modelom językowym, jak i ludzkim uczestnikom eksperymentu. W sytuacji, gdy ciąg abbcd zostaje przekształcony w abcd, przykład w postaci ijkkl zostanie rozwiązany przez człowieka jako ijkl. Wzór jest bowiem dość prosty: należy usunąć powtarzającą się literę. Dla sztucznej inteligencji nie jest to jednak równie oczywiste.

Wiedząc, w jakich okolicznościach nie jest ona w stanie iść tokiem rozumowania typowym dla ludzi, naukowcy mogą to wykorzystać na szereg sposobów. Bo choć duże modele językowe imponują zdolnością do identyfikowania i dopasowywania wzorców, to nie radzą sobie z generalizowaniem na ich podstawie. 

Czytaj też: Chiny zaskakują świat. Patrzysz i nie wiesz, czy tego nagrania nie zrobiła sztuczna inteligencja

To bardzo istotne spostrzeżenie w kontekście zastosowań takich narzędzi, cieszących się coraz większą popularnością na przykład w sferze prawnej. Sęk w tym, że ich ograniczona zdolność do tworzenia analogii może przekładać się na problemy. Przykład? Sztuczna inteligencja może nie dopasować precedensów prawnych do nowych, nieznanych jej wcześniej sytuacji. Tego typu technologie niekoniecznie muszą więc sprawdzić się wszędzie tam, gdzie wiele osób by tego chciało. Przynajmniej nie w obecnej formie.