Aby sztuczna inteligencja mogła sprostać naszym wymaganiom, musi być w stanie rozumieć ludzkie zachowania. Nie jest to łatwe, bo człowiek jest jedynym gatunkiem na Ziemi, który ma tendencję do zachowywania się “nieoptymalnie” podczas podejmowania decyzji. Ta irracjonalność jest szczególnie trudna do modelowania i często rujnuje nawet najlepsze modele obliczeniowe. Wkrótce może się to zmienić.
Czytaj też: Czego pragnie sztuczna inteligencja? Bing jest z nami od niedawna, a już ma dość ludzi
Naukowcy z MIT i University of Washington opracowali sposób modelowania “agenta” (człowieka lub maszyny), nazwany L-IBM (ang. latent inference budget model), który uwzględnia jego nieprzewidywalne zachowania. W nowym artykule naukowcy pokazują, jak można wykorzystać ich metodę do wnioskowania o celach nawigacji na podstawie wcześniejszych tras i przewidywania kolejnych ruchów graczy w meczach szachowych.
Nasze wyniki pokazują, że suboptymalny proces podejmowania decyzji przez człowieka można skutecznie modelować za pomocą ograniczonych obliczeniowo wersji standardowych algorytmów wyszukiwania. Dzięki temu uzyskujemy zarówno dokładne modele podejmowania decyzji przez ludzi, jak i informacyjne miary ich zdolności wnioskowania. Athul Paul Jacob z MIT EECS
Jak sztuczna inteligencja może przewidzieć ludzkie zachowania?
Naukowcy od dekad budują modele obliczeniowe ludzkich zachowań. W wielu wcześniejszych podejściach uwzględniano suboptymalny proces decyzyjny, ale metody te mają jeden poważny mankament. Zakładają, że człowiek postawiony w danej sytuacji zawsze zachowa się identycznie, a tymczasem prawda jest zupełnie inna. Wiadomo, że ludzie często zachowują się w irracjonalny sposób.
Czytaj też: Sztuczna inteligencja przebiła samą siebie. To zasługa oryginalnego podejścia
Naukowcy MIT czerpali inspirację z wcześniejszych badań szachistów. Zauważyli, że gracze poświęcali mniej czasu na myślenie przed podjęciem działania podczas wykonywania prostych ruchów i że mocniejsi gracze zwykle spędzali więcej czasu na planowaniu niż słabsi w trudnych meczach.
Finalnie przekonaliśmy się, że głębokość planowania, czyli to, jak długo ktoś myśli o problemie, naprawdę dobrze odzwierciedla zachowanie ludzi. Athul Paul Jacob
Jak działa L-IBM? Najpierw obserwuje. Na przykład, jeżeli algorytm uczy się meczu szachowego, działa przez określoną liczbę kroków lub pozwala przeciwnikowi szachowemu wykonać pewne ruchy, które są “kopiowane”. Badacze mogą zobaczyć decyzje podjęte przez algorytm na każdym kroku. Model porównuje podejmowane decyzje z zachowaniami agenta rozwiązującego ten sam problem. Dostosowuje decyzje agenta do decyzji algorytmu i identyfikuje krok, w którym agent przestał planować.
Na tej podstawie sztuczna inteligencja może określić tzw. budżet wnioskowania, czyli to, jak długo agent będzie planował rozwiązanie danego problemu. Wiedzę tę można wykorzystać do przewidzenia reakcji agenta.
Metoda ta może być bardzo wydajna, ponieważ badacze mogą uzyskać dostęp do pełnego zestawu decyzji podjętych przez algorytm rozwiązywania problemów bez wykonywania dodatkowej pracy. Ramy te można również zastosować do dowolnego problemu, który można rozwiązać za pomocą określonej klasy algorytmów.
Metodę przetestowano w trzech różnych zadaniach modelowania: wnioskowaniu o celach nawigacji na podstawie poprzednich tras, odgadywanie zamiarów komunikacyjnych danej osoby na podstawie jej wskazówek werbalnych oraz przewidywaniu kolejnych ruchów w meczach szachowych między ludźmi. W każdym eksperymencie model L-IBM dorównywał popularnej alternatywie SI lub przewyższał ją.
Naukowcy MIT zamierzają kontynuować prace nad modelem L-IBM, a ich nadrzędnym celem jest stworzenie efektywniejszych asystentów SI.