Prof. Włodzisław Duch: Zależy którego (śmiech). Każdy ma teorię, która mu się najbardziej podoba. Ja uważam, że John Locke miał rację i świadomość jest percepcją tego, co dzieje się w naszym umyśle. A że dzieje się w nim mnóstwo rzeczy, to tylko niektóre z nich są jednoznacznie odróżnialne od tła, które jest szumem. Co więcej, jedynie niewielka część z nich jest istotna przy podejmowaniu decyzji o tym, co mamy robić, jak się zachować czy gdzie iść. A przecież napinamy mięśnie, oddychamy i trawimy. Dzieją się w nas tysiące rzeczy, lecz my nie zdajemy sobie z tego sprawy.
Jednak niektóre pobudzenia mózgu są na tyle silne, że je zauważamy. Kiedy na przykład używamy słów, to w pewnym sensie wyrażamy to, co dostrzegamy w swoim umyśle. Zachodzi aktywacja, która sprawia, że pojęcie staje się częścią rozwijającej się sekwencji. I jesteśmy w stanie wypowiedzieć tę sekwencję, czyli zdanie – choć w niektórych przypadkach nie wiemy, co za chwilę powiemy. Nie możemy też zwykle zaplanować, co powiemy za godzinę. To się dzieje spontanicznie, w zależności od sytuacji.
Mamy też złudzenie, że umysł jest czymś niematerialnym. Bo nie postrzegamy umysłu, tylko swoje działania. Japoński nauczyciel zen Shunryū Suzuki pisał, że jest mały umysł i duży umysł. Duży umysł to jest właśnie całość człowieka, która ogarnia wszystko. A mały umysł to moje przekonanie, że istnieje tylko moje ego. Ale przecież i ono czasem spontanicznie się zachowuje! Za tym wszystkim zaś stoi jakiś proces, do którego nie mam wglądu. Mogę tylko obserwować swoje zachowanie.
Gram trochę na EWI (Electronic Wind Instrument). A ponieważ nie mam wyobraźni muzycznej, powstaje pytanie, w jaki sposób mogę coś skomponować czy zagrać. Nie wiem. Mój mózg jest w stanie skonstruować jakieś linie melodyczne, nauczył się pewnych rzeczy, natomiast ja sam nie jestem w stanie sobie wyobrazić linii melodycznej. Mogę ją dopiero zagrać, czyli uzewnętrznić pewne procesy. I na skutek tego uzewnętrznienia wiem, co mi w głowie gra.
Pozostajemy tajemnicą dla siebie samych?
Eric Schwitzgebel w książce „Perplexities of Consciousness” podaje przykład osób niewidomych, które twierdziły, że odczuwając powiew na twarzy, orientują się, że do czegoś podchodzą. Okazało się jednak, że gdy nałożono im maski, nadal się orientowały – ale przestawały, gdy zatkano im uszy. Wniosek? To była echolokacja, ci ludzie nie byli jednak w stanie stwierdzić, że do orientacji w przestrzeni używają słuchu. Wydawało im się, że dzieje się to za sprawą zmysłu dotyku. Czyli jeśli nie jesteśmy odpowiednio wytrenowani, to czasem nawet tych wewnętrznych przepływów informacji nie jesteśmy w stanie dobrze zinterpretować.
Ludzie wymyślili już różne architektury komputerowe, które z grubsza przypominają działanie mózgu. Wiele tych prób jest całkiem udanych, chociaż w szczegółach nikt tego jeszcze dobrze nie zrobił.
Inny przypadek opisał Oliver Sacks w książce „Antropolog na Marsie”. W wyniku zapalenia nerwów pewna kobieta nie otrzymywała z wnętrza ciała sygnałów czuciowych (propriocepcyjnych). W związku z tym nie wiedziała, gdzie jest jej ciało, i nie mogła się ruszać, bo brak sygnałów powoduje, że nie wiadomo, jak sterować mięśniami. Wystarczyło jednak, że przez chwilę popatrzyła na siebie, by ta informacja znalazła się w jej mózgu.
Jak to możliwe?
Układ wzrokowy jest tak skonstruowany, że informacja o relacjach przestrzennych trafia do obszaru ciemieniowego. Przylega on do kory somatosensorycznej, w której pojawia się reprezentacja czuciowa. W związku z tym informacja wzrokowa przenika do czuciowej. I to wystarczy.
Świetnie obrazują to eksperymenty, które robimy czasami z gumową ręką. Człowiek, który nie widzi swojej ręki, ale widzi, że drażni się rękę gumową i jednocześnie jego niewidoczną rękę, zaczyna mieć wrażenie, że to jego własna kończyna.
Pewne procesy zachodzące w mózgu są też odpowiedzialne za aktywowanie obszarów, które rozpoznają, jaki jest stan wewnętrzny mózgu i czy można mu przypisać pewne pojęcie czy znaczenie. Przypisanie znaczenia pomaga nam w tworzeniu sekwencyjnych stanów mentalnych, czyli rozumowania. Wydaje się, że wynalazek języka był niezwykle ważny z tego punktu widzenia.
Bez języka możemy odczuwać różne rzeczy, a niektóre nawet wyobrazić sobie niewerbalnie, jak muzykę, i je uzewnętrznić. Obserwuję swoje koty i widzę, że kiedy dostrzegą ptaka, to wiedzą, że muszą pobiec w określonym kierunku, innym przejściem, by wybiec i go gonić. Więc wyobraźnia pojawia się i bez języka – tyle że jest ona niewerbalna i logiki na niej nie zbudujemy. Kot nie zacznie się bawić w filozofa.
Wielu ludzi powtarza, że nie rozumiemy świadomości. Niech mówią za siebie. Mnie się wydaje, że coraz lepiej ją rozumiemy. Co więcej, to nasze rozumienie dotyczy takich zagadnień jak zaburzenia świadomości u osób, które na skutek udarów czy innych problemów są nieprzytomne i trzeba je wybudzić. By to zrobić, musimy doprowadzić do ponownego pojawienia się w mózgu złożonych procesów. Trzeba pobudzić neurony, żeby zaczęły ze sobą współpracować i zsynchronizowały swoje działania. W tym celu montuje się elektrody do głębokiej stymulacji na poziomie wzgórza lub pnia mózgu, gdzie jest twór siatkowaty. Wysyła on swoje projekcje do reszty mózgu, by go pobudzić w całości. To trochę jak z silnikiem samochodu, który trzeba rozgrzać, żeby móc dynamicznie ruszyć.
Ale wciąż nie wszystko rozumiemy.
Mnóstwa szczegółów nie rozumiemy, ale rozumiemy wielkie zagadnienia filozoficzne.
Natomiast inną sprawą jest to, na ile potrafimy to przenieść na „mózgopodobne” architektury komputerowe, jak BICA (Brain Inspired Cognitive Architectures). Ludzie wymyślili już różne architektury, które z grubsza przypominają działanie mózgu. Wiele tych prób jest całkiem udanych, chociaż w szczegółach nikt tego jeszcze dobrze nie zrobił.
Teoretycznie Human Brain Project miał doprowadzić do powstania takiego symulatora. Ale jeszcze nie widać, żeby to się udało. Twórcy HBP wykonali jednak ogromną pracę, bo katalogują wszystkie typy neuronów, całą biochemię. Czy to konieczne? Tego nie wiemy. Może się okazać tak jak z samolotami – że nie musimy konstruować machających skrzydeł, by latać. Musimy natomiast znać zasadnicze reguły, które nam pozwolą zrobić coś, co działa podobnie. Wtedy może to działać jeszcze szybciej i sprawniej.
Może się okazać, że z symulacją mózgu jest tak jak z samolotami – nie musimy konstruować machających skrzydeł, by latać. Musimy natomiast znać zasadnicze reguły, które nam pozwolą zrobić coś, co działa podobnie.
Jednak nawet takie ogólne inspiracje są bardzo płodne. Widać to szczególnie w przypadku sieci neuronowych i uczenia głębokiego. To inspiracja bardzo ogólna, lecz niezwykle pomocna, bo dzięki niej udaje się robić takie rzeczy jak analiza obrazu. Krok po kroku jesteśmy więc w stanie wykorzystać tę wiedzę o mózgu do budowy coraz lepszej sztucznej inteligencji.
W projekcie Human Brain Project powstają komputery neuromorficzne, który próbują odtworzyć to, jak poznajemy świat dzięki ucieleśnionemu (embodied) mózgowi. W tych maszynach ważna jest też kwestia wydajności energetycznej. Czy takie podejście jest konieczne, żeby myśleć o prawdziwej sztucznej inteligencji?
Neuromorficzne podejście jest bardzo ważne i powstaje coraz więcej tego typu urządzeń, które są niesłychanie energooszczędne. Co prawda wśród ludzi od sztucznej inteligencji nie ma jeszcze wielkiego zainteresowania takimi obwodami, ale to ciekawy kierunek.
Natomiast jeśli chcemy mieć robota, który będzie w miarę sprawnie działał w świecie rzeczywistym, to dobrze byłoby, gdyby on w tym świecie poprzez interakcję nabywał różne umiejętności: sterowania własnym ciałem, reakcji na środowisko i tak dalej.
Sprzężenie ze światem formuje nasze programy sensomotoryczne. Co prawda są one nieświadome, ale na wyższym poziomie jesteśmy w stanie wykorzystywać je do robienia różnych rzeczy. Mózg człowieka mnóstwo rzeczy realizuje w ten sposób. Uczymy się płynnie chodzić, słyszeć mowę jako całość, a nie poszczególne dźwięki. Wszystkiego uczymy się spontanicznie – i to właśnie takie nienadzorowane, spontaniczne uczenie jest podstawą.
Ale jest też kwestia tego, czego chcemy uczyć maszynę. Jeśli grania w go czy kontrolowania eskadry myśliwców, to ucieleśnienie nie będzie nam potrzebne. Natomiast jeśli chcemy mieć robota, który się sprawnie zachowuje, to będzie to już konieczne.
A gdy będziemy już mieli takiego robota, który się tego nauczy, przeniesienie informacji do innego robota będzie natychmiastowe. Jeśli jeden się czegoś nauczy, to reszta też od razu będzie to potrafiła. To jest rzecz niesamowita. Bo my się uczymy od innych ludzi, ale powoli, z trudem – a tu nagle się okaże, że mamy milion robotów i każdy uczy się w zawrotnym tempie, bo wszystkie uczą się od siebie nawzajem. Konsekwencje tego, co się może zdarzyć, są trudne do wyobrażenia.
Moją uwagę zwróciły ostatnio opinie dwóch profesorów – neuronaukowca Gary’ego Marcusa i filozofa Luciano Floridiego. Obaj twierdzą, że dzisiejsze maszyny nie są inteligentne, ponieważ nie rozumieją, co to jest przyczynowo-skutkowość. Czy pana zdaniem możemy dziś w ogóle mówić o sztucznej inteligencji?
To znowu kwestia definicji. Ja definiuję pojęcie inteligencji w prosty sposób, bo w informatyce potrzebujemy jasnych określeń. Jeśli możemy stworzyć algorytm, który jest efektywny, to po prostu programujemy rzeczy, jak na przykład w księgowości. Jeśli natomiast chcemy rozwiązać problem, dla którego taki efektywny algorytm nie istnieje, to rozwiązanie będzie wymagało pewnej inteligencji. I sztuczna inteligencja zajmuje się właśnie rozwiązywaniem problemów, dla których nie ma efektywnych algorytmów. To prosta definicja.
Weźmy słynne problemy komiwojażera czy upakowania. Chcemy na przykład sporządzić rozkład jazdy pociągów, by zoptymalizować korzystanie z wagonów, przyspieszyć połączenia i tak dalej. To są trudne problemy i w większej skali rozważanie wszystkich możliwości, żeby znaleźć tę optymalną, jest niemożliwe. Bo złożoność problemu rośnie tak szybko, że żaden komputer sobie z tym nie poradzi. Może kwantowy w przyszłości, ale też nie ze wszystkimi.
W związku z tym nie ma efektywnego algorytmu dla naprawdę dużych problemów. Musimy więc szukać drogi na skróty. Czy to jest inteligencja? Kiedy inteligentni ludzie planują, też wykorzystują różne triki i drogę na skróty, prawda?
Ale kiedy Gary Marcus mówi, że to, co dziś robimy, to jeszcze nie jest inteligencja, to jest w tym też trochę prawdy. Na przykład stworzony przez IBM system Watson nie ma modelu przyczynowo-skutkowego, w związku z czym jego zdolność do rozumienia medycyny jest dość kiepska. Istnieją wycinkowe programy, które mają takie możliwości, ale dotyczą bardzo wyspecjalizowanych problemów.
Z kolei Kai-Fu Lee przekonuje, że nadchodzi era sztucznej inteligencji dla majsterkowiczów. Nie trzeba genialnych odkryć, bo te zdarzają się raz na 50 lat. Owszem, zawsze coś może zmienić układ sił, ale na razie mniej więcej wiemy, co robić, i pieniądze są inwestowane we wdrożenia. We wszystkich strategiach SI, jakie opracowano w Europie, wszyscy stawiają na zastosowania. O nauce wiele z tych strategii w ogóle nie wspomina.
Niektórzy mówią, że jesteśmy świadkami wyścigu zbrojeń w tym obszarze. Stuart Russell przestrzega przed rozwojem śmiercionośnej broni autonomicznej, na przykład przed dronami, które mogłyby odpalać mikroładunki. Inni straszą nas superinteligencją. Ale można też myśleć o tym na innej zasadzie. Wystarczy, że powstanie ekosystem na pozór niewinnych smart narzędzi wykorzystujących internet rzeczy, które bez odpowiednich zabezpieczeń staną się bardzo uciążliwe. To jest czasem żartobliwie przedstawiane jako bunt tosterów czy lodówek. Czy Pan się czegoś takiego obawia?
Jest wiele rzeczy, których powinniśmy się obawiać. Jedną z nich jest ogromna koncentracja kapitału. Jak pisze Lee, w tej chwili jest siedem wielkich korporacji, które decydują o wielu sprawach na świecie, są na przykład w stanie załamać systemy gospodarcze. Ta koncentracja narasta, bo garstka ludzi kontroluje ogromne obszary. Przecież WhatsApp sprzedano za 19 miliardów dolarów. Prosty komunikator stworzony przez firmę, która miała niegdyś 50 pracowników! W czasie lotów na Księżyc agencje kosmiczne zatrudniały kilkaset tysięcy ludzi, dziś 50 osób robi miliardowe interesy. Niewiarygodne!
Oczywiście, najbardziej można się obawiać różnych wojskowych zastosowań. Jeśli mamy system, który widzi, gdzie znajdują się samoloty czy pojazdy bojowe i co się dzieje na polu walki, to maszyna jest w stanie lepiej sterować takimi procesami niż generał. Jestem sobie w stanie wyobrazić, że jeśli dojdzie do wojny robo-cybernetycznej, to niektóre kraje mogą stracić hamulce moralne.
Jestem sobie w stanie wyobrazić, że jeśli dojdzie do wojny robo-cybernetycznej, to niektóre kraje mogą stracić hamulce moralne.
Mamy też sztuczną inteligencję, która stoi za procesami politycznymi. Boty wpłynęły na wynik wyborów. A teraz są jeszcze deep fakes i możliwość wpływania na grupy ludzi jest jeszcze większa. I to działa – wiele osób się tym ekscytuje, chociaż mało kto sprawdza, co za tym wszystkim stoi. Boję się, że arogancja ignorancji zwycięży i że sztuczna inteligencja się do tego przyczyni.
Ale z drugiej strony są bardzo duże możliwości. Choćby w medycynie, na przykład w tworzeniu środowisk, które będą wspomagać rozwój człowieka. Można na przykład określić, czy u dziecka rozwinie się dysleksja i czy takie dziecko potrzebuje specjalnej stymulacji we wczesnym okresie. To nie przekracza naszych możliwości.
Nad czym pracuje Pan ze swoimi zespołami w Toruniu?
W Interdyscyplinarnym Centrum Nowoczesnych Technologii założyłem Laboratorium Neurokognitywne. Nasz główny projekt dotyczy monitorowania rozwoju niemowląt, w szczególności rozwoju słuchu fonematycznego. Chcieliśmy podważyć dominującą hipotezę, że dziecko może się nauczyć rozróżniać dźwięki w danym języku, jeśli ma kontakt z człowiekiem, który w tym języku mówi. Innymi słowy, że konieczny jest do tego kontakt społeczny.
Doszedłem do wniosku, że konieczne jest pobudzanie układu nagrody, czyli sprzężenie zwrotne zachodzące w krótkim czasie. Chcieliśmy stworzyć system, który będzie monitorował słuch dziecka i zauważy, na co ono reaguje, bo przed ósmym miesiącem życia dziecko właściwie reaguje na wszystkie dźwięki. Po 10. miesiącu zaczyna tracić tę zdolność, a w 12. miesiącu już właściwie różnicuje głównie dźwięki języka ojczystego.
Realizowaliśmy to w ramach projektu „Symfonia”. To były badania międzyobszarowe i interdyscyplinarne. Zaangażowaliśmy lingwistów z Poznania, którzy opracowali dla nas segmentację różnych dźwięków mowy. Nawiązaliśmy też współpracę ze specjalistami z ośrodka w Kajetanach, którzy robią m.in. implanty słuchowe. To był niesłychanie ambitny pięcioletni projekt. Właśnie się kończy.
Przy okazji mamy ciekawe, niejako uboczne rezultaty. Na przykład zabawkę, która będzie stymulować dziecko tak, by można było stwierdzić, czy jego słuch dobrze się rozwija, czy nie ogłuchło, czy możemy wzmocnić rozróżnianie dźwięków w języku innym niż ojczysty. To by spowodowało sporą rewolucję.
Oprócz tego chodziło także o rozbudzanie ciekawości u dzieci, w szczególności nieco starszych. Miało to wzmocnić ich pamięć roboczą, która dobrze koreluje z inteligencją. Chcieliśmy opracować zabawki tworzące środowisko, w którym nacisk kładziony jest na trenowanie coraz lepszej pamięci roboczej. Nie chodzi o to, żeby coś wymuszać, tylko by dziecko się nauczyło się, że warto różne rzeczy pamiętać, bo dzięki temu można dostać jakąś nagrodę. To byłaby rewolucja.
Co z tego wyszło?
Psycholodzy zaczęli robić eksperymenty i powtarzać wcześniejsze badania. Eksperymenty przeciągały się, robienie EEG na tak małych dzieciach okazało się koszmarem. Z okulometrią było troszkę lepiej, ale też niełatwo. W końcu opracowaliśmy zabawkę sterowaną wzrokiem: dziecko antycypuje, że pojawi się coś ciekawego, i w zależności od tego, jakiego dźwięku się spodziewa, patrzy w tę albo inną stronę. Teraz pracowicie spisujemy wnioski z tych badań.
Nasz drugi duży projekt dotyczy brain fingerprinting, czyli badania pracy mózgu poprzez analizę sygnałów. Zrobiliśmy ten projekt z prof. Andrzejem Cichockim z Brain Science Institute w Tokio. Na podstawie analizy głównie EEG chcemy zbadać aktywność wybranych struktur mózgu. Będąc w stanie znaleźć informacje w sygnale o aktywności tych struktur, możemy zrobić tzw. neurofeedback, czyli wzmocnić ich aktywność.
Możemy też zastosować bezpośrednią stymulację mózgu za pomocą DCS-u, czyli prądu stałego, albo TMS-u, czyli polem magnetycznym, które zwiększa neuroplastyczność. Pomaga to poprawić przepływ informacji tam, gdzie on się popsuł, na przykład w przypadku ludzi po udarach czy dzieci z autyzmem. Myślimy też o zastosowaniach stymulacji mózgu w uśmierzaniu bólu.
A dobrym podsumowaniem wywiadu jest wykład prof. Włodzisława Ducha podczas TEDx Toruń.
Prof. Włodzisław Duch – absolwent fizyki na Uniwersytecie Mikołaja Kopernika (UMK) w Toruniu, doktoryzował się z chemii kwantowej. Jego zainteresowania badawcze dotyczyły początkowo metod obliczeniowych mechaniki kwantowej, fizyki komputerowej, podstaw fizyki i interpretacji mechaniki kwantowej, by pod koniec lat 80. przesunąć się w stronę teorii i zastosowań sieci neuronowych, uczenia maszynowego, metod sztucznej inteligencji, modelowania funkcji mózgu i technologii neurokognitywnych. W 1997 roku otrzymał tytuł profesora.
Pracował wielokrotnie we Francji, w Japonii, Kanadzie, Niemczech, Singapurze i USA jako visiting professor. Od 1991 do 2014 roku kierował Katedrą Informatyki Stosowanej na Wydziale Fizyki i Astronomii UMK. Od 2013 roku kieruje Laboratorium Neurokognitywnym w Interdyscyplinarnym Centrum Nowoczesnych Technologii na UMK. W 2012 roku objął stanowisko prorektora ds. badań naukowych i informatyzacji na UMK, a w latach 2014-15 był podsekretarzem stanu w Ministerstwie Nauki i Szkolnictwa Wyższego. Członek-założyciel Polskiego Towarzystwa Sieci Neuronowych (1995), a następnie Towarzystwa Sztucznej Inteligencji (2010). Od końca lat 90. zaangażowany w tworzenie kognitywistyki w Polsce, współzałożyciel pierwszego czasopisma w tej dziedzinie i Polskiego Towarzystwa Kognitywistycznego (2001). Przez dwie kadencje był prezydentem European Neural Network Society (2006-2011), w 2013 roku wybrany na członka honorowego (fellow) International Neural Network Society (INNS) oraz członka Komisji Układów Złożonych Polskiej Akademii Umiejętności.
Artykuł został opublikowany w ramach współpracy CHIP.pl z portalem Sztuczna Inteligencja, którego celem jest popularyzacja wiedzy o rozwoju tej dziedziny nauki w Polsce.
Portal sztucznainteligencja.org.pl to pierwszy polski serwis poświęcony w całości tematyce SI. Został stworzony przez Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, działa niekomercyjnie.