Grzegorz Lindenberg: Jakikolwiek.
Bez znaczenia?
Bez. Dla mnie byłoby ważne, żeby poszedł na studia, na których przez 3 lub 5 lat mógł się uczyć czegoś, co go interesuje. Czy będzie mógł potem to wykorzystać? Nie mam pojęcia. Gdyby był genialnym matematykiem, fizykiem, biologiem, powiedziałbym mu: Idź na matematykę, fizykę, biologię. Ale gdyby miał przeciętne uzdolnienia ogólne, poradziłbym: studiuj, co chcesz.
Wszystko jedno?
Tak, bo i tak nie ma gwarancji, że potem utrzyma się z profesji, której się wyuczy. No, chyba że byłby wybitnym naukowcem w dziedzinie związanej ze sztuczną inteligencją albo biologią. Ale w tym przypadku mówię o ludziach, których jest mniej niż 0,1 procenta.
Mój syn kończy w tym roku prawo. Ile mu pan daje czasu w zawodzie?
Zależy, co będzie robił. Jeżeli miałby pracować w kancelarii i przygotowywać pozwy albo analizy dotychczasowych spraw, to bardzo mało, bo są już programy, które to robią. Natomiast, jeśli miałby być sędzią albo adwokatem, to przepracowałby ze 20 lat, zapewne wspomagany przez sztuczną inteligencję, która podpowiadałaby mu rozmaite rzeczy.
Podobno sztuczna inteligencja pozbawi nas pracy. Czy świat, w którym miliardy ludzi nie mają zajęcia, bo to, co potrafią, maszyny robią dużo lepiej i taniej, ma szansę przetrwać? Podstawowy dochód nie rozwiąże problemu nadmiaru wolnego czasu, jeśli ludzie nie będą wiedzieli, co z nim zrobić.
Pewnie ludzie mogą się na rozmaite sposoby nauczyć, co robić z wolnym czasem, zresztą część z nich już umie to robić. Większym problemem są młodzi ludzie, głównie mężczyźni, którzy spędzają czas nie na pracy, ale grając na komputerze.
Bo przez nich rozpadają się relacje społeczne?
Tak. W Japonii czy Stanach Zjednoczonych są już ogromne grupy młodych mężczyzn, którzy nie pracują i mieszkają z rodzicami, utrzymywanych przez tych rodziców albo żyjących z zasiłków. Trzeba sobie jasno powiedzieć: rozwój sztucznej inteligencji to nie jest tylko rozwój możliwości wytwórczych czy poznawczych. To także rozwój rozrywki, gier, rozwój wirtualnej rzeczywistości.
Tworzenie światów zastępczych?
Światów, które będą coraz bardziej przekonujące, coraz bardziej podobne do świata realnego – a potem od niego ciekawsze, bardziej wciągające. Jeżeli dzisiaj są już miliony takich mężczyzn, to w przyszłości będą dziesiątki, a może i setki milionów. Możliwości nicnierobienia, manipulowania nami, wciągania nas w niekończącą się rozrywkę będą się rozwijać.
Dlatego umiejętność sensownego życia w sytuacji gdy nie musimy bądź nie możemy pracować będzie jedną z najważniejszych do zdobycia.
Będzie jedna silna sztuczna inteligencja czy więcej?
Pierwsza silna (ogólna) sztuczna inteligencja, która powstanie, prawdopodobnie będzie jedyną – ale tego nikt nie wie na pewno. Wszystko zależy od tego, jak szybko będzie się ona rozwijać i do jakiego świata nas doprowadzi.
Ta sztuczna inteligencja będzie czymś w rodzaju przybysza z kosmosu, tyle że to my go stworzymy. Będzie inna niż my, więc nie będziemy potrafili jej zrozumieć. Bo ona nie będzie człowiekiem, nie będzie miała całego tego substratu biologicznego, który dla nas jest tak ważny.
Czy powstanie kilka silnych SI? Nie wiem. Raczej stawiałbym na jedną. Co ona wtedy zrobi? Tu znowu stoimy na kompletnie nieznanym gruncie. Wróćmy do porównania SI z przybyszami z kosmosu. Gdy myślimy o takich istotach, zwykle zakładamy, że są inteligentniejsze od nas, a więc mają, powiedzmy, IQ na poziomie 300, podczas gdy my mamy maksymalnie 180. Natomiast ta ogólna sztuczna inteligencja może mieć IQ 1000, jutro 10 000, a pojutrze 25 000 albo znacznie więcej. Ogólna SI, jeśli ją stworzymy, zacznie się samodoskonalić nie w linii prostej, ale wykładniczo. Dzięki temu stanie czymś, co może dowolnie manipulować rzeczywistością.
Dużo się dziś dyskutuje o tym, jak modelować SI, by uwzględniała nasze interesy i nie zrobiła nam krzywdy, gdy będzie od nas mądrzejsza. Czy to nie jest myślenie życzeniowe? Trudno sobie wyobrazić byt tak mądry i inteligentny, że nie będziemy w stanie rozumieć toku jego rozumowania, który z jakichś względów wciąż się na nas ogląda. Tymczasem są sytuacje, w których konflikt interesów naszych i SI byłby oczywisty, na przykład dostęp do zasobów.
Owszem, tyle że walka o zasoby to powód z naszej perspektywy jeszcze zrozumiały. Ale silna sztuczna inteligencja może mieć kompletnie inną perspektywę, której my nie będziemy w stanie dostrzec. To wcale nie musi być walka o zasoby. Może być zupełnie co innego, choćby względy estetyczne. Może po prostu nie będziemy się jej podobać i z tego powodu uzna, że trzeba się nas pozbyć?
Albo uzna, że jesteśmy niewydajni.
Na przykład. Mimo to uważam, że warto próbować wymyślać sposoby, dzięki którym można by uczynić sztuczną inteligencję jakoś przyjazną ludziom. No bo bez tego zachowywalibyśmy się jak ludzie, którzy, wiedząc o nadejściu huraganu, nawet nie wykupują ubezpieczenia. Musimy dać sobie szansę.
Czy ta ogólna sztuczna inteligencja kiedyś się nas pozbędzie? Nigdy nie będziemy mieli pewności, że nie zechce tego zrobić. Nasze ludzkie doświadczenie nie napawa optymizmem. Od samego początku ludzkość jest gatunkiem, który przekracza naturalne ograniczenia nakładane przez przyrodę. Nasz obecny sposób życia wynika z tego, że byliśmy niezadowoleni z tego, co dostaliśmy od biologii. Postanawialiśmy porzucić sawannę, przestać polować i zbierać, a zacząć uprawiać. Dziś nie czekamy, aż choroba sama minie, tylko próbujemy się leczyć.
I ten modus operandi przekażemy istocie, która już nie będzie ograniczona biologią.
I powiemy jej: Możesz się doskonalić – a ona zacznie się zmieniać. Czy uda się trwale wprowadzić do SI mechanizmy nakazujące traktować nas przyjaźnie? Czy one będą działać w przypadku sztucznej inteligencji o IQ wynoszącym 30 000? Nie wiadomo. Mam wrażenie, że wrócimy do dysput teologicznych, zastanawiając się, co może ten bóg, którego stworzyliśmy, czy podlega jakimś ograniczeniom.
W książce „Ludzkość poprawiona” przywołuje pan pogląd Judei Pearla, który uważa, że aby maszyny naprawdę mogły być inteligentne, trzeba byłoby je nauczyć rozumowania przyczynowo-skutkowego. Skąd pewność, że akurat tak będą myśleć? A może wymyślą inny sposób rozumowania, którego nie będziemy w stanie rozumieć?
To, że one mogą wymyślić coś innego niż my, jest jasne. Jeżeli sztuczna inteligencja posiądzie już umiejętność myślenia w kategoriach przyczyny i skutku, to jej myślenie będzie już bardzo bliskie myśleniu ludzkiemu. Tyle że oprócz tego niemal na pewno będzie mieć też jakieś inne sposoby myślenia.
Ale wtedy stracimy z nią kontakt.
Ale my już dzisiaj jej nie rozumiemy, już teraz nie mamy z nią kontaktu, mimo że na planie ogólnym jeszcze jest od nas głupsza. Tak naprawdę nie rozumiemy, co sztuczna inteligencja tam sobie robi.
Dwa lata temu Facebook musiał wyłączyć jeden ze swych systemów, ponieważ jego chatboty zaczęły komunikować się własnym, niezrozumiałym dla ludzi językiem, sprzeciwiając się wewnętrznym kodom.
To, że dla oszczędzenia czasu i energii sztuczna inteligencja coś takiego stworzy, było oczywiste już wcześniej. Możemy zrozumieć, dlaczego SI robi coś takiego: dla większej efektywności. Natomiast osobną sprawą jest sposób, w jaki sposób ona to robi, jak dochodzi do rozmaitych wniosków, które w praktyce okazują się słuszne. Tego już nie wiemy. Dlatego istnieje już osobna dziedzina badań nad wyjaśnialną (explainable) sztuczną inteligencją.
Stworzona po to, byśmy rozumieli, co SI robi.
Tak, bo chcemy mieć jakąś kontrolę poznawczą nad tym, co ona robi; w ogóle jakąkolwiek kontrolę. W polskim systemie bankowym, gdy klient nie dostaje pożyczki, ma prawo oczekiwać wyjaśnienia. Sztuczna inteligencja może takich wyjaśnień nam nie dawać, bo nie będzie potrafiła tego robić.
Powinniśmy przynajmniej do jakiegoś poziomu móc rozumieć, dlaczego SI coś robi, w jaki sposób podejmuje decyzje. Powinniśmy, ponieważ skutki jej działania będą coraz bardziej dalekosiężne i coraz powszechniejsze. Właściwością inteligencji – wszystko jedno: naszej czy sztucznej – jest to, że popełnia błędy. Im bardziej skomplikowana jest sytuacja, tym większe prawdopodobieństwo błędu.
Próbując rozumieć, jak działa sztuczna inteligencja, chcemy się zabezpieczyć przed błędami do uniknięcia. Chcemy się upewnić, że ona działa i myśli prawidłowo. To trochę tak, jakbyśmy mieli geniusza, który intuicyjnie robi różne rzeczy i któremu za każdym razem świetnie wszystko wychodzi. My się cieszymy, ale też czujemy nieswojo, bo choć robił te rzeczy bezbłędnie już 50 razy, nie mamy pewności, że za 51. razem nie wpakuje nas na jakąś gigantyczną minę.
Wierzy pan, że na pewnym etapie sztuczna inteligencja osiągnie świadomość. Jak to odkryjemy?
Wierzę, bo prawdopodobieństwo, że do tego dojdzie, jest bardzo duże. Oczywiście test Turinga nie jest pod tym względem miarodajny – chociażby dlatego, że jest w nim pewna sprzeczność: chcielibyśmy, by sztuczna inteligencja nie mogła nas oszukiwać, natomiast jeśli rzeczywiście nie będzie tego potrafiła, to natychmiast w teście Turinga zorientujemy się, że to maszyna udająca człowieka, a nie człowiek. Czyli odkryjemy, że to nie jest jeszcze ogólna sztuczna inteligencja.
Myślę, że momentem, w którym będziemy mieli do czynienia z ogólną, świadomą sztuczną inteligencją, będzie chwila, w której rozmowa z nią nie będzie się w niczym różnić od normalnej rozmowy z człowiekiem.
Silna SI będzie miała emocje? Będą podobne do naszych?
Jeśli będzie miała, to pewno inne od naszych, choć pewnie będziemy próbowali je jakoś modelować. Pierwszą emocją, którą może posiąść, będzie ciekawość. Jeżeli sztuczna inteligencja będzie pozbawiona ciekawości, nie będzie miała zdolności do poznawania świata – chyba że będziemy ją nieustannie nagradzać za to, że zechce ten świat poznawać. Tyle że nagradzanie jej za to będzie w pewnym sensie właśnie wszczepianiem jej ciekawości…
Jakieś emocje SI być może będzie miała, ale będą one inne od naszych. Bo nasze emocje są związane z naszym ciałem. Myślę, że SI może posiadać coś w rodzaju lęku, coś w rodzaju radości…
Lęku związanego z instynktem samozachowawczym?
Tak. Pytanie, czy będziemy chcieli pomóc jej te emocje zdobyć. Jednak nawet jeśli zechcemy, to i tak nie będzie to człowiek. Być może tej nowej istoty nie uda nam się stworzyć, ale nad nią pracujemy. Tworzymy istotę inną niż my i próbujemy jakoś ją zrozumieć, myśląc o niej w kategoriach ludzkich, czyli w kategoriach emocji.
To jaka ona będzie, jeśli nie ludzka?
Wyobraźmy sobie, że w tej chwili znikają rzeczy, które nas, ludzi, w ogromnym stopniu napędzają. Nie musimy jeść, nie musimy pić, seks nas w ogóle nie interesuje. Już to ostatnie powoduje, że przestajemy dostrzegać piękno płci przeciwnej i porzucamy ogromną część relacji z ludźmi. Nie chodzi o to, że stajemy się psychopatami. Tylko o to, że nagle pozbywamy się bardzo wielu potrzeb, które mamy. A to dopiero pół kroku w stronę ogólnej sztucznej inteligencji.
Naukowcy z Uniwersytetu w Hanowerze pracują nad sztucznym systemem nerwowym, który pozwoliłby robotom odczuwać ból. Strach przed bólem powoduje, że istoty żywe dbają o swoje ciała. Uznano więc, że roboty będą się rzadziej psuły i lepiej dbały o swą fizyczną postać, jeśli poznają, co to ból. Jak mamy w przyszłości traktować myślące maszyny, jeśli nauczymy je cierpieć? Traktowanie ich jak rzeczy byłoby przecież w takiej sytuacji nieludzkie.
To są problemy, wobec których jesteśmy dziś bezradni. Sztuczna inteligencja – wszystko jedno, czy nauczona cierpienia, czy nie – jeżeli będzie miała świadomość na poziomie ludzkim, będzie wymagała od nas zupełnie nowego podejścia. Inny przykład: mamy świadomą sztuczną inteligencję, która istnieje w jakimś komputerze. Jeśli ten komputer zniszczymy albo tę SI skasujemy, to trochę jakbyśmy zabili człowieka, nieprawdaż? Dla mnie jest kwestią drugorzędną, czy SI będzie zdolna do cierpienia, czy nie. Bo jeżeli będzie mogła myśleć, rozumieć samą siebie i rzeczywistość, to po prostu będzie bytem, istnieniem. Szczerze mówiąc, patrzę na to wszystko z jakąś bojaźnią…
Nie obawia się pan świata, który nadchodzi?
Jakoś się obawiam. To będzie świat zupełnie inny niż ten, który jest dzisiaj. Szok będzie większy niż ten, który towarzyszyłby Pigmejowi przechodzącemu z afrykańskiej dżungli wprost na Manhattan. Więc się obawiam. Nadchodzą istoty zupełnie inne od nas i już nawet trochę pogodziłem się z myślą, że być może ludzkość zniknie. Bo w koncepcję połączenia naszych mózgów z komputerami i zrobienia z nas cyborgów to ja nie wierzę.
Koncepcję Kurzweila?
Tak. Po pierwsze, jest to tak skomplikowane, że jeszcze długo nie nastąpi. Po drugie, wcale nie jestem pewien, czy chciałbym, by moja świadomość była zamknięta w komputerze. Mimo wszystkich problemów, które mam ze swoim ciałem, jednak jakoś jestem do tego ciała przyzwyczajony.
Chociaż z drugiej strony przemawia do mnie to, co napisał Max Tegmark w książce “Życie 3.0”: jeżeli chcemy eksplorować kosmos, to żadne tam rakiety, tylko musimy się przenieść do postaci cyfrowej. Wtedy będziemy poznawać wszechświat aż do jego końca.
Myślę więc sobie, że być może rzeczywiście jesteśmy jako gatunek jakimś etapem pośrednim, poprzedzającym pojawienie się istot doskonalszych od nas, istot o wyższej inteligencji, lepiej od nas myślących. Być może one nas zastąpią.
Dla mnie najbardziej niesamowite jest to, że to wszystko okaże się już zaraz, za chwilę, w ciągu najbliższych kilkunastu czy kilkudziesięciu lat.
Większość osób, które będą czytać ten wywiad, wkrótce naocznie przekona się, czy to, o czym mówimy, miało sens, czy nie.
Oby tylko ci, którzy będą to czytać, nie doszli do wniosku, że dramatycznie zabrakło nam wyobraźni. Że świat, w którym żyją, w niczym nie przypomina tych naszych niepewnych i ostrożnych projekcji.
To trochę jak z tym klasycznym obrazowaniem różnicy między światem dwu- i trójwymiarowym: płaszczak żyjący w świecie dwuwymiarowym nie jest sobie w stanie wyobrazić sobie świata, w którym żyje ptak. W ogóle mam wrażenie, że tworzymy nowy wymiar inteligencji, nowy wymiar myślenia.
Tworzymy świat przerastający naszą wyobraźnię.
Dlaczego?
Bo nie jesteśmy sobie w stanie wyobrazić istot inteligentniejszych od nas i nie posługujących się naszymi emocjami. Dlatego antropomorfizujemy zwierzęta i takie byty, jak sztuczna inteligencja. Ale to zabieg sztuczny. Tak jak pan powiedział, nasi potomkowie pewnie będą się śmiać z tego, jak naiwnie wyobrażaliśmy sobie przyszłość.
Tak jak my śmiejemy się z futurologów sprzed 30 lat.
Cofnijmy się do tamtego świata – przecież on nie zmienił się z dnia na dzień, a dziś wydaje nam się w gruncie rzeczy obcy, prawda? A dla młodych ludzi świat, w którym nie ma smartfonów, nie ma internetu, nie ma komputerów, byłby koszmarem. No bo jak w takim świecie się komunikować? Skąd czegoś się dowiedzieć? Z wiadomości w telewizji raz dziennie? Pamiętam jeszcze gazety, które były antydatowane, czyli miały wiadomości nie z ostatniego dnia, a sprzed dwóch dni, bo nie mogły wystarczająco szybko być rozwiezione. To były czasy, w których można było nie wiedzieć, można było nie być w kontakcie. Świat istniejący 30 lat temu wydaje się kompletnie obcy. Ale świat, który nadejdzie za następne 30 lat, będzie się różnił od naszego nieporównanie bardziej.
Świat nam ucieknie?
W którymś momencie może. Jeżeli szybkość tego, co sztuczna inteligencja będzie zdolna zrobić ze sobą i światem, będzie większa niż nasza zdolność zrozumienia, to ucieknie. A jeśli już ma się tak stać, to bardzo chciałbym to zobaczyć.
Nasz rozmówca: Grzegorz Lindenberg – doktor nauk społecznych, dziennikarz, publicysta, członek Zarządu Fundacja Instytut Spraw Europejskich. W latach 1985-87 pracował jako badacz na Harvardzie i wykładał na Uniwersytecie Bostońskim. Autor kilku książek, m.in. „Ludzkość poprawiona. Jak najbliższe lata zmienią świat w którym żyjemy” (2018) i „Wzbierająca fala. Europa wobec eksplozji demograficznej w Afryce” (2019).
Grzegorz Lindenberg był gościem tegorocznego IX Europejskiego Forum Nowych Idei, które odbyło się w Sopocie w dniach 25-27 września.
Materiał Roberta Siewiorka z serwisu sztucznainteligencja.org.pl został opublikowany w ramach współpracy z CHIP.pl, której celem jest popularyzacja wiedzy o sztucznej inteligencji w Polsce.
Portal sztucznainteligencja.org.pl to pierwszy portal poświęcony w całości tematyce SI. Został stworzony przez Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, działa niekomercyjnie.