Dziś, z perspektywy lat, można stwierdzić, że poziom integracji podwaja się co dwadzieścia miesięcy. Na przestrzeni lat prawo Moore’a wielokrotnie ogłaszano martwym. Jednak nawet jeśli miniaturyzacja układów krzemowych wkrótce osiągnie granicę wyznaczoną przez oddziaływania atomowe i energetyczne, wzrost wydajności będzie postępował jeszcze długo za sprawą nowych architektur i materiałów.
Ray i jego wizje
Prawo Moore’a można odnieść również do całej branży IT, której rozwój w postępie wykładniczym wydaje się zupełnie bezprecedensowy. Wszystkie urządzenia i podzespoły stają się coraz szybsze, mniejsze i tańsze. Galaxy S6, sztandarowy smartfon Samsunga, ma wydajność pięciu konsol PlayStation 2 z roku 2000. Aktualna, czwarta wersja konsoli firmy Sony pozostawia daleko w tyle komputer Intel ASCI Red – w 1998 roku najpotężniejszy superkomputer na świecie. Amerykanin Ray Kurzweil jest przekonany, że prawo Moore’a opisuje nie tylko erę cyfryzacji, ale także wszystkie procesy rozwoju informacyjnego w historii ludzkości.
Jego zdaniem składają się one na ciągłą ewolucję pewnych schematów: “Ewolucja postępuje pośrednio: w każdym stadium metody przetwarzania informacji wywodzące się z poprzedniego etapu służą temu, żeby przejść do kolejnego”. Ten dynamiczny rozwój, przynoszący coraz bardziej zaawansowane odkrycia w coraz krótszych odstępach czasu, ilustruje grafika na tej rozkładówce. Od początków życia, tzw. ewolucji chemicznej u zarania dziejów Ziemi, do eksplozji kambryjskiej, która przyniosła skokowy wzrost różnorodności gatunków, upłynęło około 3,5 miliarda lat. Współczesny człowiek pojawił się dopiero kolejne 500 milionów lat później. Za nim homo sapiens przeczytał pierwszą drukowaną książkę, musiało minąć kolejne 150 000 lat – czekając na ten moment, wynalazł koło. Gutenberga dzieli od pierwszego zawieszenia się Windows już tylko 500 lat. Dziś, 30 lat później, czytamy na ekranach smartfonów o autonomicznych samochodach.
Kurzweil to wszechstronnie utalentowany geniusz technologiczny. Specjalizuje się w rozpoznawaniu prawidłowości. Wynalazł skaner płaski oraz syntezator mowy i jest szefem zespołu inżynierów Google’a. Poza tym pisze książki popularnonaukowe. Sam siebie 67-latek uważa też za futurystę, którego prognozy dotyczące przyszłości są równie pewne jak śmierć i podatki, za to bez porównania bardziej fascynujące. Kurzweil chwali się, że jego długoterminowe przepowiednie z przeszłości sprawdziły się w 86 proc. Niektóre z nich dotyczyły wielkich przełomów, takich jak internetowa rewolucja, którą Amerykanin prognozował już w czasach, kiedy tematem interesowało się jedynie wąskie grono zapaleńców zasiedlających uniwersyteckie sutereny. W połowie lat 80. zapowiedział, że dokładnie w 1998 roku komputer pokona w szachach arcymistrza z krwi i kości – pomylił się o rok, stało się to już w 1997 roku.
Technologia jako nowe stadium ewolucji
Wielu odrzuca prognozy Kurzweila, uznając je za przesadzone. Sam naukowiec odpowiada stwierdzeniem, że ludzie często postrzegają postęp technologiczny w sposób “intuicyjno-linearny”. “Najpierw musimy nauczyć się myśleć wykładniczo. Kiedy wykonam 30 kroków linearnie, uzyskam wynik 30. Przy postępie wykładniczym dojdę do miliarda”. Za czasów studenckich Kurzweil przemierzał kampus rowerem, by dojechać do budynku, w całości w zasadzie zajmowanego przez uniwersytecki komputer. Dziś używa smartfonu, który potrafi o wiele więcej, jest nieporównywalnie tańszy, a przy tym mieści się w kieszeni. Za około 20 lat – przynajmniej zdaniem Kurzweila – komputer zmieści się w pojedynczej czerwonej krwince.
Kurzweil spogląda w przyszłość ludzkości, opierając się na sprytnym połączeniu koncepcji Darwina i Moore’a, które określa mianem “prawa przyspieszającego zwrotu” (“Law of accelerating returns”). Nie przetrwa ona, jego zdaniem, zbyt długo – a jednocześnie całe wieki, jak za chwilę się przekonamy. Przez miliardy lat na naszej planecie nie działo się prawie nic – to płaski początek krzywej wykładniczej. Nagle zaczęła rozwijać się biologia: postępująca ewolucja człowieka coraz częściej przynosiła epokowe wydarzenia. Za sprawą wykładniczego tempa rozwoju technologicznego wydarzenia te następują dziś po sobie niczym kolejne klocki domina, a krzywa na naszej grafice zna tylko jeden kierunek: stromo w górę.
Człowiek do lamusa
Zdaniem Kurzweila już wkrótce inteligencja technologiczna prześcignie tę biologiczną. Ma to nastąpić w roku 2029 – roboty będą potrafiły wszystko, co potrafi człowiek. Niedługo potem nauczą się o wiele więcej. Dla ludzkości będzie to oznaczało przyspieszenie procesu zlewania się biologii i techniki. Co zaczęło się od drewnianych nóg, złotych zębów i soczewek kontaktowych, doprowadzi do nieśmiertelności człowieka, pozwalając mu udoskonalić lub odtworzyć jego umysł i ciało zarówno w rzeczywistości wirtualnej, jak i w zupełnie fizycznej formie. Obok technologii cyfrowej do powstania “ludzkości 2.0” ma przyczynić się rozwój genetyki i nanotechnologii.
W książce “Nadchodzi osobliwość” Kurzweil zawarł intrygujące prognozy dotyczące ludzkiego zdrowia. Modyfikując kod genetyczny, ludzkość wyeliminuje choroby i spowolni procesy starzenia. Roboty mniejsze od wirusów implantowane w ludzkim ciele zadbają o naszą sprawność i rozszerzą możliwości mózgu. Dzięki nowym materiałom będziemy w stanie drukować nowe światy, sprawne organy, a nawet własne sobowtóry. “Maszynowa wydajność mózgu” człowieka będzie podwajała się z roku na rok. Cyborgowie będą myśleli wielokrotnie sprawniej od swoich naturalnych pierwowzorów, nigdy się nie męcząc. My – albo nasi następcy zasilani prądem – jesteśmy sami we Wszechświecie i dokonamy jego podboju. Człowiek, jakiego znamy, odejdzie jednak do przeszłości.
Czy maszyny przejmą władzę?
Czy Ray Kurzweil oszalał? Każda z jego tez dotyczących niedalekiej przyszłości ma licznych krytyków wśród naukowców z danej dziedziny. Jego zwolenników jest jednak równie wielu. W artykułach z tej serii oddamy głos zarówno jednym, jak i drugim. Zajmiemy się też najbardziej istotną kwestią, która może zadecydować o miejscu ludzkości w świecie, a mimo to niemal nie pojawia się w debacie publicznej: czy maszyny przejmą władzę nad światem?
Kurzweil nie jest jedynym ekspertem w dziedzinie sztucznej inteligencji, który spodziewa się, że w ciągu najbliższych 30 lat stworzymy “osobliwość technologiczną”. Kiedy sztuczna inteligencja przerośnie ludzką, zostanie połączona z cyfrową bazą wiedzy o świecie i będzie zdolna do samodzielnej nauki, a nawet tworzenia kolejnych, jeszcze bardziej zaawansowanych supermaszyn; dotrzemy do punktu w historii ludzkości, za którym kryje się wielka niewiadoma.
Do “Wielkiego Wybuchu” sztucznej inteligencji odnosi się również teologiczna koncepcja punktu Omega. Niemiecki badacz sztucznej inteligencji Jürgen Schmidhuber, który podobnie jak Kurzweil spodziewa się jego osiągnięcia w ciągu najbliższych dwóch,trzech dekad, woli to określenie osobliwości, bo samo słowo “omega” brzmi trochę jak wykrzyknienie “oh my God!”. Niezależnie od tego, czy wspomniane prognozy się sprawdzą, jedno jest pewne: każdy człowiek, który nie jest jeszcze emerytem, powinien przygotować się na burzliwe czasy – tym bardziej że długość życia ciągle rośnie. Kto urodził się w tym stuleciu, ma duże szanse dożyć jego końca, a w międzyczasie stać się świadkiem świtu nieśmiertelności – jeśli tylko sztuczna inteligencja nie będzie miała nic przeciwko temu.
Czy punkt Omega faktycznie zostanie osiągnięty już za kilkadziesiąt lat? W przedsięwzięcie zmierzające do wyniesienia biologii i technologii na nowy, być może wspólny poziom zaangażowały się największe koncerny informatyczne świata – przede wszystkim holding Google (pod nową nazwą Alphabet) oraz jego chiński konkurent Baidu. Również w laboratoriach uniwersyteckich, instytutach wojskowych i placówkach tajnych służb naukowcy nie zasypiają gruszek w popiele. Komisja Europejska, po której mało kto by się tego spodziewał, powzięła wyjątkowo ambitne zamierzenie: w ramach inicjatywy “Human Brain Project” międzynarodowy zespół naukowców pod przewodnictwem Izraelczyka Henry’ego Markrama już od dwóch lat prowadzi szeroko zakrojone badania ludzkiego mózgu. Wspólny program połączył 112 instytucji naukowych z 24 krajów.
Wizjonerzy i twardogłowi
Dalszy ciąg jest już typowo europejski: wybuchła karczemna awantura. Markram wraz z częścią zespołu wyznaczył wyjątkowo spektakularny cel: do 2023 roku stworzyć komputerową symulację ludzkiego mózgu. Ograniczenie zakresu badań do kierunku obarczonego wieloma znakami zapytania spotkało się jednak z otwartym sprzeciwem setek zaangażowanych naukowców. Zażądali oni restrukturyzacji projektu, którego budżet sięga 1,2 miliarda euro. Oczywiście spór dotyczył też podziału grantów badawczych, jednak zasadniczo osią sporu pozostaje pytanie: czy pracę ludzkiego mózgu w ogóle da się zasymulować na komputerze? Wśród badaczy mózgu nie brakuje konserwatystów. Kiedy spór nie wygasał naturalnie, powołano zespół mediatorów, któremu udało się nieco powściągnąć zapędy Markrama. Członkiem zespołu był fizyk Andreas Herz, profesor neuronauki obliczeniowej na Uniwersytecie Ludwika Maksymiliana w Monachium. To relatywnie młoda dziedzina, w ramach której biolodzy, lekarze, psycholodzy, informatycy, matematycy i fizycy wspólnie prowadzą interdyscyplinarne badania mózgu.
Zdaniem Herza “Human Brain Project” powinien skoncentrować się raczej na porządkowaniu, analizowaniu i wizualizacji złożonych sieci neuronowych, z czego odniosłaby korzyść szeroka społeczność naukowa. To przejście od badania do świadczenia usług zapewne nie spodoba się wielu naukowcom, jednak Herz uważa, że to jedyna szansa: “Jeśli zamiast tego wciąż będziemy ścigać iluzję odtworzenia mózgu w komputerze, to projekt jest skazany na porażkę”.
Liczenie w pamięci na piątkę
Co sprawia, że symulacja pracy mózgu jest tak niewiarygodnie trudna? Po pierwsze chodzi o potężną wydajność, którą arcydzieło ewolucji zawstydza najdoskonalsze cuda techniki. Mózg człowieka tworzy sto miliardów neuronów połączonych dziesięć tysięcy razy liczniejszymi synapsami.
Wprawdzie szybkość neuronalnego przetwarzania danych jest relatywnie niewielka i wynosi około 1000 operacji obliczeniowych na sekundę (współczesne układy cyfrowe liczą co najmniej dziesięć milionów razy szybciej), jednak to samo w sobie nie powoduje, że mamy do czynienia z supermózgiem. Natura znalazła inny przepis na sukces: masowe przetwarzanie równoległe. Wszystkie neurony i około biliarda synapsów pracują jednocześnie, dzięki czemu ludzki mózg ma wydajność większą niż cztery superkomputery.
Jeśli stworzenie pełnej symulacji naszego aparatu myślowego w ogóle jest możliwe, wymagałoby to użycia komputera o mocy rzędu eksaflopów, wykonującego przynajmniej 1018 operacji zmiennoprzecinkowych na sekundę. Aktualnie najszybszy superkomputer świata – chiński Tianhe-2 – osiąga moc obliczeniową 34 petaflopów, więc jest wolniejszy o trzy rzędy wielkości, czyli trzy potęgi dziesiątki. Taki obliczeniowy potwór powstanie najwcześniej za trzy lata – prawdopodobnie kilka lat później.
Obok Chin rozwój superkomputerów napędzają Indie, USA oraz kraje europejskie. Największym problemem będzie zużycie prądu, które przy zastosowaniu dzisiejszych technologii sięgałoby od 200 do nawet 1000 megawatów. Dla porównania: średniej wielkości elektrownia atomowa wytwarza około 700 megawatów. Nasz mózg zadowala się milionową częścią tych wielkości: wystarczy 30 watów, żeby wszystkie synapsy śmigały na pełnych obrotach. To sprawia, że niezależnie od obranego kierunku “Human Brain Project” jest jednocześnie wyzwaniem informatycznym. By mu podołać, trzeba stworzyć lepsze i wydajniejsze komputery, na przykład wzorując się na rozwiązaniach matki natury: niższa moc szczytowa, za to znacznie więcej przetwarzania równoległego. Ludzkość uczy się na podstawie najbardziej wyrafinowanego wzoru, jaki stworzył znany wszechświat: komputery analizują mózg, imitując mechanizmy jego działania.
Czy mózg jest dla nas zbyt skomplikowany?
Mając w pamięci prawo Moore’a, można liczyć na to, że prędzej czy później uda się przezwyciężyć trudności techniczne. Profesor Herz wyjaśnia jednak, że na drodze do symulacji pracy mózgu stoją również inne przeszkody. Funkcjonujące modele skomplikowanych systemów przypominają karykatury: uwzględniają istotne detale i pomijają mniej ważne aspekty. W przypadku systemów biologicznych, ze względu na ich ewolucyjną historię, nie potrafimy niestety ocenić, czy daną cechę można pominąć: nawet najdrobniejsze szczegóły anatomiczne synapsy mogą być kluczowe dla jego funkcjonowania. Chcąc sprawdzić, czy tak jest w rzeczywistości, trzeba wiedzieć, jakim kodem neuronowym posługują się komórki nerwowe połączone tą synapsą. Jak wyjaśnia Andreas Herz, “pełne zrozumienie roli poszczególnych elementów mózgu wymagałoby zrozumienia działania całego systemu – i odwrotnie. To błędne koło, dlatego każdy model będzie jedynie wycinkowy: w najlepszym razie pozwoli przyjrzeć się z bliska bardziej fascynującym problemom neurologicznym i umożliwi nowe eksperymenty – ale nigdy nie będzie odwzorowaniem całej rzeczywistości”.
Sztucznej inteligencji nie potrzebny ludzki mózg
Być może Markram lepiej odnalazłby się w jednym z kalifornijskich koncernów (takim jak Alphabet), dla których wspieranie pozornie szalonych idei jest jedną z podstaw działalności biznesowej. Nieprzypadkowo główny inżynier Google’a Kurzweil sympatyzuje z odkrywczym duchem Makrama. Jednak nawet największy prorok myślenia wykładniczego spodziewa się stworzenia pełnej symulacji mózgu dopiero w 2029 roku. Zdaniem Nicka Bostroma są to zbyt optymistyczne szacunki. Ten szwedzki filozof, zafascynowany fizyką, matematyką i neuronauką, jest autorem książki “Superinteligencja”, w której kreśli scenariusze rewolucji wywołanej przez sztuczną inteligencję. Podobnie jak Kurzweil, Bostrom uważa, że symulacja ludzkiego mózgu jest możliwa, lecz wymaga opracowania nowych zaawansowanych technologii, dlatego przewiduje, iż uda się dokonać jej dopiero w połowie wieku. Problem stanowi między innymi obrazowanie: skaningowe mikroskopy tunelowe są precyzyjne, ale powolne, zaś mikroskopy elektronowe działają szybko, lecz mają mniejszą rozdzielczość.
Kurzweil, niezrażony, w odpowiedzi na wątpliwości przywołuje swoje prawo przyspieszającego zwrotu, któremu mają podlegać również technologie obrazowania. Faktycznie, rozdzielczość przestrzenna tomografów komputerowych od roku 1995 zwiększyła się dziesięciokrotnie. Profesor Herz uważa jednak, że nawet w przyszłości uda się odtworzyć jedynie zmniejszone obrazy rzeczywistości. Nawet jeśli neurosymulacja rzeczywiście pozostanie tylko w sferze iluzji, nie oznacza to, że również na potężną sztuczną inteligencję przyjdzie nam czekać w nieskończoność. Istnieją też inne, bardziej realistyczne koncepcje stworzenia sztucznej inteligencji, a każdej z nich sprzyja wykładnicze tempo rozwoju. Bostrom uważa, że podczas prac nad symulacją mózgu może powstać neuromorficzna sztuczna inteligencja, łącząca nowoodkryte prawa przetwarzania neuronowego z metodami syntetycznymi. Neuromorficzne komputery będą wzorowane na budowie systemu nerwowego. W idealnym przypadku mają przypominać ludzki mózg: silnie zintegrowane, o samoorganizującej się strukturze, odporne na błędy i wykorzystujące przetwarzanie równoległe przy wysokiej wydajności energetycznej i niewielkiej objętości.
Nie jest jeszcze jasne, czy koncepcja neuromorficzna doprowadzi do powstania sztucznej inteligencji. Za klasyczny przykład podobnej ambiwalencji uchodzi konstrukcja pierwszych samolotów. Ptaki pokazały ludziom, że z punktu widzenia fizyki lot jest możliwy, a nie najgorszym pomysłem będzie wy-
korzystanie poziomych powierzchni nośnych. Z drugiej strony do dziś żaden samolot nie macha skrzydłami – ruch postępowy w powietrzu został wynaleziony na nowo.
Rewolucja myślowa dzięki technologii
Ze sztuczną inteligencją może być podobnie: biologia wskaże nam sposób myślenia, ale fizyczne rozwiązania ludzkość będzie musiała opracować od nowa. Zaletą takiego podejścia jest możliwość wykorzystania atutów współczesnej techniki, a tych nie brakuje. Komputery liczą i komunikują się szybciej od swoich biologicznych odpowiedników, a przy tym mogą rozrastać się w nieskończoność – wystarczy dołożyć kolejne moduły. Poddają się ciągłej optymalizacji i cechują się większą niezawodnością niż człowiek. Również oprogramowanie ma przewagę: aplikacje i algorytmy można dowolnie modyfikować i powielać. Cyfrowa inteligencja uczy się znacznie szybciej od biologicznej. Jest też w stanie błyskawicznie rozwiązywać problemy z dowolnej dziedziny, podczas gdy nawet geniusze tacy jak Albert Einstein specjalizują się jedynie w bardzo wąskich dziedzinach. W DNA takiej cyfrowej inteligencji znajdzie się “zaczątek”, ślad pierwszej generacji myślących maszyn. Kolejne pokolenia będą rozwijały się same w sposób rekurencyjny, a każde będzie mądrzejsze od poprzedniego. Ostatnim ogniwem tego łańcucha będzie eksplozja inteligencji. O tym, na czym będzie ona polegała, przeczytasz w kolejnej części naszego cyklu