Damian Kwiek: Po co pojawił się termin sztuczna inteligencja?
Artur Długosz: Hm… Nigdy nie zastanawiałem się nad tak postawionym pytaniem. To jest, wbrew pozorom, bardzo stara nazwa – pochodzi z lat 50. Myślę, że wzięła się stąd, że w pewnym momencie uświadomiliśmy sobie, że komputer może zrobić więcej, niż to, do czego został zaprogramowany. Że może nauczyć się innych rzeczy, zdobyć wiedzę i bliskie naszemu pojmowaniu doświadczenie.
Nazwa Artificial Intelligence powstała dawno, ale wielką karierę robi dopiero od kilku lat. Co wydarzyło się na poziomie technologicznym, że zaczęła być tak często używana? Bo przecież nawet gigantyczny przyrost mocy obliczeniowej komputerów to jednak jeszcze za mało, żeby mówić o AI.
Maszyny cyfrowe działają w oparciu o algorytmy od początku. Tylko że algorytm prowadzi nas do celu, który znamy, który potrafimy przewidzieć. Technologia rozwija się tak intensywnie, że SI na pewno powstanie, ale, moim zdaniem, to określenie jest dzisiaj nadużywane. Pojawienie się pierwszych komputerów kilkadziesiąt lat temu stworzyło sposobność rozwiązywania problemów, których nie dało się pokonać wcześniej. Mam na myśli osiągnięcia Turinga czy von Neumanna. Może należy patrzeć na to tak, że ukucie hasła “sztuczna inteligencja” było wyrazem zachłyśnięcia się możliwościami informatyki. Naukowcy, którzy zajmowali się nią wtedy, dostrzegali wielki potencjał technik obliczeniowych. Choć pamiętajmy, że komputery były wówczas bardzo prostymi urządzeniami, zabierały dużo przestrzeni i trudno się je programowało, więc terminu SI używano na pewno jeszcze bardziej ponad miarę, niż robimy to dzisiaj.
Może był po prostu marzeniem? Bo to w gruncie rzeczy dość “poetyckie” określenie.
Zgadza się, to bardzo mało naukowy termin. Już lepszym jest pojęcie “osobliwość”, użyte w 1943 roku przez matematyka polskiego pochodzenia, Stanisława Ulama, który współpracował z von Neumannem przy projekcie Manhattan. Ulam definiował “osobliwość” jako cechę technologii, która będzie potrafiła w przyszłości stworzyć rozwiązania właśnie “osobliwe”, czyli lepsze, niż umiałby człowiek. Zatem pojęcia “SI” i “osobliwość” łączą się. Ale ja nie jestem zwolennikiem terminu “sztuczna inteligencja”. Uważam, że znacznie lepiej temu, z czym mamy do czynienia, odpowiadałaby nazwa “rozszerzona inteligencja”.
Termin “SI” błyskawicznie został podchwycony przez kulturę: komiks, film, fantastykę. Zastanawiano się, czym ona dokładnie jest, albo czym może być. Asimov stworzył swoje trzy słynne prawa robotyki. Przetestował je w zbiorze opowiadań “Roboty i imperium”. Te prawa opisywały robota trochę jak niewolnika: robot nie może zniszczyć człowieka, nie może wyrządzić mu krzywdy, ani zniszczyć samego siebie. Potem dopisano czwarte prawo, że nie może też zniszczyć ludzkości. To już ewidentnie sugerowało podrzędną pozycję robota jako maszyny, która tylko pomaga człowiekowi w niektórych obszarach, zatem jest wobec niego rozszerzoną inteligencją. Powiedzmy sobie – to replikant, który ma wykonywać najcięższe prace, udawać się do odległych kolonii i po prostu pracować za człowieka, jak niewolnik…
…aż się nie zbuntuje.
No właśnie. Tu jest problem, czy robot może się zbuntować i dlaczego miałby się zbuntować?
Wydaje się to abstrakcyjne. A jednak Elon Musk, Bill Gates, Stephen Hawking apelują, żeby w pracach nad SI skrupulatnie dbać o kontrolę nad nią. Czyli nietuzinkowi eksperci widzą istotne ryzyko.
Jestem z wykształcenia fizykiem, więc Hawkinga cenię bardzo. To jest człowiek, który naprawdę dobrze wie, jak funkcjonuje nasz świat. Musk stworzył PayPala, teraz produkuje rakiety dla USA, czyli on też znakomicie czuje styk technologii i biznesu. Nie można ich słów nie traktować poważnie. Wspominałem o trochę bajkowych prawach Asimova, ale po drodze mamy jeszcze tzw. paradoks spinaczy – eksperyment, w którym postawiono przed AI proste zadanie produkcji spinaczy. Jak najwięcej, jak najlepiej. Sztuczna inteligencja stworzyła cały system, fizykę, zasady, wszystko podporządkowane produkcji spinaczy i przestawiła w tym teście cały świat na ich produkcję. I niszczyła wszystko…
…co nie chciało produkować spinaczy.
Tak. Zatem wąska sztuczna inteligencja, słaba, niesie ze sobą zagrożenie. Myślę, że inaczej będzie w przypadku tzw. silnej SI, ale jej jeszcze nie ma. W każdym razie przestrogi Muska, czy Gatesa trzeba traktować serio, tym bardziej, że pojawiają się już wypowiedzi politycznych przywódców, którzy stwierdzają, że ten, kto będzie panował nad AI, zdobędzie władzę nad światem. Sama sztuczna inteligencja mogłaby nie być groźna, ale ludzkie intencje są w stanie przeobrazić ją w coś niebezpiecznego. Kiedy słyszę o wplataniu SI w wielką politykę, mam skojarzenia z wyścigiem zbrojeń. Być może potrzebujemy w tej dziedzinie umowy podobnej do klimatycznego Protokołu z Kioto. Mamy już dokument z 23 zasadami, promowanymi przez znawców SI. Musk uruchomił OpenAI, projekt, w ramach którego można testować nowe rozwiązania, co powinno ubezpieczać rozwój sztucznej inteligencji. W Intelu również realizujemy koncepcję, że wszystko jest open. Cały nasz hardware i software jest otwarty, nie robimy niczego zamkniętego. Chodzi o to, żeby prace nad SI toczyły się w sposób przejrzysty.
To jest przyszłość. Co robi, umownie nazywając, SI, dostępna teraz, albo taka, którą będziemy mieli za chwilę? Jeśli zrezygnujemy z filozofii i futurystyki, jakie zostają praktyczne, realne zastosowania?
Sztuczna inteligencja może rozwiązywać problemy, które sami bardzo długo rozpracowywalibyśmy metodą prób i błędów. Mam na myśli np. zagadnienia ekonomiczne. Bardzo konkretne zastosowanie to nowe materiały. Żeby je projektować, musimy angażować do długotrwałej i kosztownej pracy wielkie zespoły specjalistów. A już dziś potrafimy napisać program dla SI, przed którą postawimy zadanie i ona wyliczy, jak powinien być skonstruowany potrzebny materiał. Sztuczną inteligencję wykorzystuje się do poszukiwania zaginionych dzieci. W medycynie może znakomicie pomagać w diagnostyce nowotworów. SI świetnie radzi sobie z szybkim przetwarzaniem dużych zbiorów danych. Analiza zdjęć, obrazowania medycznego umożliwi bardziej precyzyjne wykrywanie objawów, co z kolei pozwoli na szybszą i lepszą reakcję terapeutyczną. W dotychczasowych warunkach mamy kolektywną wiedzę człowieka, miliony publikacji. Ale lekarze muszą spotkać się, skonsultować, wymienić informacje. SI, nawet jeśli nie zrobi tego lepiej, ma od razu dostęp do całości danych i przeprowadzi analizę, z której wyciągnie wnioski, błyskawicznie. Dlatego w Intelu opracowujemy rozwiązania i zachęcamy różne środowiska do badań nad sztuczną inteligencją. Ja po prostu zupełnie serio wierzę, choć może to brzmieć jak banał, że SI ma szansę poprawić jakość życia pojedynczego człowieka.
Użył pan rozróżnienia na słabą i silną sztuczną inteligencję. Jeżeli zastanawiamy się, czy pomoże nam w rozwiązywaniu problemów, albo czy powinniśmy się jej obawiać, wyjaśnijmy, o co chodzi z tymi kategoriami.
Rozgraniczenie jest szczególnie ważne dla wątku, dotyczącego naszych lęków przed AI. Niebezpieczeństwo słabej sztucznej inteligencji nie dotyczy tego, że np. usamodzielni się. Tu rzecz sprowadza się do ryzyka, że ktoś napisze zły algorytm, popełni błędy, wprowadzi niewłaściwe dane. Trochę jak w przypadku wspomnianego eksperymentu ze spinaczami. Czy SI będzie nam wtedy szkodziła świadomie? Oczywiście, że nie. Ale stanowi zagrożenie. Upraszczając, w słabej sztucznej inteligencji chodzi o ewentualny błąd człowieka. W silnej natomiast – problem dotyczy naszej niewiedzy. Przecież my nie wiemy, jak sami dokładnie działamy – to jest moje osobiste zdanie. Sporo dowiedzieliśmy się o mózgu, o inteligencji, ale już o świadomości nie. A intuicja, deja vu? Niektórzy naukowcy, jak zmarły w tym roku Hubert Dreyfus, kwestionują postrzeganie funkcjonowania człowieka w kategoriach obliczeniowości. Uważają, że podejmujemy decyzje na podstawie wielu niepoliczalnych czynników, takich jak wspomniana intuicja, przeczucie, doświadczenie. I w silnej sztucznej inteligencji ryzyko widzę w tym, że czegoś nie wiemy, a stawiamy sobie cel. Wyobraźmy sobie, że stworzymy maszynę, wyposażoną w silną, czyli uniwersalną SI. Może się zdarzyć, że ona w ramach rozwoju szybszego, niż jest do tego zdolny mózg człowieka, wytworzy pewne cechy, np. świadomość, dzięki której zyska tożsamość. I zacznie podejmować działania, których nie potrafiliśmy przewidzieć.
Wyzwaniem, które mamy na horyzoncie chyba znacznie bliżej niż ryzyko buntu robotów, jest przenikanie się cech ludzkich i maszynowych. Rośnie wpływ jaki mają na nas urządzenia, wszczepianie do organizmu chipów to kwestia czasu, już są takie eksperymenty. Rozmawiałem niedawno z filozofem, prof. Tadeuszem Gadaczem, który zajmuje się etycznymi aspektami relacji człowieka i technologii. Naukowiec uważa, że tzw. transhumanizm, czyli cybernetyczny etap “ewolucji” ludzkości, to kluczowe zagadnienie, które mamy właśnie tuż przed sobą. A ono może oznaczać ogromne, niebanalne zmiany. Komputery robią za nas coraz więcej rzeczy, rozleniwiają nas, nie musimy zapamiętywać, kojarzyć – uwsteczniają człowieka, a nie rozwijają. Zdaniem prof. Gadacza, postęp nas wyprzedza, nie jesteśmy psychicznie gotowi na to, co się dzieje.
Myślę, że to niestety trafna diagnoza. Wystarczy popatrzeć na dzieci – mają problem z zapamiętywaniem prostych informacji, bo wszystko da się łatwo sprawdzić w sieci. Inna rzecz, nie wiem, czy ktoś robił takie badania, ale jestem przekonany, że okazałoby się, że mocno spadł nam poziom cierpliwości. Chcemy, żeby wszystko było natychmiast. Co do samego transhumanizmu, to temat często eksploatowany ostatnio, choćby w filmie “Ghost in the Shell”, który dobrze oddaje ducha oryginalnego komiksu. Ale ja na ten problem patrzę trochę inaczej, niż cytowany przez pana filozof. Kto wie, czy najlepszym pomysłem na kontrolowanie sztucznej inteligencji nie jest właśnie ścisłe połączenie jej z człowiekiem? Wtedy to byłaby rozszerzona inteligencja, zawsze pod kontrolą naszej inteligencji i moralności. W ten sposób nie wymknęłaby się.
SI jako “nakładka” na nasz “system operacyjny”?
Wtedy uniknęlibyśmy tego, czego wielu się boi. Choć to rodzi z kolei inne wielkie pytania i dylematy. Cyborgizacja człowieka. W jakim stopniu mamy do czynienia jeszcze z człowiekiem, a w jakim z maszyną? To są zresztą problemy, którymi zajmuje się gra “Cyberpunk 2020”. Rozmaite wszczepki i wspomaganie technologiczne pozbawiają bohatera człowieczeństwa. Jest nawet specjalna miara – w pewnym momencie tracisz wolną wolę i stajesz się programem.
Czyli to jest wizja, w której spotyka pan kogoś, a np. w smartfonie wyświetla się powiadomienie, w jakim procencie to człowiek, a w jakim komputer. Dziś to ciągle fantastyka. A propos – ma pan ulubioną fabularną wizję sztucznej inteligencji?
W Intelu robimy rzeczy, które udoskonalają życie ludzi, skupiamy się na tym, co dobrego SI może zrobić dla człowieka. Jednocześnie lubię w literaturze czy filmie opowieści, które w pewien sposób ostrzegają i dotykają istoty człowieczeństwa. Jest mi bliski cały Dick, z jego obsesyjnym zgłębianiem tego ostatniego zagadnienia. Ciekawią mnie wizje, zadające pytanie, czy aby my sami nie jesteśmy czymś w rodzaju programu komputerowego.
Byłoby kapitalnie, gdyby okazało się, że, konstruując komputery, zdublowaliśmy siebie.
Albo, że zrobiliśmy to, żeby siebie samych zrozumieć. Lubię historie fantastyczne, które nie są tylko pustymi projekcjami. “Terminator” jest ciekawym filmem, ale to jest prosty przekaz, bohaterowie nie mają tam rozterek, chodzi o to, żeby załatwić to coś wielkie, ganiające za mną i przybierające różne kształty. Wolę bardziej subtelne opowieści jak “Ghost in the Shell” czy “Blade Runner 2049”. Zwłaszcza ten drugi film bardzo ciekawie porusza problem, czym będzie sztuczna inteligencja. W ogóle, powiem panu, chciałbym, żeby ludzie czytali więcej fantastyki…
A do czego może im się przydać fantastyka, poza samą przyjemnością z czytania?
Kiedyś fantastyka zajmowała się poważnymi sprawami, dlatego raczej była określana jako science-fiction. Pisali ją często naukowcy, którzy wsadzali w swoje opowieści jakiś dylemat: naukowy, psychologiczny, moralny. Pamiętam np. taki krótki tekst pt. “Ostatnie pytanie” Isaaca Asimova, fantastycznie ilustrujący sprzężenie nauki, technologii i losów człowieka we wszechświecie. Tam superkomputer umożliwił ludziom ekspansję na inne planety, wykorzystanie energii gwiazd, nieśmiertelność, transhumanizm, stał się samodzielnym bytem, który pomagał ludziom, opiekował się nimi, ale nie umiał odpowiedzieć na fundamentalne pytanie, czy można odwrócić bieg entropii, czy można uniknąć śmierci ostatecznej. Przez tysiące lat samoulepszająca się maszyna wciąż odpowiadała, że brak danych do udzielenia jednoznacznej odpowiedzi. Wreszcie, kiedy już nie ma niczego z fizycznego świata, a superkomputer operuje z hiperprzestrzeni, znajduje rozwiązanie i mimo braku tych, którzy zadali ostatnie pytanie postanawia zademonstrować odpowiedź. Padają słowa „niech stanie się światło” – i tak też się staje. Albo jak u Josepha Conrada – opowiadał różne egzotyczne historie, ale tam był zawsze zaszyty poważny problem. O takich pomysłach mówię. Literatura fantastyczna nam dziś niestety sprzaśniała, razem ze wzrostem jej popularności. Taką cenę zapłaciliśmy. A ja uważam, że ludzie powinni czytać dużo dobrych książek z tego gatunku, bo po prostu dowiedzieliby się więcej o świecie i o sobie samych. | CHIP