Głos w tej sprawie zabiera coraz więcej organizacji pozarządowych w tym Międzynarodowy Komitet Czerwonego Krzyża oraz Future of Life Institute, który opublikował w sieci poniższy film, mający na celu uświadomić nam konsekwencje dalszego ignorowania tej kwestii:
Czy powyższy scenariusz jest możliwy? Owszem, jest. Zresztą kwestia systemów uzbrojenia sterowanych przez algorytmy sztucznej inteligencji już dawno przestała być kwestią teoretyczną. Przykłady? Proszę bardzo: 2020 r., zabójstwo Mohzena Fakhrizadeha odpowiedzialnego za nuklearny program Iranu, przeprowadzone przez członków izraelskiego wywiadu z wykorzystaniem autonomicznego karabinu maszynowego, sterowanego przez algorytm. Ten sam rok, turecki dron autonomiczny Kargu-2 kamikaze podjął samodzielną decyzję o zaatakowaniu żołnierzy generała Chalify Haftara w Libii. Są to dwa najgłośniejsze przykłady wykorzystania autonomicznej broni, choć z pewnością nie jedyne.
Aktywiści i część krajów zrzeszonych w ramach ONZ domagają się stworzenia nowego międzynarodowego traktatu, w którym zasady wykorzystania sztucznej inteligencji w systemach uzbrojenia byłyby jasno określone i zabraniały samodzielnych decyzji podejmowanych przez algorytmy dotyczących ataku na ludzkie cele. Argumentacja stojąca za tym pomysłem jest jasna: algorytm może się pomylić i przez przypadek zaatakować ludność cywilną.
Kolejną kwestią, podejmowaną głównie przez aktywistów jest również to, że wraz z rozwojem tej technologii, prędzej czy później wpadnie ona w ręce organizacji terrorystycznych i przestępców. Dlatego też aktywiści proponują wprowadzenie przepisów, które sprawiłyby że ostateczną decyzję o zaatakowaniu ludzkiego celu zostawić w rękach ludzkiego operatora, tym samym ograniczając swobodę algorytmów.
Czy sztuczna inteligencja może zabijać ludzi? Zdania są podzielone
Na spotkaniu państw członkowskich w Genewie prawdopodobnie utworzą się dwa stronnictwa. Jedno z nich będzie za uchwaleniem nowej, międzynarodowej konwencji ograniczającej uprawnienia algorytmów. Poparcie tego pomysłu zadeklarowała na przykład, że przyłączy się do międzynarodowej koalicji w celu zakazania w pełni autonomicznych systemów uzbrojenia, argumentując swoją decyzję tym, że perspektywa przyszłości, w której decyzja o odebraniu ludzkiego życia zostanie zlecona maszynom, jest odrażająca.
Stany Zjednoczone, jedno z najważniejszych państw członkowskich ma jednak zupełnie inne zdanie. Prezydent USA Joe Biden zapowiedział już zresztą, że nie podpisze żadnej wiążącej umowy międzynarodowej, która zabraniałaby użycia „zabójczych robotów”. Zamiast tego, przedstawiciele administracji Bidena proponują stworzenie „niewiążącego kodeksu postępowania”, jeśli chodzi o użycie tego typu algorytmów.
Nie jest to zresztą szokująca wiadomość. Stany Zjednoczone od dawna sprzeciwiają się międzynarodowym umowom regulującym wykorzystanie nowych typów uzbrojenia. Powód jest oczywiście bardzo prosty – Amerykanie odpowiadają za tworzenie największej liczby nowoczesnych systemów uzbrojenia i nie w smak im zapewne to, że inne kraje chcą decydować o tym, w jaki sposób wojsko amerykańskie będzie wykorzystywać swoje uzbrojenie.
Czytaj również: Pentagon opublikował zbiór zasad, dzięki którym wojskowe algorytmy SI mają być bardziej „etyczne”
Spotkanie ONZ w tej sprawie rozpocznie się w poniedziałek, 13 grudnia i potrwa tydzień. Wątpię jednak, aby w ramach tego szczytu udało się jednomyślnie stworzyć nową umowę międzynarodową, która ograniczyłaby zakres wykorzystania sztucznej inteligencji w systemach uzbrojenia. Równie dobrze możemy rozpocząć dyskusję o systemach automatycznego naprowadzania, których zasada działania – pomimo mniejszego skomplikowania – jest bardzo podobna do działania sztucznej inteligencji. Tu i tu w ludzki cel celuje maszyna.