Naukowcy nie przypisywali SI żadnych taktyk ani sugestii. Algorytm nazwany FTW (For the Win) musiał rozegrać 450 tysięcy meczów, żeby nauczyć się wszystkich niuansów. Każdy wirtualny agent trenował tak, jakby był samodzielną jednostką, ale zdolną do gry zarówno z partnerem-człowiekiem jak i z komputerem. Jedynym sygnałem technicznym jaki otrzymywał FTW, była informacja o wygranym meczu. Warto zauważyć, że z prawdziwą grą “Quake III” ten eksperyment wspólne miał jedynie mapy – agenci nie strzelali do siebie, lecz odsyłali wrogów do bazy macierzystej przez dotknięcie. Nie było zatem problemu np. z celowaniem.
Ale efekt i tak jest niesamowity. W turnieju, w którym uczestniczyło 40 ludzi, zespoły składające się wyłącznie z agentów AI pozostały niezwyciężone. W 95% przypadków SI wygrywała także przeciwko drużynom mieszanym złożonym z ludzi i maszyn. Średnio taki “mikst” w jednym meczu przechwytywał 16 flag mniej niż zespół dwóch agentów For The Win. Naukowcy odkryli, że agenci SI są bardziej nastawieni na współpracę niż ludzie. Sztuczna inteligencja samodzielnie nauczyła się także zachowań podobnych do ludzkich, np. podążania za członkami swojej drużyny czy czajenia się w bazie wroga.
Jest to kolejny sukces ekipy DeepMind. Wcześniej, jak opisywaliśmy, ich algorytm AlphaZero wygrał w szachy z najlepszym profesjonalnym programem. Nie tylko Google aktywnie rozwija SI dzięki grom. OpenAI to z kolei rozwiązanie, za którym stoi startup należący do Elona Muska. SI OpenAI pokonała drużynę mistrzów w “Dota 2”. Celem każdego z tych przedsięwzięć nie są oczywiście wygrane w turniejach a wykorzystanie sztucznej inteligencji do znacznie poważniejszych celów, np. do sterowania autonomicznymi pojazdami czy rozwiązywania konfliktów zbrojnych. | CHIP