Nvidia poinformowała dziś o wynikach współpracy z zespołem naukowców Uniwersytetu Stanforda nad stworzeniem największej na świecie sieci neuronowej, służącej modelowaniu mechanizmu przyswajania wiedzy przez ludzki mózg. Sieć jest sześć i pół razy większa od poprzedniej rekordzistki, którą opracowała firma Google w 2012 roku.
Komputerowe sieci neuronowe są w stanie “nauczyć się” jak modelować zachowanie mózgu — w tym rozpoznawania obiektów, postaci, głosów i dźwięków w taki sam sposób w jaki robią to ludzie.
Jednak tworzenie wielkoskalowych sieci neuronowych jest wyjątkowo wymagające pod względem obliczeniowym. Dla przykładu, firma Google zbudowała swoją sieć neuronową, która nauczyła się rozpoznawać koty w filmach w serwisie YouTube, w oparciu o około 1000 serwerów wykorzystujących procesory centralne (16 000 rdzeni). Sieć zawierała 1,7 miliarda parametrów, będących wirtualnym odzwierciedleniem połączeń między neuronami.
Natomiast zespół ze Stanforda pod kierownictwem Andrew Ng, dyrektora Laboratorium Sztucznej Inteligencji na tym uniwersytecie, utworzył równie obszerną sieć używając zaledwie trzech serwerów wyposażonych w akceleratory graficzne Nvidii, które przyśpieszają proces przetwarzania wielkoskalowych danych generowanych przez sieć. Za pomocą 16 serwerów akcelerowanych przez GPU, zespół utworzył sieć neuronową obejmującą aż 11,2 miliarda parametrów, czyli 6,5-krotnie większą od tej zaprezentowanej przez Google w 2012 roku.
Im większa i bardziej wydajna jest sieć neuronowa, tym większa jest jej dokładność w realizacji zadań, takich jak rozpoznawanie obiektów, dzięki czemu komputery mogą lepiej odzwierciedlać ludzkie zachowanie. Pracę dotyczącą badań przeprowadzonych przez naukowców z Uniwersytetu Stanforda opublikowano wczoraj podczas międzynarodowej konferencji ICML.