Celem nie było jednak “tylko” osiągnięcie wydajności zapewnianej nam przez ten organ, lecz pójście o krok dalej. A w zasadzie wiele kroków dalej. Naukowcy wchodzący w skład zespołu zarządzanego przez Daniela Gauthiera z Uniwersytetu Stanowego Ohio, doprowadzili bowiem do sytuacji, w której komputer był w stanie wykonywać obliczenia nawet milion razy szybciej niż dotychczas.
Czytaj też: Algorytmy niszczą proces rekrutacji. W ten sposób mogło „przepaść” Wasze CV
Taki rezultat jest szczególnie imponujący, gdy weźmiemy pod uwagę fakt, iż towarzyszy mu niskie zapotrzebowanie na dane wejściowe oraz niewielkie zużycie zasobów. Kluczowe dla prowadzonych badań okazało się rozwiązanie określane mianem reservoir computing, umożliwiające uzyskiwanie wyników od 33 do 163 razy szybciej niż przy zastosowaniu konwencjonalnych technik. W szczególnych okolicznościach rekord udało się “wyśrubować” nawet milion razy.
Algorytm testowany przez Gauthiera był nawet milion razy wydajniejszy od dotychczas stosowanych
W praktyce oznaczało to, iż komputer był w stanie rozwiązywać problemy matematyczne w mniej niż sekundę. Jakby nie było to wystarczająco imponujące, to warto dodać, iż taki wynik był możliwy do uzyskania przy użyciu zaledwie 28 neuronów. Modele stosowane do tej pory wymagały znacznie większych zasobów, bo liczących nawet 4000 neuronów.
Czytaj też: Nowy algorytm dla superszybkich dronów łączy dwa zestawy danych dla lepszych wyników
Jak wyjaśnia Gauthier, przełom był możliwy dzięki uproszczeniu systemu, który wymaga krótszej i mniej intensywnej “rozgrzewki” zanim przystąpi do wykonywania obliczeń. Naukowcy nie zamierzają poprzestawać na tym, co udało im się osiągnąć do tej pory. W planach mają między innymi przetestowanie swojego algorytmu w odniesieniu do bardziej wymagających zadań. W grę wchodzi między innymi prognozowanie dynamiki płynów.