Wujek Ben, znany wszystkim fanom Spider-Mana, zwykł mawiać, że z “wielką mocą wiąże się wielka odpowiedzialność”. To zdanie idealnie pasuje do opisu superkomputerów. Cała ich moc pozwala na rozwiązywanie wielkich problemów naukowych – od odkrywania początków Wszechświata po zagłębienie się we wzorce zwijania białek, które definiują nasze życie. Oto niektóre z najbardziej intrygujących problemów, do których są obecnie wykorzystywane superkomputery.
Odtworzenie Wielkiego Wybuchu
Potrzeba wielkich komputerów, aby odpowiedzieć na jedno z najważniejszych pytań: jak narodził się Wszechświat? Wielki Wybuch, czyli początkowa ekspansja całej energii i materii we Wszechświecie, miał miejsce ponad 13 mld lat temu w temperaturze biliona stopni Celsjusza. Symulacje przeprowadzane przez superkomputery umożliwiają obserwację tego, co działo się podczas narodzin Wszechświata.
Naukowcy z Texas Advanced Computing Center (TACC) na Uniwersytecie Teksańskim w Austin użyli superkomputerów do symulacji formowania się pierwszej galaktyki, a uczeni z NASA Ames Research Center w Mountain View w Kalifornii odtworzyli proces powstawania gwiazd z kosmicznego pyłu i gazu.
Symulacje przeprowadzane przez superkomputery pozwalają fizykom odpowiedzieć na pytania dotyczące niewidzialnego dziś Wszechświata. Szacuje się, że ciemna materia stanowi około 25 % Wszechświata, a ciemna energia ponad 70 %, ale fizycy wiedzą niewiele na temat obu tych zjawisk. Używając potężnych superkomputerów, takich jak Roadrunner firmy IBM w Los Alamos National Laboratory, naukowcy mogą uruchamiać modele wymagające nawet tysiąca bilionów obliczeń na sekundę, co pozwala na stworzenie najbardziej realistycznych modeli tych kosmicznych zdarzeń.
Zwijanie białek
W 1999 r. firma IBM ogłosiła plany budowy najszybszego superkomputera, jaki kiedykolwiek widział świat. Pierwszym wyzwanie tego technologicznego cudeńka, nazwanego Blue Gene, miało być rozwikłanie tajemnicy zwijania białek.
Białka zbudowane są z długich pasm aminokwasów złożonych w skomplikowane trójwymiarowe kształty. Ich funkcja jest uzależniona od ich formy. Nieprawidłowe zwijanie białek może mieć poważne konsekwencje zdrowotne, m.in. w przypadku mukowiscydozy czy choroby Alzheimera. Odkrycie, w jaki sposób białka się zwijają – i jak może przebiegać nieprawidłowe ich zwijanie – może być pierwszym krokiem do wyleczenia tych chorób.
Blue Gene nie jest jedynym superkomputerem pracującym nad tym problemem, który wymaga ogromnej mocy obliczeniowej, aby symulować zaledwie mikrosekundowy czas zwijania białek. Dzięki symulacjom naukowcy odkryli strategie zwijania kilku białek, w tym jednego znajdującego się w wyściółce jelit ssaków.
Testy broni jądrowej
Od 1992 r. Stany Zjednoczone zakazały testowania broni jądrowej. Nie oznacza to jednak, że ich arsenał nuklearny jest przestarzały.
Program Stockpile Stewardship wykorzystuje nienuklearne testy laboratoryjne i symulacje komputerowe, aby upewnić się, że skład broni jądrowej w kraju jest sprawny i bezpieczny. Superkomputer IBM Sequoia, znajdująca się w Lawrence Livermore National Laboratory w Kalifornii, to maszyna o mocy 20 petaflopów, która może wykonywać 20 tysięcy trylionów obliczeń na sekundę. Jednym z głównych zadań superkomputera Sequoia jest tworzenie lepszych symulacji wybuchów jądrowych i całkowite zaprzestanie takich testów w świecie rzeczywistym.
Przewidywanie huraganów i trzęsień ziemi
Gdy w 2008 r. huragan Ike zbliżał się do wybrzeża Zatoki Perskiej, naukowcy zwrócili się do Rangera, aby uzyskać wskazówki dotyczące ścieżki huraganu. Ten superkomputer, o kowbojskim przydomku i mocy obliczeniowej 579 trylionów obliczeń na sekundę, znajduje się w TACC w Austin w Teksasie. Wykorzystując dane pochodzące bezpośrednio z samolotów Narodowej Agencji Oceanograficznej i Atmosferycznej, Ranger obliczył prawdopodobne ścieżki burzy. Według raportu TACC, Ranger poprawił pięciodniową prognozę huraganów o 15 %.
Z kolei kiedy w 2005 roku huragan Rita uderzył w Teksas, Narodowe Laboratorium Los Alamos użyczyło siły roboczej i mocy obliczeniowej do stworzenia modeli zagrożonych linii elektrycznych i elektrowni, pomagając urzędnikom w podejmowaniu decyzji o ewakuacji, wyłączeniu prądu i naprawach.
Superkomputery można wykorzystać także do modelowania trzęsień ziemi. Naukowcy mogą przewidzieć, jak fale sejsmiczne będą się przemieszczać zarówno lokalnie, jak i globalnie. Jest to problem, który jeszcze dwie dekady temu wydawał się nie do rozwiązania, jednak dzięki zastosowaniu superkomputerów naukowcy mogą rozwiązywać bardzo złożone równania, które odzwierciedlają rzeczywistość.
Modelowanie działania mózgu
Jak superkomputery wypadają na tle ludzkich mózgów? Są naprawdę dobre w obliczeniach: 120 miliardów ludzi ze 120 miliardami kalkulatorów potrzebowałoby 50 lat, aby zrobić to, co superkomputer Sequoia może zrobić w ciągu jednego dnia. Ale jeśli chodzi o zdolność mózgu do równoległego przetwarzania informacji poprzez wykonywanie wielu obliczeń jednocześnie, to nawet superkomputery pozostają w tyle. Dawn, superkomputer w Lawrence Livermore National Laboratory, może symulować działanie mózgu kota, ale 100-1000 razy wolniej niż prawdziwy koci mózg.
Mimo to, superkomputery są przydatne w modelowaniu układu nerwowego. W 2006 r. naukowcy z École Polytechnique Fédérale de Lausanne w Szwajcarii przeprowadzili udaną symulację 10 000 neuronów w szczurzym mózgu, zwanych jednostkami kory nowej. Mając wystarczająco dużo takich jednostek, naukowcy z projektu Blue Brain mają nadzieję, że w końcu uda im się zbudować kompletny model ludzkiego mózgu. Taki “mózg” nie byłby systemem sztucznej inteligencji, ale raczej działającym obwodem neuronowym, który naukowcy mogliby wykorzystać do zrozumienia funkcjonowania tego organu i testowania wirtualnych terapii psychiatrycznych.