Nowoczesne wydajne sprzęty, to wręcz prezenty, które pokochają Twoje gry
Tak jak jeźdźcy Apokalipsy zawsze występują we czwórkę, tak po zakupie karty graficznej NVIDIA GeForce RTX lub komputera, czy właśnie laptopa wyposażonego w nią, nie sposób nie zapoznać się z trzema najważniejszymi technologiami, które są dla nich unikalne. Mowa o technologii ray tracingu w czasie rzeczywistym, funkcji super rozdzielczości Deep Learning Super Sampling oraz dodatku NVIDIA Reflex, obniżającego opóźnienia na poziomie mysz-monitor. To trio, to nie jakieś tam urozmaicenia dla graczy, a wręcz wyjątkowe prezenty, które pokochają Twoje gry. Ba, pokochasz je również ty i to już po pierwszych godzinach zabawy na nowym sprzęcie. Jestem co do tego pewny, bo ja jako niegdyś zapalony, ale dziś już tylko niedzielny gracz, zakochałem się w grach na nowo, odpalając je na laptopie ASUS ROG Strix SCAR 17 G733.
Czytaj też: Niższe opóźnienia i szybsze reakcje, czyli NVIDIA Reflex w pigułce
Są szanse, że jeśli jesteście już właścicielami najnowszych kart NVIDIA, to już korzystacie ze wszystkich wspomnianych technologii nieświadomie bez zagłębiania się w ustawienia graficzne. Oczywiście nie we wszystkich grach, bo każda z nich wymaga osobnej implementacji w dany tytuł, ale praktycznie wszystkie wielkie studia trzymają sztamę z firmą NVIDIA, dzięki czemu implementują je do swoich gier. Słusznie, bo w gruncie rzeczy te ekskluzywne funkcje związane z wyjątkowymi rdzeniami Tensor oraz RT w procesorach graficznych GeForce RTX 2000 i RTX 3000 są czołowymi rozwiązaniami pod kątem skuteczności i zaawansowania w swoich niszach.
Zwłaszcza kiedy mamy również dostęp do świetnej klasy monitora, bo wtedy wszystkie razem łączą się, uzupełniają i w efekcie wspomagają rozgrywkę we wciąganiu nas bez reszty w wirtualne światy. Nie ważne, czy to w ramach kolejnego meczu turniejowego w e-sportowej grze, czy może następnego rozdziału podróży przez nuklearne pustkowia, malownicze tereny Toussaint, lub skute lodem połacie Skyrim – technologie NVIDIA wniosą wrażenia z tych przygód na zupełnie nowy poziom. Pozostaje więc pytanie… jak dokładnie?
Każdy gracz pragnie wydajnego sprzętu, ale laptop ASUS ROG Strix SCAR 17 G733, to wręcz marzenie i to nawet do pracy
Zanim zagłębimy się we wszystkie technologie, musimy podkreślić, co w ogóle umożliwia ich działanie. Jest to karta graficzna GeForce RTX 3080 o mocy ustawionej na 115 W z 8 GB pamięci GDDR6, której rdzeń GA104 o wielkości prawie 400 mm kwadratowych posiada całe 17400 milionów tranzystorów. Obok 6144 rdzeni CUDA posiada również wyspecjalizowane rdzenie Tensor w liczbie 192 oraz 48 równie ważnych rdzeni RT. Te ostatnie odpowiadają w głównej mierze za obsługę technologii ray-tracingu, czyli śledzenia promieni w czasie rzeczywistym, a te pierwsze za DLSS już w wersji 2.3, czy NVIDIA Broadcast, czego część w formie RTX Voice wcześniej przetestowaliśmy. Wysoka wydajność karty pozwala też zwiększyć skuteczność w grach kompetytywnych, dzięki wysokiej liczbie klatek na sekundę oraz technologii NVIDIA Reflex..
Oczywiście w laptopie ROG Strix SCAR 17 G733 znajdziemy nie tylko najmocniejszą mobilną kartę graficzną. Wprawdzie ta w głównej mierze odpowiada za to, aby na jego monitorze Full HD o odświeżaniu aż 300 Hz gry wyglądały i “działały” miodnie, ale oprócz RTX 3080 model ten imponuje również 8-rdzeniowym procesorem Ryzen 9 5900HX, 32 GB pamięci RAM DDR4-3200 oraz zaprzężonymi w RAID 0 dyskami SSD na PCIe 3.0 o pojemności 1 TB każdy. Te ostatnie są tutaj obecne po to, aby skracać ekrany ładowania do minimum, podczas gdy o stabilność i szybkość łączności dba dwupasmowe Bluetooth 5.1 oraz Wi-Fi 6 lub port Ethernet 1 Gb/s.
Czytaj też: DDR5 vs DDR4. Opowiadamy o nowej generacji pamięci operacyjnej
Jeśli znacie się na sprzęcie, to doskonale wiecie, co dokładnie oznacza to połączenie w grach i nawet podczas pracy (kłania się platforma NVIDIA Studio), ale NVIDIA zauważyła już wcześniej, że nawet z tak imponującym sprzętem nie da się wyeliminować jednego z największych wrogów każdego gracza, który daje o sobie się we znaki zwłaszcza w tych akcjach, w których liczą się milisekundy. Stąd powstanie technologii NVIDIA Reflex, trafiającej zwłaszcza do gier nastawionych na rywalizację i stąd jej obecność we Fortnite, Apex Legends, nowych odsłonach Call of Duty, Rainbow Six: Siege, czy Overwatchu. Każdy tytuł cechuje się jednak niższym opóźnieniem, dzięki monitorowi o wysokim odświeżaniu oraz liczbie klatek na sekundę, bo im jest ich więcej, tym lepiej.
Ta technologia wchodzi z butami w proces renderowania kolejnych klatek na monitorze i oraz ich reakcji na ruchy użytkownika, eliminując tak zwaną kolejkę renderowania poprzez idealne zsynchronizowanie procesora i karty graficznej. Nie odbija się to negatywnie na płynności, czy jakości, ale pozytywnie na opóźnieniu, czyli tak zwanego input laga, który określa opóźnienie reakcji na poziomie mysz-komputer-monitor. To z kolei sprawia, że gra staje się bardziej responsywna, a pewność każdego strzału wyższa. Widać to po poniższym wykresie, który przedstawia różnice opóźnienia w grze Fortnite i Apex Legends.
Jeśli jednak uważacie, że te milisekundy nie są warte zawracania sobie głowy, to znacznie bardziej zainteresuje Was technologia Ray Tracing. Nie bez powodu, bo tą widać przynajmniej już na pierwszy rzut oka i jest tym samym, co przejście z odświeżania rzędu 144 FPS na 30 FPS. Mam na myśli to, że do efektów NVIDIA Ray Tracing przyzwyczajamy się do tego stopnia, że bez nich gra od razu wydaje się pozbawiona “tego czegoś”. “Tym czymś” są z kolei elementy graficzne, odpowiadające za budowanie realizmu wirtualnego świata.
Twórcy gier od dawna i nadal bazują na tak zwanej rasteryzacji przy projektowaniu oświetlenia. To wymaga od nich powierzchnie każdego obiektu są cieniowane na podstawie ich właściwości materiału i padającego na nie światła. Innymi słowy, deweloperzy generują tym sposobem sztuczne oświetlenie i choć ciągle sprawdza się to bardzo dobrze, to technologia Ray Tracing jest w tym oczywiście lepsza. Ta całkowicie odmienia sposób generowania oświetlenia w grach, porzucając sztuczność na rzecz realizmu.
Dokonuje się tego poprzez imitację naturalnego światła w oparciu o “wystrzeliwane” ze źródeł światła promienie w czasie rzeczywistym, co przy utrzymaniu wysokiej płynności bez kart GeForce RTX, a dokładniej mówiąc, ich rdzeni RT, jest wręcz niemożliwe. W ramach serii GeForce RTX 3000 zadebiutowała już druga generacja rdzeni RT, których wydajność względem tych w RTX 2000 wzrosła o 70%.
W praktyce NVIDIA Ray Tracing dzieli się na trzy główne etapy. Pierwszy obejmuje określenie, które prymitywy, czyli elementy składowe renderowanych obiektów w danej scenie wejdą w interakcję z promieniami. Drugi dotyczy BVH – Bounding Volume Hierarchy, czyli specjalnej hierarchii drzewa, która oblicza miejsca przecięcia promieni i prymitywów, odrzucając wszystkie niepotrzebne w danej scenie. Finalnie ogólną jakość poprawia algorytm odszumiania, maskujący dodatkowo wszelkie niedoskonałości.
To dzięki temu procesowi otrzymujemy niewyobrażalne jeszcze przed kilkoma laty efekty w grach wideo, bo zabawa z promieniami była od ponad dwóch dekad dostępna tylko dla z góry renderowanych filmów. Dzięki rdzeniom RT gracze mogą cieszyć się łącznie czterema nowymi efektami graficznymi, choć oczywiście nie w każdej grze, bo Ray Tracing wymaga specjalnego wprowadzenia do każdego tytułu z osobna. Mowa o kaustyce, globalnym oświetleniu, cieniach, czy odbiciach ze śledzeniem promieni, które bez wyjątku zawsze wyglądają naturalniej względem tradycyjnego, “sztucznego” podejścia.
Omawiając Ray Tracing nie sposób nie wspomnieć, że niestety te efekty odbijają się na ogólnej wydajności i spadki klatek na sekundę z tą technologią często obniżają płynność na wyższych rozdzielczościach do poziomów nie do przyjęcia. Jednak i na to NVIDIA znalazła rozwiązanie, które znacząco wspomaga też opisaną wcześniej technologie NVIDIA Reflex, zapewniając jej pożywkę w postaci jeszcze większej liczby FPS. Mowa o ciągle rozwijanej funkcji DLSS, czyli Deep Learning Super Sampling, będącej na ten moment w wersji 2.3 i słynącą z zapewniania najwyższej jakości pośród innych technologii super rozdzielczości.
Już dziś na rynku znajdują się gry, które bez DLSS nie byłyby w stanie zaoferować nam płynności na akceptowalnym poziomie w rozdzielczości 4K i z aktywowanym Ray-Tracingiem. Przykład? Red Dead Redemption 2, czy powyższe wykresy, ujawniające możliwości kart GeForce RTX w Cyberpunku 2077, czyli jednej z obecnie najbardziej wymagających gier na rynku. Jak tego dokonuje? Czy to czary? Nie – po prostu sztuczna inteligencja oraz inteligentne skalowanie w czasie rzeczywistym.
Rozdzielczość jest najbardziej obciążającym ustawieniem dla kart graficznych, bo np. przy graniu w 4K karta musi wygenerować około cztery razy więcej pikseli, niż w Full HD (1920×1080), więc w dużym uproszczeniu, musi wykonać dwa razy więcej roboty. Dlatego NVIDIA słusznie zauważyła, że to właśnie rozdzielczość należy w pewnym stopniu zoptymalizować. Chociaż firma nie wymyśliła technologii super rozdzielczości, to przekuła ją na poletku gier na coś wyjątkowego, bo nadal (po ponad 3 lat od premiery) jedynego w swoim rodzaju.
W praktyce DLSS sprowadza się do prostego ustawienia w menu z presetami skupionymi mniej, lub bardziej na wydajności, czy jakości, które sprowadzają się do procentowego poziomu rozdzielczości, która będzie następnie skalowana.
Jednak to tylko koniec długiego kija, bo zanim DLSS zacznie działać w naszej grze, musi zostać stosownie wytrenowany. Działa z kolei, dzięki rdzeniom Tensor obecnych m.in. w GeForce RTX 2000 i RTX 3000. NVIDIA wspomina o nich, jako o rdzeniach wykonujących obliczenia z mieszaną precyzją, bo choć macierze danych, jakimi się zajmują, mają połowę dokładności, to rezultatem ich operacji może być wynik pełnej precyzji. Są w stanie pomnożyć dwie macierze FP16 (połowicznej precyzji) i po ich wyliczeniu dodać do wyniku macierz 4×4 FP32 i tak się akurat składa, że ta matematyka, na której operują rdzenie Tensor (macierzach 4×4) jest powszechnie stosowana w głębokim uczeniu (deep learning), czyli odłamie sztucznej inteligencji.
Od wersji 2.0 technologia “uczy się gier” za sprawą rozbudowanej sieci sztucznej inteligencji w ramach platformy Neural Graphics Framework za sprawą ogromnych zestawów danych. Te obejmują zrzuty ekranów wykonane w szalenie wysokich rozdzielczościach z wykorzystaniem superkomputerów i tych niższych. Z nich sieć SI czerpie zarówno wizualne wskazówki, jak i wektory ruchu.
Czytaj też: Wyjaśniamy tajemnice USB i wskazujemy, dlaczego USB-C jest tak rewolucyjny
Najlepiej wytłumaczyć to tak, że DLSS jest „trenowany” do swojego działania. Związane z tym systemy traktują zrzuty ekranu w niskiej rozdzielczości, jako te złe, a te w wyższej, jako dobre. Zadanie DLSS, kiedy aktywujemy go w ustawieniach, polega na tym, żeby z „tych złych” zrobić „te dobre”, bo proces nauki pozwolił mu dostrzegać różnice między tymi dwoma zestawami, a następnie został obdarzony mechanizmami, którymi może te różnice zniwelować.
Efektem jest przerobiony obraz z rozdzielczości niskiej na wysoką przy zachowaniu naturalności i prawie równej albo wręcz wyższej jakości. Wyższej, bo technologia porównuje poszczególne klatki między sobą i wiedząc, co było w poprzednich i co jest w tych obecnych, jest w stanie zwiększyć jakość obrazu, bo ustabilizować i ujednolicić go poprzez niwelowanie szumów, czy rozmyć. To właśnie “skutek uboczny DLSS”, który w wielu przypadkach poprawia ogólną jakość grafiki, co widać zwłaszcza przy liniach energetycznych, teksturach anten, czy siatce, ale też po zbliżeniu np. na twarz postaci.
ASUS ROG Strix SCAR 17 G733, to idealny plac zabaw do testowania wszystkich technologii NVIDIA
Chociaż przytoczona powyżej wiedza nie jest zupełnie potrzebna do tego, aby korzystać i czerpać pełnymi garściami z tego, co mają do zaoferowania te najnowsze technologie NVIDIA bezpośrednio związane z grami, to dobrze orientować się, jak działają i jakie dokładnie efekty zapewniają.
Jednak nawet bez nich surowa wydajność, jaką oferują karty graficzne GeForce RTX 3000, jest ogromna względem tego, co oferowała poprzednia generacja, a innowacje w porównaniu z GeForce GTX są wręcz przytłaczające. Zwłaszcza że odbijają się też na wydajności w programach użytkowych, dzięki czemu na ASUS ROG Strix SCAR 17 G733 można nawet pracować z użyciem wymagającego oprogramowania, którego stabilność poprawiają specjalne sterowniki NVIDIA Studio.