GeForce RTX 4090 przebija barierę 100 TFLOPs po podkręceniu. To… niesamowite
Oficjalnie GeForce RTX 4090 nie jest aż tak wydajny, bo wersja podstawowa jest reklamowana przez firmę NVIDIA jako sprzęt o wydajności 83 TFLOPów. To sporo, patrząc na poprzednią generację, której RTX 3090 Ti gwarantował 40 TFLOPów mocy obliczeniowej, ale jednocześnie tak daleko od poziomu 100 TFLOPów… przynajmniej pozornie. Okazuje się, że wystarczy podkręcić tę kartę, aby wycisnąć z 16384 rdzeni CUDA i 24 GB GDDR6X zupełnie nieznany do tej pory poziom mocy.
Czytaj też: Koniec odbioru paczek InPost w sklepach sieci Żabka. Brak dalszej współpracy
Udało się to serwisowi Wccftech z wykorzystaniem NVIDIA GeForce RTX 4090 Founders Edition, którego testerzy ustawili limit mocy i temperatury na maksymalny poziom i podbili taktowanie rdzenia i pamięci odpowiednio o +275 i +1100 MHz. Takie potraktowanie karty wymagało też zwiększenia napięcia dla GPU, które testerzy zwiększyli o 55%, zauważając, że przy 100% wydajność… spada.
Po takim podkręceniu procesor graficzny GeForce RTX 4090 rozkręcał się do 3150 MHz, maksymalny pobór mocy sięgnął 547W, a temperatury zamknęły się w 69 stopniach Celsjusza z wykorzystaniem tradycyjnego chłodzenia. W efekcie testerom udało się zwiększyć wydajność tego flagowca z 83 do 100 TFLOPów. To 22% wzrost wydajności obliczeniowej w stosunku do standardowego RTX 4090 i 2,5-krotny wzrost surowej wydajności obliczeniowej w stosunku do RTX 3090 Ti.
DLSS 3.0 odpowiedzią na surową wydajność
Pewne jest jednak, że 2,5-krotnie wyższa wydajność obliczeniowa to niekoniecznie 2,5 razy więcej klatek na sekundę w grach… ale i na to NVIDIA znalazła “rozwiązanie”. Wraz z nową generacją GeForce RTX firma zapewniła też światu gier technologię DLSS 3.0, czyli kolejną wersję Deep-Learning Super Sampling, która znacząco zwiększa liczbę klatek na sekundę podczas rozgrywki za sprawą “DLSS Frame Generation”. To opcja automatycznie generująca całą klatkę na podstawie pól przepływu optycznego obliczonego za pomocą znacznie wydajniejszego względem poprzednich wersji akceleratora Optical Flow Accelerator.
Czytaj też: Podkręcanie GeForce RTX 4090 się opłaca. Spójrzcie tylko na te dane
Działanie DLSS 3.0 na podstawie wcześniej wyszkolonych modeli z wykorzystaniem superkomputera umożliwia wspomniany akcelerator i rdzenie Tensor czwartej generacji z 8-bitowymi silnikami Tensor Floating Point (FP8), który zwiększa przepustowość nawet 5-krotnie. W efekcie generowana z wykorzystaniem tej technologii klatka znajduje się pomiędzy klatkami zrekonstruowanymi za pomocą DLSS Super Resolution. To w efekcie sprawia, że w każdych dwóch klatkach tylko jedna ósma wyświetlanych pikseli jest renderowana normalnie, bo reszta z nich jest tworzona z wykorzystaniem mechanizmów NVIDIA. To jednak wpływa na opóźnienia (input-lag), dlatego wraz z włączeniem opcji Frame Generation, w tle aktywuje się też zmniejszająca opóźnienie technologia Reflex.
Czytaj też: Jak przekonać ludzi do sieci 5G? To stało się realnym problemem
Jak to sprawdza się w rzeczywistości? Jeśli idzie o samą płynność, różnica między DLSS 3.0, DLSS 2.0 oraz natywnym renderowaniem z wykorzystaniem RTX 4090 jest ogromna. Po przyjrzeniu się wielu testom w sieci, doszedłem do wniosku, że DLSS 3.0 zwiększa płynność średnio dwukrotnie, a DLSS 2.0 o jakieś 50% w porównaniu do natywnego generowania grafiki w ustawieniach ultra i 4K przy trybie pracy DLSS nastawionym na jakość (Quality).