O co chodzi z tymi promieniami?
Z pewnością słyszeliście już o ray tracingu. O tym, że technologia ciekawa, ale wciąż brak dla niej solidnego wsparcia, czy też o tym, że najnowsze karty NVIDII, chociaż stworzone z myślą o śledzeniu promieni dysponują wydajnością pozwalającą jedynie musnąć ten temat. Jak jest naprawdę i czy rzeczywiście “zieloni” popełnili tu technologiczny falstart?
Zacznijmy od tego jak działa ray tracing. Opisujemy to dokładniej w osobnym materiale temu poświęconym. W wielkim uproszczeniu, jest to technologia polegająca na generowaniu obrazu w oparciu o śledzenie promieni od obiektu, do widza/kamery z uwzględnieniem wszystkich załamań i odbić. To, co charakterystyczne to jednak kierunek śledzenia – nie od obiektu, ale od punktu docelowego wstecz. Tym samym obliczeniom podlegają wyłącznie te promienie, które trafiają do obserwatora. Tym samym, zamiast nieco sztucznie kopiować odbijany obraz, można generować go w sposób znacznie bardziej przypominający rzeczywistość. Zastosowanie ray tracingu to nie tylko gry, ale też szeroko pojęta grafika 3D.
Niestety, w chwili kiedy testowaliśmy obie karty, nie było jeszcze żadnej gry, która obsługiwałaby ray tracing. Pierwszym takim tytułem jest “Battlefield V”. Wrażenia z samej gry, jak i z efektów śledzenia promieni, opiszę w osobnym, poświęconym temu zagadnieniu artykule.
To nadal GeForce, ale nieco mądrzejszy
Najnowsze karty NVIDII to z pewnością progres także w tradycyjnej budowie kart graficznych. Podobnie jak w wielu poprzednich generacjach kart od “zielonych” mamy tu do czynienia z GPU, czy raczej GPGPU, bo składające się na procesor graficzny rdzenie CUDA potrafią więcej niż tylko generować grafikę. Dziś to jednak standard, czego najlepszym dowodem jest masowe wykorzystywanie kart graficznych do kopania kryptowalut, który to proceder, jak mam nadzieję, będzie systematycznie odchodził w niebyt. NVIDIA postanowiła uzbroić nowe GeForce’y w dodatkowe możliwości, instalując w nich odpowiadające za obsługę SI rdzenie Tensor. Jakie jest jej zadanie?
Otóż rdzenie Tensor obsługują funkcję wygładzania krawędzi DLSS (Deep Learning Super Sampling). Względem dotychczas stosowanej metody wygładzania krawędzi (TAA lub FXAA) DLSS może pochwalić się mniej postrzępionymi krawędziami. Tym samym, skoro pracę nad DLSS przejmują wyspecjalizowane rdzenie, to wydajność reszty GPU pozostaje do wykorzystania na inne zadania. To wymusiło także zastosowanie szybszych pamięci, które są w stanie przetworzyć dostatecznie szybko duże porcje danych.
Porównanie parametrów kart GeForce RTX i GTX
GeForce RTX 2080 Ti | GeForce RTX 2080 | GeForce GTX 1080 Ti | GeForce GTX 1080 | |
Architektura | Turing | Turing | Pascal | Pascal |
Jednostki cieniujące | 4352 | 2944 | 3584 | 2560 |
Rdzenie Tensor | 544 | 368 | 0 | 0 |
Rdzenie RT | 68 | 46 | 0 | 0 |
ROP | 88 | 64 | 88 | 64 |
Jednostki teksturujące | 272 | 184 | 224 | 160 |
Taktowanie rdzenia | 1350 MHz 1635 MHz (Boost) | 1515 MHz 1800 MHz (Boost) | 1481 MHz 1746 MHz (Boost) | 1607 MHz 1733 MHz (Boost) |
Szybkość wypełniania teksturami | ok. 444,7 Gt/s | ok. 331,2 Gt/s | ok. 331,5 Gt/s | ok. 269,6 Gt/s |
Zegar pamięci | 7000 MHz | 7000 MHz | 5500 MHz | 5000 MHz |
Szyna pamięci | 352 bit | 256 bit | 352 bit | 256 bit |
Rodzaj pamięci | 11 GB GDDR6 | 8 GB GDDR6 | 11 GB GDDR5X | 8 GB GDDR5X |
Przepustowość pamięci | 616,0 GB/s | 448,0 GB/s | 484,0 GB/s | 320,0 GB/s |
Szybsze pamięci graficzne to oczywiście dobra wiadomość nie tylko dla graczy, ale też dla profesjonalistów, gdyby ktoś postanowił skorzystać w takich zadaniach z GeForce’a zamiast jego profesjonalnego odpowiednika: Quadro.
Wzrosła także, względem odpowiedników z generacji Pascal, liczba rdzeni CUDA. Topowy model, GeForce RTX 2080 Ti ma aż 4352 jednostki, podczas gdy poprzednik, GeForce GTX 1080 Ti ma ich 3584. Nieco mniejszy wzrost widać w przypadku następcy GeForce’a GTX 1080. Taka sama jednak pozostała liczba ROP, podobne, a nawet niższe, są częstotliwości pracy, tak bazowe jak i boost. Biorąc pod uwagę obecność rdzeni Tensor i wyspecjalizowanych jednostek do obsługi ray-tracingu, cały układ generacji Turing jest większym i wyraźnie bardziej złożonym GPU niż poprzednik.
Co i na czym testujemy RTX-y, czyli platforma testowa
Za podstawę do testów posłużyły nam komponenty stosowane przez nas do wielu innych testów, czyli procesor Intel Core i7-7820X, czyli 8-rdzeniowy, szesnastowątkowy układ dla platformy LGA2066, płyta główna Gigabyte Aorus X299-Gaming 7, 16 GB RAM Kingston HyperX Predator DDR4-2933 MHz oraz dysk SSD Kingston KC1000 o pojemności 250 GB. Do zasilenia całości posłużył zasilacz SilentiumPC Supremo FM2 750 W.
Karty do testów użyczyła nam firma Gigabyte i tym samym mieliśmy okazję testować karty o identycznym chłodzeniu, ale różnych układach. Mocniejszą z testowanego duetu jest oczywiście karta Gigabyte GeForce RTX 2080 Ti, słabszą zaś Gigabyte GeForce RTX 2080. Obie karty wyposażono w chłodzenie WindForce, składające się z trzech wentylatorów umieszczonych w pokaźnych rozmiarów radiatorze. To naprawdę wydajne systemy chłodzące, nic więc dziwnego, że Gigabyte postanowił skorzystać z nich na swoich kartach z górnej półki.
Podkręcanie
Nowe GeForce’y testowane przez nas nie są kartami fabrycznie podkręconymi. Trzeba im zatem nieco pomóc, by zyskały dodatkową wydajność. W obydwu kartach udało się to oczywiście zrobić. W przypadku GeForce RTX 2080 Ti udało nam się podnieść częstotliwość bazową do 1430 MHz, boost do 1730 MHz, a pamięć podnieśliśmy dość symbolicznie, bo o efektywne 72 MHz.
GeForce RTX 2080 także uległ przetaktowaniu bez większego problemu. Bazową częstotliwość ustawiliśmy na 1615 MHz, czyli o 100 MHz więcej niż wartość domyślną. Boost wzrósł z 1815 MHz do 1855 MHz. Pamięć też przetaktowaliśmy, konkretnie o 142 MHz.
Wzrost wydajności uzyskany na obydwu kartach oczywiście istnieje i uwzględnimy go na wykresach poniżej, w testach wydajności w grach. Jednocześnie nie jest to wielki wzrost i można swobodnie uznać, że OC w tym przypadku nie jest zabawą wartą czasu.
Wydajność – benchmarki
Testy wydajności rozpoczynamy jak zawsze od benchmarków syntetycznych. Chociaż ich użycie zawsze jest nieco kontrowersyjne, zwłaszcza w odniesieniu do nowych GPU, to trudno wyobrazić sobie test karty graficznej bez pierwszego z nich: 3DMarka.
Mniej popularny, ale dysponujący pięknym demem benchmark Unigine Superposition także wykazuje wzrost wydajności względem poprzednika. Zauważalna jest szczególnie różnica w teście 4K.
Możliwości obu nowych kart są duże, nawet bardzo. To chyba nie tajemnica, skoro wystarczy spojrzeć w tabelę ze specyfikacją by zauważyć, że są to karty o GPU bardziej złożonym niż dotychczasowi królowie wydajności: GeForce GTX 1080 Ti (dla segmentu najwyższego) i GeForce GTX 1080 (dla segmentu wysokiego). Nic więc dziwnego, że następcy Pascali są po prostu szybsi. Czas na testy w grach. I tu od razu kilka słów wyjaśnienia. Tych kart nie testujemy w popularnej rozdzielczości Full HD. Dlaczego? Ponieważ oznaczałoby to, że owszem, nowe karty są szybkie, szybsze niż poprzednicy, ale co z tego, skoro tak samo jak Pascale i Radeony Vega oferują płynną rozgrywkę z fps powyżej nie tylko uznawanej za granicę płynności granicy 60 FPS, ale wręcz powyżej 100 FPS.
Na następnej stronie sprawdzamy wydajność.
Wydajność w grach
W pierwszej kolejności sprawdzamy co potrafią nowe karty w “Battlefield 1”. W chwili gdy testowaliśmy nowe karty, tytuł ten czekał jeszcze na swojego następcę, oferującego już ray tracing. Mimo tego samego silnika (Frostbite 3) pierwszowojenny Battlefield 1 nie posiada obsługi ray-tracingu. Nic też nie wiadomo by kiedykolwiek miała się ona pojawić i tak zapewne się nie stanie.
Wydajność w “Battlefield 1” uruchomionym w rozdzielczości 4K wyraźnie przechyla szalę na rzecz nowych GeForce’ów RTX. Obie karty uzyskują wyraźnie lepszy rezultat niż redakcyjny, podkręcany GTX 1080, będący przecież nadal świetną kartą. Ten uzyskuje wyniki na średnim poziomie 61 klatek na sekundę w 4K DX11 Ultra.
W “Battlefield 1” 60 klatek jest jednak obowiązkowe, ze względu na częstotliwość odświeżania serwera, więc starsza grafika balansuje tu na granicy płynności, podczas gdy oba Turingi przekraczają ją dość swobodnie. Spadek wydajności w DX12 z włączonym HDR jest niewielki, ale dostrzegalny.
Wolfenstein II: The New Colossus
Drugą grą, w której testowaliśmy karty z rodziny Turing jest Wolfenstein II: The New Colossus. To także FPS, ale jakże inny od Battlefielda. Nastawiony na grę single player, z bogatą fabułą, mało ciekawymi pukawkami i całkowicie nierealistyczny… chociaż to, jeśli dobrze się zastanowić, wspólna cecha obu gier.
Na najwyższych ustawieniach gra wygląda bajecznie. Strzelanie do wirtualnych nazistów nigdy nie wyglądało tak dobrze. A teraz możemy postrzelać w 4K. Sprawdzamy wydajność w maksymalnych ustawieniach graficznych.
Nie powinno dziwić, że nawet w 4K i maksymalnej jakości grafiki nowe karty radzą sobie znakomicie. Nasz redakcyjny GeForce GTX 1080 (do tego podkręcona fabrycznie wersja AMP Zotaca) uzyskuje średnio około 78 klatek. Tym samym oznacza to rywalizację powyżej granicy płynności.
Wiedźmin 3
Cóż to byłby za test karty graficznej, gdyby nie pojawił się w nim rodzimy wątek? “Wiedźmin 3” ma już ponad trzy lata na karku, a mimo to trzyma się znakomicie. Pojawił się gdy u szczytu były karty Maxwell, otrzymywał kolejne dodatki już “za kadencji” Pascala, a teraz przyjdzie mu zmierzyć się z Turingiem.
Na potrzeby testu włączyliśmy także niesławny Hairworks. Ta funkcja NVIDII na szczęście się nie przyjęła w grach. Stawia ona tak wysokie wyzwanie dla GPU, że nawet dziś, drastycznie wpływa na uzyskiwaną płynność.
Wiedźmin 3 to nadal bardzo wymagający tytuł. Niemniej na nowych kartach graficznych możemy dość swobodnie grać w rozdzielczości 4K. Oczywiście, dla osób, które potrzebują 60 fps nawet w grach mniej dynamicznych niż sieciowe shootery uzyskane rezultaty będą nieco zbyt niskie, przynajmniej w przypadku karty GeForce RTX 2080.
Warhammer
Mroczne realia świata fantasy wykreowanego przez Games Workshop są dość mocno wykorzystywane w grach, jako że brytyjska firma dzieli się licencją dość chętnie (chociaż głównie futurystycznym kuzynem fantastycznego “Warhammera”, oznaczonego numerem 40 000). Stąd dwie gry w naszym zestawieniu rozgrywają się w świecie Warhammera. Pierwszą z nich jest “Warhammer: Vermintide II”.
Kooperacyjny shooter, w którym mierzymy się z hordami wrogów to bardzo dobra gra, wymagająca sporej celności. Jednocześnie wygląda naprawdę dobrze. Niestety, jej wymagania sprzętowe są naprawdę wysokie. Sprawdzamy wydajność w 4K i maksymalnych ustawieniach obrazu.
Pozostajemy w realiach “Warhammera”. “Total War: Warhammer II” to jedna z lepszych strategii na rynku. Jest też bardzo wymagająca, tak względem karty graficznej, jak i CPU. Mówiąc delikatnie, jest to gra, która potrafi powalić wymaganiami nawet najsilniejsze maszyny gamingowe. Jakby tego było mało, ustawiliśmy wszystko co się dało na maksimum.
Do tego użyliśmy wbudowanych w grę benchmarków (Battle, Campaign oraz Skaven), których reale wymagania są nieco wyższe niż w przypadku samej rozgrywki. Uzyskane wyniki uśredniliśmy. Jak poradziły sobie z nim nowe GeForce’y?
Jak widać, gdy tylko ustawimy maksymalną jakość grafiki i rozdzielczość 4K, to GeForce RTX 2080 i RTX 2080 Ti dostają zadyszki. Jest ona jednak znacznie bliżej płynności niż w przypadku kart poprzedniej generacji.
Podsumowanie
W przypadku “konwencjonalnej” wydajności nie ma rewolucji. Nowe karty graficzne GeForce RTX 2080 Ti i RTX 2080 są oczywiście szybsze niż poprzednicy. Pytanie czy zwiększona wydajność uzasadnia zakup nowej karty graficznej (w przypadku posiadaczy najmocniejszych Pascali) lub wyboru Turingów przy budowie nowego komputera? Moim zdaniem to dyskusyjne. Na chwilę obecną główne przewagi RTX-ów są dwie: wyższa wydajność w 4K oraz ray tracing, którego wciąż za bardzo nie ma w grach. Jeden Battlefield 5, jeszcze niedostępny w chwili gdy przeprowadzaliśmy testy, może być zbyt małą zachętą do zakupu dość kosztownych RTX-ów. Ceny testowanych kart: GeForce’a RTX 2080Ti oraz GeForce RTX 2080 będą jednak z czasem topniały. Aktualnie za tańszą z kart trzeba zapłacić ponad 3400 złotych (wiele modeli kosztuje więcej niż 4000 zł), droższa to natomiast wydatek przekraczający 5000 złotych (niektóre modele sięgają 6000 zł).
Jednocześnie ray tracing może podzielić los innych technologii, których wsparcie na początku było niewielkie, z czasem jednak upowszechniły się i przestaliśmy w ogóle zwracać uwagę na ich działanie, które wydaje nam się czymś naturalnym (jak choćby PhysX). Ray tracing może też znaleźć się wśród takich “oczywistych” technologii. Pytanie tylko, kiedy to się stanie. Jeśli RT zacznie upowszechniać się szybko, to Turingi mogą rzeczywiście mieć sens zakupu już teraz. Także dla użytkowników monitorów 4K nowe GeForce’y mogą być dobrym zakupem. Użytkownicy monitorów FHD mogą wybrać mocniejsze Pascale… lub czekać na GTX 2060. | CHIP
⇒ Tutaj znajdziecie ranking kart graficznych, wśród nich także Zotac Gaming GeForce RTX 2080 Ti AMP Edition 11GB GDDR6