Kompresja tekstur neuronowych, jaką szykuje firmy Nvidia, może zapewnić gigantyczne oszczędności w ilości wymaganej do renderowania pamięci VRAM. Kanał YouTube Compusemble uruchomił oficjalną wersję demonstracyjną na nowoczesnym systemie do gier, aby przeprowadzić jej wczesny test i zobaczyć, co deweloperzy mogliby dzięki niej osiągnąć w niedalekiej przyszłości.
Nvidia podnosi poprzeczkę
Stworzona przez Nvidię technologia RTX Neural Texture Compression wykorzystuje wyspecjalizowaną sieć neuronową do dynamicznej kompresji i dekompresji tekstur materiałów. Demo firmy Nvidia obejmuje trzy tryby renderowania: Reference Material, NTC Transcoded to BCn i Inference on Sample. Compusemble przetestowało je w rozdzielczościach 1440p i 4K, naprzemiennie stosując DLSS i TAA. Wyniki sugerują, że podczas gdy NTC może drastycznie zmniejszyć wykorzystanie pamięci VRAM i miejsca na dysku, może również wpłynąć na liczbę klatek na sekundę.
W rozdzielczości 1440p z DLSS, NTC firmy Nvidia przekodowane do trybu BCn, zmniejszyło wykorzystanie pamięci tekstur o 64% (z 272 MB do 98 MB), podczas gdy wnioskowanie NTC na próbce drastycznie je zmniejszyło – do 11,37 MB, co stanowi redukcję o 95,8% w porównaniu z kompresją nieneuronalną!
Czytaj też: Nvidia zaczyna ograniczać ilość RTX 4060 na rynku, szykując miejsce na kolejną generację
Demo działało na procesorze graficznym GeForce RTX 4090, gdzie DLSS i wyższe rozdzielczości dodatkowo obciążały rdzenie Tensor, wpływając w pewnym stopniu na wydajność w zależności od ustawień i rozdzielczości. Jednak nowsze, przyszłościowe procesory graficzne mogą zapewniać wyższe liczby klatek na sekundę i sprawiać, że różnica będzie nieistotna – gdy zostaną odpowiednio zoptymalizowane. W końcu Nvidia mocno inwestuje w techniki renderowania oparte na sztucznej inteligencji, takie jak NTC i inne aplikacje RTX.
Demo pokazuje również znaczenie kooperacyjnych wektorów w nowoczesnych procesach renderowania. Jak niedawno wyjaśnił Microsoft , kooperacyjne wektory przyspieszają obciążenia SI w celu renderowania w czasie rzeczywistym poprzez optymalizację operacji wektorowych. Obliczenia te odgrywają kluczową rolę w szkoleniu i dostrajaniu modelu SI, a także mogą być wykorzystywane do zwiększania wydajności renderowania gier.