Specyfikacja układu GeForce GTX 1650 jest nieco silniejsza niż wynikać by to mogło z części domysłów, jakie pojawiały się w internecie. Według nich układ miał posiadać 768 rdzeni CUDA, tymczasem ostatecznie okazało się, że karta NVIDII ma ich 896. Potwierdzają się zatem informacje, które podawaliśmy wcześniej. To oczywiście wpłynie na wydajność. GeForce GTX 1650 będzie mieć także 4 GB pamięci GDDR5, korzystających ze 128-bitowego interfejsu komunikacyjnego. Robocza nazwa samego GPU to TU117-300. Fakt iż jest dwuczłonowa jasno sugeruje, że to nie ostatni raz, gdy widzimy układ TU117. Czyżby miała się potwierdzić informacja o GeForce GTX 1650 Ti?
Częstotliwość pracy nowego GPU NVIDIA ustaliła na 1486 MHz i 1665 MHz w trybie boost. Biorąc pod uwagę to, jak dotychczasowe Turingo znosiły podkręcanie, możemy być niemal pewni, że GeForce GTX 1650 także będzie wdzięcznym obiektem domowego overclockingu. Przy standardowych ustawieniach karta nie potrzebuje dodatkowych gniazd zasilania. Pobiera niewiele energii elektrycznej, co przekłada się też na niskie TDP (75 W).
Pozwala to producentom na budowę kart wyposażonych w proste układy chłodzenia, ale też modeli z jedną, 6-pinową wtyczką zasilania, lepszymi systemami chłodzenia i tym samym podniesionymi możliwościami OC. Wiele konstrukcji kart GeForce GTX 1650 bazuje na krótkich płytkach PCB, co sprawia, że karty te szybko trafią do niewielkich komputerów.
Wydajność? Ta jest, zdaniem NVDII, całkiem niezła. Oczywiście pod warunkiem, że nie przesadzamy z ustawieniami i pamiętamy, że cena karty (około 700 zł) jest dość niska. W “Apex Legends” w ustawieniach maksymalnych i rozdzielczości Full HD powinniśmy otrzymać około 70 klatek na sekundę, a w “Battlefield V” z ustawieniami Ultra można liczyć na 55 klatek na sekundę. Przy niewysokiej cenie i przyzwoitej wydajności, nowy GPU NVIDII ma szansę na sukces. Warto jednak pamiętać, że konkurencja nie śpi i już niedługo (zapewne latem) zobaczymy układy AMD Navi. Druga połowa roku będzie więc czasem bardzo ciekawym dla komputerów gamingowych. | CHIP
→Sprawdź nasz ranking kart graficznych.