RECENZE: Gigabyte GeForce GTX 1660 SUPER GAMING OC 6G
Kapitoly článků
Chlazení patří mezi velmi důležité aspekty grafických karet. Bohužel u novějších GeForce RTX není možné softwarově monitorovat teploty VRAM, VRM, proto mají GeForce v těchto grafech nulu.
Nová GTX 1660 SUPER boostuje dost podobně jako normální GTX 1660, nicméně je poněkud překvapivé navýšení teploty, přičemž boost je o nějakých 30MHz nižší. Že by za to mohl GDDR6 řadič? Nejedná se ale o žádný problém, karta je tichá i v maximální zátěži a chová se víceméně stejně jako normální GTX 1660, což je pozitivní.
Spotřebu ve všech testech měřím za pomoci zásuvkového Wattmetru, měřím tedy odběr celé sestavy včetně klávesnice a myši. Bohužel pořád nemám dobré prostory a vybavení pro měření hlučnosti a tak tuto problematiku víceméně vynechávám. V místnosti, kde běžela testovací sestava byla příjemná teplota okolo 24°C.
Spotřeba s více monitory
Všechny testované karty podporují minimálně čtyři monitory, samotná GPU umí většinou více, ale ne vždy jsou všechny výstupy vyvedeny. Otestovat spotřebu s více monitory mě bohužel napadlo až po vrácení RTX 2070 a RTX 2070 SUPER, proto mají nulovou hodnotu v grafech. Jako primární monitor vždy sloužil Samsung S24E650PL připojený přes Displayport. Jako druhý monitor jsem použil starší Dell 2408WFP opět připojený přes DisplayPort. Jako třetí monitor pak sloužil Dell P2214H, který jsem u některých karet připojil přes DisplayPort, u některých přes HDMI, neboť testované karty nemají stejné konfigurace výstupů. Jako čtvrtý monitor posloužil notebookový FullHD panel připojený přes HDMI za pomoci LCD driveru. Všechny monitory měly nastavenou obnovovací frekvenci 60 Hz.
Protože jsem v testovací sestavě vyměnil zdroj a skříň, došlo k měřitelnému snížení spotřeby, LED pásky a jejich kontrolér v NZXT H500i zjevně dělají své. Nicméně i tak má GTX 1660 SUPER trend zvyšující se spotřeby s více ventilátory, po připojení druhého se totiž probudí GDDR6 paměti na vyšší PState a také se zvyšuje postupně frekvence jádra.
Výsledky jsou poměrně zajímavé. RX 5700 od ASUSu jsem testoval s vypnutými RGB LED a efektivně vzato kopíruje RX 5700 XT, při zapnutí RGB LEDek se spotřeba navýší asi o jeden Watt.
RX 5700 XT má přijemně nízkou spotřebu se třemi monitory připojenými přes DisplayPort, jakmile připojíme čtvrtý přes HDMI, dojde k nárůstu spotřeby ze 78 Wattů na 106 Wattů. GDDR6 paměti totiž poskočí z úsporného stavu na nejvyšší P state, což zvyšuje spotřebu. Stejně se chovají víceméně i ostatní karty, některé mají nárůst spotřeby postupný, některé nahodí nejvyšší VRAM P state rovnou s druhým monitorem. Nejzajímavější je v tomto ohledu Vega56, testovaná karta má totiž jen 2x DP a 2x HDMI, přesto však nehne ani brvou se čtyřmi FullHD monitory, předpokládám, že za to mohou HBM2 paměti, které mají vysokou propustnost i masivně podtaktované. Bohužel nemám aktuálně po ruce hromádku 3K, 4K nebo i 5K monitorů, proto jsou tyto testy pouze ve FullHD.
4K YouTube
Také jsem zkusil jak počítač „žere“ při přehrávání 4K videa přímo z YouTube, což není zrovna nejefektivnější díky VP9 kodeku. Použil jsem své oblíbené Costa Rica 4K video, výsledky jsou poměrně zajímavé, NVIDIA karty zde mají nižší spotřebu, GTX 1660 SUPER spotřebuje víceméně stejné množství energie.
Také jsem vyzkoušel spotřebu v Zaklínači 3, Deus Ex Mankind Divided a v Unigine Superposition Extreme. Hry jsem testoval v QHD rozlišení, nijak jsem neblokoval maximální FPS. Spotřebu lze samozřejmě výrazně snížit, pokud nám postačí třeba 60 FPS v hrách. GTX 1660 SUPER má lehce vyšší spotřebu oproti normální GTX 1660, což jsem tak nějak očekával, jelikož došlo k malému navýšení TDP a je velmi pravděpodobné, že GDDR6 paměti jsou náročnější pro samotný paměťový řadič.