Závěr
Kapitoly článků
GeForce GTX 680 je poměrně zvláštní produkt. Nabízí velmi dobrý herní výkon při slušné spotřebě a velmi dobrých provozních vlastnostech - to rozebíráme a hodnotíme v recenzi samotné karty. Druhou věcí je technologická stránka. Na samotném 3D jádře se mimo změn souvisejících se zrušením hot-clock a související změnou scheduleru příliš nezměnilo: Výpočetní jednotky, texturovací jednotky i ROP jsou po funkční stránce identické jako u Fermi. Inovace se dočkaly geometrické jednotky PolyMorph Engine (nyní ve verzi 2.0), ale konkrétní charakter hardwarových změn Nvidia nespecifikovala.
Oproti 3D jádru se paradoxně více hardwarových změn dočkala multimediální výbava: Je to jednak - v rámci produktů Nvidie úplná novinka - NVENC procesor pro hardwarovou kompresi HD videa a dále výstupy na 4 monitory, které mohou najít využití i při práci a ve hrách.
Nvidia GeForce GTX 680 box
Třetím okruhem jsou softwarové změny. Ty jsou podle našeho úsudku nejrozsáhlejší: Mluvili jsme o metodách anti-aliasingu FXAA, novém TXAA, nových možnostech nastavení pro čtyři monitorové výstupy, zobrazování částí scény, které jsou „skryté“ bezely a podobně. S určitým otazníkem můžeme do této skupiny zařadit i technologii Adaptive V-Sync (zda je pro její podporu třeba specifická hardwarová výbava nebo je implementovaná prostřednictvím ovladače, zatím jasné není).
Čtvrtá a poslední skupina změn se týká zpracování karty. Na to se zaměřil i David v recenzi, takže si pro vytvoření celistvějšího obrázku projděte i hodnocení spotřeby a hlučnosti.
Kapitola sama pro sebe je pak technologie GPU Boost. Samotná myšlenka efektivněji využívat TDP potenciál je bez diskuse pozitivní (a její implementace s ohledem na čím dál odlišnější požadavky jednotlivých aplikací prakticky nutná). Jednu výhradu ale k této technologii máme: Taktovací frekvence, které si karta nastaví, jsou však závislé na konkrétní teplotě a částečně i na štěstí uživatele na kus karty. Nemáme problém Nvidii uvěřit, že kusová variabilita není nijak výrazná, přesto z principu člověk nemusí za své peníze dostat přesně totéž, co viděl v recenzi. Pokud by funkci GPU Boost bylo možné deaktivovat a měřit v rámci garantovaných parametrů, které dostane i zákazník, pak by bylo vše v pořádku. To ale možné není, takže vlivem rozdílné skříně, chlazení (případně testování mimo skříň) a nakonec až po kusovou variabilitu, není možné v rámci recenzí zajistit podmínky, ve kterých se karta bude po výkonnostní stránce chovat identicky jako uživateli.
Nakonec je tu několik drobností, které sice majoritu uživatelů nebudou nijak omezovat, ale „hlásit se to musí“ :-). Pokud srovnáme výbavu GeForce GTX 680 a Radeonu HD 7970, je v některých ohledech znát, že i přes podobný cílový výkon vznikal čip GK104 jako mainstreamový projekt pro hráče, kdežto čip Tahiti jako klasický produkt pro high-end. Jednak je tu rozdíl v podpoře GPGPU: Nvidia specifikace v tomto směru odmítla uvést, takže lze předpokládat, že desktopová GeForce GTX 680 bude podporovat double-precision v 1/12 výkonu (oproti 1/4 u Radeonu HD 7970) a zřejmě bude chybět i podpora ECC a podobně. To samozřejmě uživatele, který chce kartu na hry, nemusí bolet. Druhým rozdílem je podpora více obrazových výstupů: Radeon umožňuje i konfigurace jako 5×1 a 3×2; celkem až šest zařízení oproti čtyřem. Samozřejmě mluvíme opět o specifické uživatelské komunitě. Poslední rozdíl se týká podobné skupiny: Rozdíl v kapacitě paměti mezi 2 a 3 GB nijak neovlivní hráče, který funguje na jednom monitoru (pro 1920×1xxx bohatě stačí i kapacita pod 2 GB), ale v SLI či CrossFire konfiguraci kombinované se třemi a více LCD mohou být 2 GB postupem času poněkud těsné.
Žádné z těchto specifik ale není zásadní pro typického uživatele, kterémuje karta určena, neboť jak padlo na prezentaci v San Franciscu, „GeForce GTX 680 je herní karta pro hráče“ a v rámci tohoto určení ji prakticky nic vytknout nelze :-).
Závěrem se ještě naposledy vrátíme k našemu koutku pro pamětníky ;-)
Výhody |
+ poměr herní výkon / tranzistor + poměr herní výkon / spotřeba + spotřeba ve 2D + automatické využití rozsahu TDP (GPU Boost) + NVENC (video enkodér schopný využít potenciál GPU) + DirectX 11.1 + PCIe 3.0 |
---|---|
Nevýhody |
- omezená GPGPU / HPC podpora v segmentu high-endu - částečná závislost výkonu na chlazení sestavy |
Specifika |
? „jiný“ Kepler, než jaký slibovaly loňské prezentace |
Nvidia (prezentace v San Franciscu a oficiální materiály)