Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AMD PowerTune versus Nvidia GPU Boost - druhý pohled

no jo, prostě klasika. ATi/AMD vydávají dlouhodobě pěkné a domyšlené hračky, ale jejich marketing a vůbec obchodní využití je mizivé. Kdyby tohle dotáhli do (logického) konce, tak řešení nvidie je proti tomu úplně humpolácké.

Jenže nvidia udělá prakticky naprosto jednoduchou věc, následně se toho chytnou její "ohýbači reality" (alias marketing), ale taky lidi, co přemýšlejí, jak získat konkurenční výhodu a z téhle prkotiny vypadne "úžasná feature" s pěkným úderným názvem (jako např. GPU boost), nad kterou budou zákazníci uslintávat, jak se jim grafika pěkně přetaktovává.

Jinak moc díky za skvělý článek a rozšíření obzorů :-)

+1
+1
-1
Je komentář přínosný?

Takže marketing nVidie nám vlastně maže med kolem huby, zatímco u AMD z toho marketing neumí dost vytežit, protože nám vlastně nesdělí to zásadní, že se Radeony při velké zátěži sofistikovaně a perfektně propracovaně mufnáctcetkrát za sekundu ... podtaktovávají :)

Když půjdeme k jádru pudla, dopracujem se možná k tomu, že PowerTune a GPU Boost jsou v principu dvě odlišné věci.

+1
+2
-1
Je komentář přínosný?

Adame, o tom to přece není a v principu se jedná o totéž - zamezit překročení hranic, které jsou vytýčeny fyzikálními vlastnostmi karty a celkovým řešením chlazením.

Jde jen o to, jak moc si s tím ta která firma pohrála a jak moc to dokázala prodejně a marketingově vytěžit. V první disciplíně je to jednoznačně AMD, v druhé jednoznačně nVidia (defacto z nevýhody udělala svou výhodu - SunTzu hadra...).

+1
+1
-1
Je komentář přínosný?

Marketing AMD není vůbec tak špatný a neschopný, jak si spousta lidí myslí, naopak dokáže vše celkem kouzelně ohýbat a přikrášlovat a je i dost agresivní. Velice dobře to bylo vidět u leaknutých pre-prezentací k bulldozerům.

I PowerTune považuje spousta lidí za něco skvělého a v podstatě obdobu Turba u Intelu, i když v reálu se to chová uplně jinak a slouží to k jiným účelům.

Vadí mi na tom už jen to, že už s Radeony HD 6900 AMD zavedlo PowerTune a nějaké referenční takty, a odprezentovalo to tak, že díky PowerTune mohou mít Radeony vyšší výkon.

Ale už nedodává to, že ve specifikace vlastně udávají jen ten ideální stav, ve kterém nedochází k překračování spotřeby a PowerTune není zapotřebí. Když půjdu do extrému, můžu říct, že to de facto to není pracovní frekvence, ale jen maximální frekvence, a že karta může při větší zátěži zpomalovat. Do jisté míry bychom to mohli přirovnat k tomu, kdyby nVidia uváděla pouze takty s GPU Boost.

Další věc je teď třeba se spotřebou karet – u HD 7900 ještě uvádělo celkem nenápadně maximální a typickou spotřebu ve hrách, která je nevím o kolik wattů nižší. S dalšími modely HD 7000 už v prezentacích uvedlo jen tu typickou herní. Drtivá většina webů prostě jen vzala hodnotu "průměrné typické herní spotřeby" a nalepila ji do starých tabulek. A teď se v parametrových tabulkách napříč weby mísí maximální spotřeby karet a nějaké "typické" průměrné spotřeby, ale prakticky ve všech tabulkách je to v chlívku "maximální spotřeba" a nové "Radky" rázem vypadají o 20-30 W líp.

+1
+2
-1
Je komentář přínosný?

Také se přidávám s díky za moc pěkný článek. Díky za doplnění informací a podrobný nestranný pohled na problematiku.

O to víc je smutné, když se člověk tyto informace nedozví na jiných (větších) HW magazínech a i mě rozlepil oči, kde je (snad) pravda.

díky !

+1
0
-1
Je komentář přínosný?

Tenhle clanek srovnava jabka s hruskama. Jestli v tomhle vidite pravdu, tak nechapu, jak jste k tomu dosel. Pro koncoveho uzivatele je daleko prinosnejsi GPU Boost a technologie s nim souvisejici (jako je Adaptive V-sync), nez PowerTune. Viz. treba zde
http://hardocp.com/article/2012/04/16/nvidia_adaptive_vsync_technology_r...

A take napriklad zde
http://hardocp.com/article/2012/04/25/geforce_gtx_680_3way_sli_radeon_79...
kde pisou: "In BF3 Multiplayer GTX 680 3-Way SLI was night and day superior to Radeon HD 7970 Tri-Fire. In multiplayer gameplay the name of the game is speed, performance, and smoothness to gameplay. GeForce GTX 680 3-Way SLI produced these aspects in spades. In order to get Radeon HD 7970 Tri-Fire to feel smooth enough, we had to reduce Ambient Occlusion to SSAO, and turn off motion blur. We could not go above FXAA, 2X or 4X MSAA made the game feel choppy."

+1
+2
-1
Je komentář přínosný?

.. nv reseni semi zda lepsi v tom ze je to neco co muze uzivatel ovlivnit- vylepsit ... tj lepsi chlazeni - uprava chlazeni a dostane se s frekv. vyse ... u amd se mi zda ze je to proste jen loterie jakej kus uzivatel dostane ale ovlivnit to nicim v podstate nemuze .... ... a to provozuji vyhradne jen ati/amd

+1
+1
-1
Je komentář přínosný?

Fuj, takove ohybani reality ;)

+1
+1
-1
Je komentář přínosný?

.. nevim jak ty, ale ja v Matrixu neziju .. tim jsem si naprosto jistej :-)

+1
-1
-1
Je komentář přínosný?

..foto je tedy podstane starsiho data, ale o necem svedci :-) ;-) http://www.imagebam.com/image/9b3832187130340 .... vse by se kompletne do snimku neveslo :-)

+1
+1
-1
Je komentář přínosný?

Výměna chladiče je zásah do karty, který je v rozporu se zárukou. Pokud tohle uživateli nevadí, tak si může kartu nataktovat ručně podle svého bez ohledu na popsané technologie. Konkrétně u GPU Boost není závislost teplot/spotřeby/frekvence lineární, ale čím vyšší frekvence je, tím nižší je další nárůst frekvencí. Nedá se proto čekat, že by výměna chladiče sama o sobě nějak výrazně zvýšila frekvence, mluvíme o jednotkách až několika málo desítkách MHz, což se finančně nevyplatí (to už si zákazník rovnou může koupit OC model a výsledný poměr frekvence/náklady ho vyjde výhodněji).

+1
-3
-1
Je komentář přínosný?

U evga neni vymena chladice v rozporu se zarukou.

+1
0
-1
Je komentář přínosný?

U řady výrobců je. Bez ohledu na záruku to postrádá smysl, protože nákup OC modelu je výhodnější než se výměnou chladiče snažit dosáhnout nejistého výsledku v podobě pár MHz navíc. Podstatné totiž je, že řada nereferenčních chladičů sice lépe chladí GPU, ale napájecí obvody, o které v případ GPU Boost jde, jsou chlazené hůř (doporučit můžu třeba termosnímky, které občas do recenzí přidává server hardware.fr).

+1
0
-1
Je komentář přínosný?

Jsem si jisty, ze tohle vyrobce 3rdparty chladico tohle vedi, a vyresi to.

+1
-2
-1
Je komentář přínosný?

.. vsak preci nejde jen o vymenu chladice ... ale treba i o tipu skrine- proudeni vzduchu atd

+1
+2
-1
Je komentář přínosný?

Nezazněly tam, myslím, dvě podstatné věci – zatímco u HD 6000 bylo powertune transparentní a člověk věděl, že se karta podtaktovává a měl by tudíž třeba zlepšit chlazení (nejčastější důvod, proč se karta podtaktuje), u Radeonů 7000 už to lze zjistit v podstatě jen na základě měření spotřeby.

Druhá věc a jedna dost podstatná výhoda řešení nVidie, která se možná mezi řádky dá vyčíst, ale v článku není výslovně uvedená – zatímco Radeony mají výkon omezený shora a při velké zátěži se podtaktovávají (=nižší takty, než uvádí výrobce), u GeForce je limit zespoda a když to jde, takty se zvedají (=garance nejnižšího výkonu, a může běžet rychleji). Tady bych nVidii a výrobcům karet vytknul jen to, že neuvádí, co je vlastně GPU Boost Clock (všichni to staví na úroveň Turba u Intelu, kde frekvence jasně daná, zatímco u GF je to v reálu jen nějaký průměr z nějak naměřených hodnot). U náročnějších věcí může být frekvence GPU Boost podstatně nižší.

U AMD to i přes tu masivní propagaci, jak se teď maximálně využívá potenciál čipu, znamená, že čip nepoběží rychleji, než je někým pořád nějak nastavený strop (v tomto případě frekvence GPU). V méně náročných aplikacích ta karta prostě jede pod limitem powertune, pod TDP a pořád má nižší spotřebu a nižší výkon, než by mohla mít. Jenom proto, že se nedokáže povznést nad referenční takty (zřejmě, kvůli zatloukání reálné frekvence to není jak zjistit).

Jak to u AMD bývá, hezky vymyšlené, propracované, ale v základním principu nedotažené. Se základní frekvencí omezenou zdola a přetaktováváním na úroveň TDP je k tomu ideálnímu vytížení čipu mnohem blíž.

Co se týká těch úžasně rychlých reakcí a stutteringu u GTX 680 – imho to u Radeonů nikdo nezjistil především proto, že při daných testech nedochází kvůli velké rezervě u limitu vůbec k podtaktování. O tom, že by to byla garance plynulého framerate, ale nemůže být řeč. Když karta běží na hranici limitu PowerTune, může framerate mezi jednotlivými snímky skákat o 20–40 %, viz

http://extrahardware.cnews.cz/files/images/clanky/2012/03brezen/sappnihr...

+1
+1
-1
Je komentář přínosný?

To, že GPU Boost přetaktovává a PowerTune podtaktovává ve článku zaznělo, ale nemá smysl to na každé stránce několikrát zdůrazňovat, protože tomu už byly věnované samostatné články, na které je v textu i v závěru několikrát odkázáno.

"Co se týká těch úžasně rychlých reakcí a stutteringu u GTX 680 – imho to u Radeonů nikdo nezjistil především proto, že při daných testech nedochází kvůli velké rezervě u limitu vůbec k podtaktování."
Což ale fakticky je vlastnost produktu, pokud mluvíme o Radeonu HD 7970 oproti GeForce GTX 680.

K odkázanému grafu - to, co vyjadřuje graf, nesouvisí s tím, o čem mluvíme. Jednotkami v grafu jsou sekundy a FPS. Kdežto tady řešíme, co se děje nikoli na úrovni sekund, ale na úrovni desítek milisekund. A zároveň nejsou podstatou FPS (právě měření TechReportu ukazuje, že výše ani průběh FPS s těmi lagy nesouvisí), ale (řekněme) nerovnoměrná distribuce snímků, zkrátka nezvykle dlouhé prodlevy mezi některými snímky - to je podstata problému, pro jejíž vyjádření takhle postavený graf není vhodný.

Poslední věc - PowerTune nesouvisí s teplotami. Pokud se karta podtaktovává vinou vysokých teplot, je něco špatně a není to standardní chování karty (sepla teplotní ochrana). PowerTune upravuje frekvence na základě vytížení jádra (bez ohledu na chladič, teplotu vzduchu, jádra, napájecích obvodů či čehokoli jiného).

+1
-2
-1
Je komentář přínosný?

Nekolikrat jsi tvrdil, ze spotreba zavisla na teplote a ze pri vyssi teplote roste spotreba. To to najednou nejak prestalo platit? :) Pokud roste teplota, roste i spotreba a tim padem je ovlivnen i PowerTune, ne snad? Ale to by sme nesmeli byt na Diit.cz, kde se na produkty Nvidie a Intelu casto vyda postupne nekolik clanku, ktere neslouzi k nicemu jinemu nez plizive defamaci. To je muj osobni nazor. Staci se podivat na tento clanek nebo na clanky porovnavajici Ivy Bridge s propadakem Bulldozerem (ktere naprosto ignoruji fakt, ze Ivy Bridge je, pres mozna o neco horsi realitu nez byla ocekavani, nejlepsim CPU na trhu pro novy stroj - i kdyz upgrade ze Sandy Bridge v desktopu nema moc smysl - a to Bulldozer nebyl).

Ale zpet k tematu - GPU Boost je neco dost jineho nez PowerTune. Rozhodne je GPU Boost MNOHEM uzitecnejsi a uvedomte si, ze to uzivatel pozna daleko vyrazneji, nez PowerTune. Cela ta sada technologii na Kepler cipech a vubec myslenka, ktera se zabyva za a) vypnutim V-syncu a udrzenim co nejvyssiho framerate pokud neni dostatecny vykon k dosazeni V-sync FPS a za b) vylepsenim kvality obrazu a snizenim spotreby, pokud se V-sync FPS dosahuje, je skvela. Je to neco, co AMD nenabizi a i tve oblibene weby, ktere citujes v referencich, si tu feature velmi chvalily, vcetne citaci typu "na GTX 680 hra pusobi plynuleji nez na HD 7970 a to i pri nizsich realnych FPS, nez na HD 7970". Proc tohle v tomto clanku chybi?

+1
+1
-1
Je komentář přínosný?

Pokud PowerTune skutečně spotřebu jen odhaduje na základě nějakého vytížení čipu, pak zřejmě nebude na tolik inteligentní, aby do výpočtů zahrnulo i to, o kolik v souvislosti s vyšší teplotou mohla narůst spotřeba. Jinak řečeno buď při přehřátí překročí TDP, nebo musí mít do TDP pořád nějakou rezervu, aby jej karta po zahřátí nepřekročila.

Teď je ještě otázka, nakolik do celého procesu zasahuje ochrana proti přehřívání. Myslím tím, že při překročení např. 90 °C karta začne "trotlovat" nejen kvůli překročení TDP, ale i kvůli vysoké teplotě. A pokud něco takového umí, tak už člověk nepozná, z jakého důvodu se trotluje – jen vidí (u HD 6900), že klesají takty.

U sedmitisícovek je to už bohužel totální blackbox, do kterého člověk nevidí. To, zda zasahuje, už se dá zjistit jen z důsledků – s vyššími takty nestoupá výkon, jak by měl, a neroste spotřeba jak by měla, a hlavně pokud se zvednutím limitu pro powertune roste spotřeba a výkon karty.

+1
0
-1
Je komentář přínosný?

"na GTX 680 hra pusobi plynuleji nez na HD 7970 a to i pri nizsich realnych FPS, nez na HD 7970"
Tak toto už je aká perla. Tak hra pôjde na reálnych 100 FPS, na GTX 680 pôjde 95 FPS, ale vy subjektívne spoznáte, že na nVidii ide plynulejšie. WAU, chcel by som mať vaše oči. Taký demagóg patrí do politiky.

+1
0
-1
Je komentář přínosný?

Celá tahle hláška byla o adaptivním Vsync který se automaticky vypne pokud není výkon v nějaké scéně dostatečný a FPS jdou pod obnovovací frekvenci, tedy obvykle 60 a ve chvíli kdy je zase výkonu dostatek Vsync se zase zapne. Pokud se ale karta která neumí adaptivní Vsync dostane s normálním Vsync pod 60FPS automaticky se vykresluje zlomek obnovovací frekvence, tedy 30, 20, 15 a podobně.... logicky tedy karta s tímto adaptivním Vsyncem ve scénách které požadují více víkonu znamená vyrovnanější a vyšší průměrné FPS, takže se subjektivně může zdát ve vypjatých situacích plynulejší...

Víš, ono někdy si to chce přečíst o čem ten člověk píše a ne jen jednu větu vytrhnout z kontextu, ty demagogu.... ;-)

+1
-2
-1
Je komentář přínosný?

výkon s i... no to se mi teda povedlo :-(

+1
+3
-1
Je komentář přínosný?

Jde o bodový XY, ve kterém je zanesený framerate přepočtený na "FPS", jenže na úrovni jednotlivých zobrazených snímků. Z principu je to trochu pitomost, ale ne moc – něco podobného, jako měřit rychlost v kilometrech za hodinu, když člověk hodinu nejede. :)

Je to v podstatě jen převrácená hodnota toho, co vrací fraps, teda čas potřebný na vyrenderování jednoho snímku. Tím, že ze z toho udělá zpět převrácená hodnota v ms na frame dostaneme taky nerovnoměrnou distribuci snímků s velkými skoky.

Rozdíl bude jen v tom, že je to hodně rozsypané, ale kontinuálně a s každým snímkem a jde vlastně spíš o šum. A nebudou takové nahodilé delší zádrhy jako u GeForce. A tam se asi shodneme na tom, že u GeForce nebude problém s tím, že by karta reagovala líně, pomalu, frekvenci měnila po velkých skocích a princip regulace a zpětné odezvy byl tak špatný, ale s tím, že pouze neumí dost rychle změnit takt.

Ad omezení od PowerTune nemůže žádnou souvislost s aktuální teplotou tím pádem ani aktuální spotřebou karty – to je hodně zajímavý nápad, z chování karet v praxi jsem získal úplně jiný dojem. Že by "trotlování" karet při vysoké teplotě čipů a spotřebě nebylo důsledkem, ale naopak příčinou? (myslím tím různá kvalita čipu u různých kusů karet).

+1
-1
-1
Je komentář přínosný?

Fraps mera pocet snimkov za cas. V tomto grafe bol maximalny cas medzi dvomi snimkami. Ak budem mat cas medzi prvimi dvomi snimkami 500ms a potom dalsich 50 s rozostupom 10ms, tak fps bude celkom peknych 50, ale plynulost tam nebude.
Ale tiez si nemyslim, ze dlhy cas medzi snimkami suvisi s technologiou upravi frekkvencii. Rozdieli frekvencie vesinou nie su viac ako 10%, takze take dlhe cakanie by mohlo byt len vysledkom nejakej chyby.

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.