Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Test GeForce GTX 670: jak se Nvidii podařilo očesat model GTX 680 - dokončení

Nevím, školy nemám, ale jestliže vám vyšly teploty podobné jako jinde a přitom spotřeba větší o 20 W, nemohla by být chyba i jinde než v grafice?

Na to, že by HD 7950 přeprásknutá o 100 MHz mohla vykazovat spotřebu jen o 7 W vyšší než nižší mainstream HD 7850 OC taky moc nevěřím, byť mně u ní vycházela spotřeba srovnatelná s referenční kartou (při 68 °C na jádře proti 79 °C u ref).

Jak vy tu spotřebu vlastně testujete?

+1
-1
-1
Je komentář přínosný?

U chladiče s automatickou regulací výkonu závislou na teplotě nelze moc dobře aplikovat předpoklad, že je spotřeba přímo úměrná teplotě karty. Samotnému ti vyšel rozdíl ve spotřebě mezi GTX 680 a HD 7970 cca 75 wattů, zatímco většina webů naměřila rozdíl v rozmezí 12-20 wattů. Takže tu spotřebu netestujeme asi o moc jinak než ty ;-)

+1
-2
-1
Je komentář přínosný?

ale lze, pokud to netestujete na nějaké divočině, tak se ta teplota i ty spotřeby nakonec ustálí, navíc jsou otáčky závislé na teplotě jádra a předpokládám, že se kus od kusu neliší. To, co říkáš, by platilo za předpokladu, že ten váš chladič by chladil výrazně víc než ostatním, ale nechladil.

Co se spotřeby týče, měl jsem tam i tu vaši přepastovanou kartu, která na tom byla o cosi líp, ale ne o moc. Ale taky jsem dostal (a do grafů) dávám sample přímo od AMD, který nikdo nerozebíral.

http://extrahardware.cnews.cz/sapphire-hd-7970-hlucnost-spotreba-pretakt...

Teď tu mám ještě 7970 OC od Sapphire, tak uvidíme, co se na tom změní.

A nějaké vysvětlení na to, jak můžete mít u přetaktované HD 7950 skoro stejnou spotřebu jako u 7850 OC?

Ještě na Davida, moc nerozumím tomu, proč tam vlastně dáváte i teploty s jinou pastou, ale nemůžete tam teda aspoň patlat na všechno stejnou?

+1
-2
-1
Je komentář přínosný?

Teploty byt podobne jako jinde mohou - dulezite je, jestli ty podobne teploty jsou pri podobnych otackach ventilatoru.

Nebo jinak, pokud jedna karta ma 75C pri otackach ventilatoru 2000 a druha karta ma teplotu 78C pri otackach 4000, tak se sptrbeba karet musi lisit o hezkych par desitek W.

+1
-3
-1
Je komentář přínosný?

Ale dá se předpokládat, že "stejná" referenční karta se stejným chladičem a se stejným biosem bude mít stejně nastavenou regulaci a při stejných teplotách bude obdobné či stejné otáčky, a nikoliv že na jedné z nich bude stejný chladič dokonce při nižších teplotách dvakrát výkonnější, aby se ta spotřeba mohla lišit o ty zmíněné desítky wattů, že?

+1
-1
-1
Je komentář přínosný?

Odvozovat spotřebu od teploty je prostě nesmysl, tím nic nedokážeš. Zatímco v jedné redakci může jít do chladiče vzduch o teplotě 19 °C, v druhé to může být 23 °C a ve třetí klidně 30 stupňů. V praxi stačí rozdíl 5 °C, aby se otáčky v zátěži změnily o desítky procent.

Teplota a spotřeba mají určitou souvislost, ale rozhodně to neznamená, že z jednoho údaje můžeš odvozovat druhý - zvlášť když je tu řada dalších proměnných, které se liší. To je prostě nesmysl.

+1
+1
-1
Je komentář přínosný?

Argument o okolní teplotě je jediný rozumný. Takže při jaké pokojové teplotě jste těch 78 °C naměřili?

Co se těch "šílených rozdílů" kvůli 5 °C týče, při 78 °C točí GTX 670 1980 rpm, při 81 °C 2220 rpm.

Tohle jako argument pro nižší teplotu při vyšší spotřebě prostě neberu, nehledě na to, že by to navíc mělo být přesně naopak, na těch 81 °C by měl být ventilátor výkonnější než při 78 °C a tudíž chladit víc.

V tomto případě je to přesně naopak, vy máte nižší teplotu a relativně ve srovnání s ostatníma kartama podstatně vyšší spotřebu.

Jen říkám, že za tím rozdílem nemusí být nutně grafická karta, může to být jakákoliv jiná kravina. Stačí aby deska s automatickou regulací napětí do procesoru pustila 1,33 místo 1,31 V a veškerá přesnost jde do pytle a takový rozdíl vám to může udělat (samozřejmě to závisí i na zatížení CPU). Stačí mít na pozadí puštěný browser s pár flashi a jde to taky do pytle. Přidejte k tomu, že v březnu máte v místnosti 21, teď 25, a jsme na kýžených 20 W rozdílu jen to fikne. Zkoušeli jste třeba za stejných podmínek teď přeměřit některou z těch karet, co tam máte?

Podle spotřeby v idle soudím, že tam máte puštěný C1E a EIST a snad i TurboBoost, zkoušeli jste vůbec, jak jen tahle volovina může v závislosti na náladě automatiky a tom, jaké napětí a frekvenci na procesoru nastaví, zamávat se spotřebou sestavy?

+1
+1
-1
Je komentář přínosný?

Jak píše správně Nalim, u teploty hodně záleží na tom, jak velký je teplotní gradient, alias (v případě grafiky) jak úspěšně ventilátor dokáže pomocí konvekce ochladit žebra chladiče (teplo vyzářené, jakož i teplo odvedené kondukcí deskou si dovolím zanedbat, i když chybějících pár cm2 na referenční GTX670 oproti "velkým" grafikám možná nějakou roli hraje).

Technicky pak souvislost mezi teplotou a tepelným výkonem je právě v účinnosti chlazení, tedy efektivitě odvodu tepla (teplo NEROVNÁ SE teplota) mimo jeho zdroj.

+1
-4
-1
Je komentář přínosný?

CO se týká HW tak ten se jim snad osekat povedlo, ovšem co se týká ceny tak tu nikoliv. Doba, kdy jsem byl ochoten každé dva roky vrazit 10k do grafiky dávno minula....

+1
+2
-1
Je komentář přínosný?

Te spotrebe nejak nerozumim.
Zatimco konkurencni web nameri pri zatezi spotrebu o 20W nizzsi nez HD 7950, tak vy namerite o 80 W vyssi? To je rozdil 100W to prece neni mozne vysvetlit jen tim, ze je nekde lepsi a jinde horsi kousek, nekde musi byt neco spatne.

+1
-2
-1
Je komentář přínosný?

Doplneni ... kazdopadne hlasuji pro premereni s jinym kusem 7950 a jinym kusem 670.

+1
0
-1
Je komentář přínosný?

Tohle samo o sobě normální je. HardOCP nebo Hardware.fr občas zveřejňují spotřebu v zátěži v různých hrách a rozdíly mohou být diametrální. Například v Deus EX má GTX 680 vyšší spotřebu než HD 7970. Naopak Anno 2070 dává přesně opačné rozdíly a HD 7970 v něm žere nesrovnatelně víc než GTX 680. Pak je řada her mezi tím, ale většina se co do spotřeby prostě "kloní" k jedné nebo druhé značce. HardOCP například v rámci čtyř her naměřil rozptyl mezi zmíněnými kartami 56 wattů. My z toho důvodu uvádíme pro všechny recenzované karty nejvyšší spotřebu, která byla naměřená přes celé spektrum testovaných her - nevybíráme si konkrétní hru podle toho, jak se nám líbí její výsledky.

+1
+3
-1
Je komentář přínosný?

Pokud jiz tak cinite tak mate palec nahoru :)

+1
0
-1
Je komentář přínosný?

Kazde architekture GPU jdou jine veci ruzne dobre. Neco jde lepe nVidii a neco AMD dle meho se od toho odviji ta ruzna spotreba v ruznych hrach.

+1
-2
-1
Je komentář přínosný?

Přesně proto to měřím tak jak to měřím. Měřit spotřebu jen v jedné hře či jednom testu znamená nadržovat tomu výrobci, který má pro hru lepší podporu či vhodnější architekturu. Ale proto také každé přeměření spotřeby znamená prohnat znovu všechny prováděné testy. A to jsem u téhle GTX 670 dělal 3x.

+1
-3
-1
Je komentář přínosný?

Toto by mohlo tedy objasnit i to, co se delo na konci/zacatku roku pri vydani HD79xx - ruzna spotreba karet. Presne to se delo a recenzenti si to vykladali ruznymi biosy. Ve vysledku biosy mohli byt OK, ale ten znacny rozdil v kolisani namerenych udaju na ruznych webech mohl byt prave mereni spotreby v ruznych hrach!! Tak to tedy vypada, ze by wattmetr mel byt zaply po celou dobu testovani karty a zapisovat max. hodnoty pri danych hrach - nasledne udelat prumer spotreby . Tim by se vyloucilo to, ze nekdo by vybral zamerne danou hru a ukazal spinu na nejakou znacku ohledne spotreby (prumerna spotreba). Potom by mohl byt jeste jeden graf (max. spotreba+udaj z ktere testovane hry - urcite by udaj byl pro kazdeho vyrobce v jine hre) ktery drive znazornoval furmark od ktere ho se odstoupilo, pac vyrobci aplikovali sve ochrany a automaticky se karta podtaktovala....

PS: jen tak dal:)

+1
-4
-1
Je komentář přínosný?

Nevysvětlí. Určitě ne dostatečně. Hele, tady jsou přeměřené tři stejné referenční grafiky z prvních várek a jedna se dvěma různýma pastama. Ve stejný den v zimě, za stejných podmínek. Rozdíly jsou skoro 80 W.
http://extrahardware.cnews.cz/sapphire-hd-7970-hlucnost-spotreba-pretakt...
Skoro bych řekl, že u těch 28 nm to skáče víc než obvykle v závislosti na kvalitě čipu. Jestli znáte lepší zdroj, kde by bylo porovnáno za stejných podmínek víc stejných 28nm karet, sem s ním.
Měřit špičky je naprd, špičku nemusí nutně udělat grafika, ale i procesor. Tím, že se to pak taková maxima zprůměrují, to o moc přesnější nebude.

+1
-3
-1
Je komentář přínosný?

Ano ke spicce se prida i CPU, ale ten by se teoreticky mel pridat jak pro AMD tak i k nVidii. Teoreticky by CPU melo snad bezet pro obe GPU stejne. Beru to tak, ze pokud je nejaka scena - tak je stejna pro obe karty a CPU musi poslat stejne mnozstvi dat. Tudiz pomyslna spicka by byla pro obe karty stejna.

Nepochybne co je napsano o post vyse je, ze nekdo nameril ruzne spotreby zavislosti na hre pro ruzne karty. Toto ale neodpovida tomu, ze by se jednalo o ruznou kvalitu chipu ci nejakou vetsi nachylnost na kvalitu u 28nm.

Ty jsi dal odkaz na spotrebu prave z jedne hry pro ruzne karty (jinych vyrobcu). Ja nemam moznost jak to vyzkouset pri ruznych hrach to musite udelat vy Pani redaktori :) Pokud mate nekdo z vas z redaktoru moznost testnout treba tu GTX 680 + HD 7970 klidne by jste mohli. Dokazali by jste tim hodne pokud by se to potvrdilo byl by to dobre potvrzeny objev nebo vyvratilo a bylo by ticho po pesine;)

PCtuning (3D mark vantage-extreme): - spotreba
GTX 680 - 353
GTX 670 - 323
HD 7970 - 365
HD 7950 - 346

Extrahardware (crysis): - spotreba
GTX 680 - 311
GTX 670 - 281
HD 7970 - 385,6
HD 7950 - 301,5

Diit: (nejvetsi spicka v nejake hre)
GTX 680 - 323
GTX 670 - 319
HD 7970 - 371
HD 7950 - 235 (saphire)

Z toho vseho je asi nejrychlejsi CPU u PCtuningu. Ty rozdily si myslim ze jsou vetsi nez rozdily danych CPU, ale to se muzu milit. Jeste jsem chtel hodit vysledky z DDW, ale na to mi nezbyl cas musim bezet nebo se zena .....

+1
-1
-1
Je komentář přínosný?

Speciálně na ten pct jsem včera koukal, obr tam měl předtím u hd 7970 spotřebu podstatně vyšší. Teď už standardně uvádí jako spotřebu Radeonů 7970 nereferenční HD 7970 twin frozr, která mu vyšla podstatně nižší.
http://pctuning.tyden.cz/hardware/graficke-karty/23679?start=15

A co se týče špiček u procesoru – ty nemusí nutně vzniknout kvůli hře a nemusí být nutně opakovatelné, neběží to ve sterilním systému, ale v běžných widlích, na kterých po startu běhá 50, 100, 200 procesů.

+1
-4
-1
Je komentář přínosný?

blbost, beru zpět, vyšší byl ten twinfrozr... bude někdy edit?

+1
-2
-1
Je komentář přínosný?

Tak abych se k tomu vratil ... kdyz se podivate na PC tuning a extrahardware tak kdyz se pokusime vyradit zravejsi CPU u pctuningu tak on ma vsude o 40W. To by mohlo dejme tomu byt rozdil v tech CPU. Tento jev plati u vsech napsanych karet krome HD7970 u extrahardware. U extrahardware plati pro vsechny ostatni karty -40W +-autobus, ale zahadne u HD7970 je spotreba jeste vetsi coz by byt nemela. Proto jsi myslim ze to mohlo byt vlivem BIOSU nebo prave danou hrou…pritom jinde to mohlo byt naopak. Musite to zkusit nekdo

DDworld (průměr z 5 her)
GTX 680 – 303 DCUII
HD 7970 – 314 DCUII

+1
-2
-1
Je komentář přínosný?

Poznámka k záverečnému zhodnoteniu.

Ak ste taky ako ja, že väčšina vami publikovaných údajov je španielska dedina, tak oceníte ľudské zhrnutie na záver :)

+1
+1
-1
Je komentář přínosný?

Tak jsem nevydržel a pořídil si novej komp s 7970 od Gigabyte (OC na 1GHz), Intel i7-3770 (bez K), desku Gigabyte Z77-D3H, SSD Intel 510 120G, 4x4G 1333 Patriot - vše nepřetaktované.

A mile mě potěšilo, že v Idle si vezme ~42W, v zátěži (Unigine Heaven vše na max) 200-230W. Zroj Frtron Aurum 500W.

+1
-3
-1
Je komentář přínosný?

Lol, hlavně že máš grafiku za 10000 a procák za 7000 ale desku si pod ně dáš takového mrzáka za 2700, tak tos mně fakt rozesmál. O zdroji radši ani nemluvim (vzhledem k sestavě a cenám komponent).

+1
+1
-1
Je komentář přínosný?

A nejdivnější na tom je, že mu to běhá, žejo. :-)

+1
-1
-1
Je komentář přínosný?

Já bych sice taky volil jinak (určitě ne GB a Fortron), ale co ti na tom vadí? Píše, že netaktuje, a tedy je mu putna, kolik fází deska má. Navíc z mé vlastní zkušenosti platí, že čím více kurvítek (čti přídavných řadičů apod. - výjimka jsou firewire řadič a pro někoho (mně ;-)) dvě gigabitové síťovky) deska má, tím více je náchylná k závadám a nestandardnímu chování (a jde to napříč všemi výrobci). I já tvrdím, že desku dražší než 5000 nemá moc smysl kupovat.

Vždycky, když vidím (modře) svítící desky olepené mnohdy úplně zbytečnými chladiči velkými jak desetinásobek mexického dolaru (namnoze ještě s infatilně-čínským designem), chce se mi blít. A pak si to koupí za 8 nějaký Lojza, který to nikdy nenataktuje..

+1
+1
-1
Je komentář přínosný?

Osobně vždycky kupuju procesor a k němu tu nejlevnější desku s požadovanou výbavou. Při upgradu měním oboje, stejně se mezitím změní socket a typy pamětí. Ještě jsem neměl desku přes dva litry, jednou dokonce jen za jedenáct set, a žiju s tím bez problémů. Dokonce běžně přitaktovávám, o nějakých 5-10%, jen abych se nestyděl. :-)

+1
-2
-1
Je komentář přínosný?

No tak je zase pravda, že jestli to za 2 roky vyhodí tak to asi vydrží. Ale přecejen deska dejmetomu za 4 litry by měla být kvalitnější, lépe chlazená (i nepřetaktovaná deska umí topit). Navíc když má takový rozpočet, no nic neříkám radši už. Mám ale taky odzkoušené drahé desky i ty poměrně levné a neměl jsem nikdy problém :)

+1
-2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.