Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Test: GeForce GTX 480 - DirectX 11 královna od Nvidie, 2. část

Možná by bylo bývalo lepší pro tu spotřebu CPU ve Furmarku namísto spotřeby při 8vlánkové zátěži a následného odhadování "co by, kdyby" zatížit prostě CPU prostě jenom jedním vláknem, ne?

+1
+4
-1
Je komentář přínosný?

Můžu vám říct že mám Radeon 5970 a i ten při náročných hrách nebo při Furmarku produkuje velmi hlasitý zvuk - nalejme si čistého vína, je to takový menší "vysavač". Ovšem to co vyluzuje GTX 480, to skutečně předčí vše :-)

+1
+1
-1
Je komentář přínosný?

A kde je mainstream?Karty za 10 tisic nikoho nezajimají.Navic aby si k tomu clovek poridil elektrárnu a vodni chladící okruh.Mainstream zas možná až za pul roku.

+1
0
-1
Je komentář přínosný?

Mainstreamové Fermi vyjdou údajně nejdříve v červnu, takže počítám tak listopad - prosinec :-)

+1
-4
-1
Je komentář přínosný?

2 "David Ježek": Kartu s dvema monitory jste merili pri zapnutych monitorech jenom fyzicky nebo i ve windows? Znamemu treba 5770 dela to, ze se brutalne zvysi spotreba uz jenom tim, ze tam neco pichne, ikdyz je to v OS zakazane a nic se nikde nezobrazuje. U ATI by to mohly resit ty zminene nove ovladace, nevim, ale je to svinstvo. Mam jako druhy monitor projektor a jako by se mi nechtelo porad chodit a fyzicky ho vypojovat, abych usetril 80W ....
Az budete testovat ty 5xxx na 10.3 ovladacich, mohli by jste zkusit, jestli uz spravili ten trapne smesny bug, kdy to neslo provozovat na CRT (mysleno tak, ze neslo nastavit vic jak 60Hz) ...
No a samozrejme, jestli budete pretestovavat, tak zkuste i ty dva LCD (jen zasunout kabl a pak i se zaplym rozsireni plochy).
Pokud spravili u ati aspon ten bug s tema 60Hz, tak bych do ni znova sel, ale nerad bych ju zase vracel:)
I za cenu toho, ze bych musel pripojit projektor pres drahy HDMI (a doufat, ze aspon tak nebude tearovat).
Ikdyz jsem se zaprisahl, ze ATI uz nikdy do ruky diky tristnim ovladacum nevemu a pockam na nvidiu, tak testy me pomalu vyvadeji z omylu a zase zacinam o ati uvazovat :(

+1
0
-1
Je komentář přínosný?

2 LCD samozřejmě testujeme zapnuté s rozšířením plochy :-)

+1
+1
-1
Je komentář přínosný?

Njn, tak jestli to budete pretestovavat, tak PLZ zkuste s disablovanym monitorem ve WIN, jenom pripojit kablik:)

+1
-2
-1
Je komentář přínosný?

Keby Fermi bola vyšla pred pár mesiacmi, pred zimou, tak by sa dala využiť na ohrev vody alebo ako centrálne vykurovanie ;-)

+1
0
-1
Je komentář přínosný?

Nvidii jsem našel za 12K, ale kde prodávají radeon 5870 za 7200,-?

+1
0
-1
Je komentář přínosný?

V bazaru :-) ja ji viděl tak cca kolem 9,5 kKč

+1
+2
-1
Je komentář přínosný?

3D výkon zas tak velké plus nebude. Co jsem prolézal net, tak je Fermi oproti 5870 v průměru jen o cca 10-15% rychlejší. Samozřejmě někde i víc, ale taky jsem někde viděl test, kde byla dokonce pomalejší.

A že by šlo o "současnou architektonickou špičku", taky nevim ;-) Zdvoj až trojnásobit (nevím teď kolik přesně) počet tranzistorů, abych vyrobil GPU aspirující na sporák, to vše při výše zmíněném nárůstu výkonu... to mi jako špička nepřijde.

+1
+5
-1
Je komentář přínosný?

Ja myslim, ze tady je vyhodou nvidie to, ze miva mensi propady vykonu (FPS neklesa behem hrani tak hluboko) jako u radeonu, myslim, ze to bylo videt v grafech v prvni casti recenze.
Kazdopadne ale teplota a hlucnost je tristni a to mam nvidii rad, uvidime mainstream a pripadne die shrinky casem, treba se z toho nvidii jeste podari vyrobit uchazejici HW.

+1
+1
-1
Je komentář přínosný?

tiez si myslim ze casom z tejto architektury bude spicka. Proste velky skok, mensia revolucia v jadre. Prve iteracie trpia skor deckymi chorobami, neskor sa prejavi vyhoda zmeny architektury.

+1
0
-1
Je komentář přínosný?

Mno nevim. U intelu se taky cekala revoluce :-) Jediny "skok" vidim v poctu tranzistoru. Pod pojmem špičková architektura si představuji něco co má poloviční (bo alespoň stejný) počet trazistorů a dvojnásobný výkon.

Zatím ji pouze nadopovali steroidama aby předběhla konkurenci. Zbývá jen doufat. že ji před cílem netrefí šlak.

+1
0
-1
Je komentář přínosný?

Tak ten prepad vykonu sa tyka prave nVidie. Za posledny rok som mal moznost otestovat cc 20 kariet predchodzich generacii a VZDY bol vykonovy skok u nVidie podstatne vacsi ako u ATI. A to nie som fanATIk, mam 9800GTX+.
Skusal som rozne modely HD3800+, HD4600+, HD4800+ z nV to boli 9600+, 9800+, GTX200+.
Spicky vykonu jasne vyssie u nV, ale pady vykonu podstatne mensie u Radeonov.

+1
0
-1
Je komentář přínosný?

Já myslím, že myslel nové nvidie, GTX 470/480, kde to je trochu jinak, také zvládají celkem dobře vyšší AA, a mám pocit, že dříve na tom byly zase Radeony ve vysokém AA lépe.

+1
0
-1
Je komentář přínosný?

V podstatě máš do jisté míry pravdu; kdyby ATi se svojí architekturou udělala čip těchto rozměrů (330mm² oproti 530mm²), byl by minimálně o polovinu rychlejší a všichni by se na to koukali jinak. GF100 není technologicky špatná, ale je to v podstatě obdoba R600. Ta byla svojí architekturou postavenou kolem ring-busu technologicky velmi zajímavá a v mnoha ohledech dosud nepřekonaná, ale k čemu to je, když to s sebou nese zabugovaný produkt s vysokou spotřebou, hlučným chlazením - a výkon se nedostavuje... Jak dobrá nebo špatná je architektura Fermi imho ukáže 28nm proces...

+1
0
-1
Je komentář přínosný?

Je to strašně mizerná topologie, málo SP mnoho tranzistorů velký čip a ještě větší spotřeba. Pokud to Nvidia překope na 28nm pak ubohému výkonu 1,4TFlop/s nepřidá, čip bude poloviční, ale bude stát ne proti 2,7TFlop/s výkonu AMD RV870, ale proti 5TFlop/s výkonu AMD RV8XX.

Pokud to Nvidia celé zdvojnásobí tak bude tam kde je. Není z toho žádné rozumné východisko. Vše zahodit a začít na zcela nové topologii, ale na té se děla cca 4roky a tu již zřejmě nebude silná Nvidia, ale bezvýznamná firmička, neboť většina GK bude součástí čipových sad či procesorů a sólo GK budou mít bezvýznamný podíl na trhu.

+1
-7
-1
Je komentář přínosný?

ke spotřebě..... jestli fermi žrala při vašem testu 263Wattů, kolik žrala tím pádem HD5970, když v tabulce máte hodnotu o 100W nižší? 180Watt? myslím, že ta spotřeba fermi bude přece jen DALEKO horší, nedovedu si představit že by 5970 žrala tak málo

+1
0
-1
Je komentář přínosný?

No alespoň si toho konečně už někdo všimnul, že TDP Fermi je evidentně o dost vyšší než udávaná specifikace. Dle mého je TDP tak okolo 280W, což by také potvrzovalo fámy, že GTX480 byla na poslední chvíli před vydáním přetaktována na 700/1400Mhz k čemuž bylo zapotřebí zvýšit napětí čipu (a tím i jeho spotřebu).

+1
-1
-1
Je komentář přínosný?

to že nvidia udává nižší tdp víme už dávno.... např.:
http://www.ddworld.cz/aktuality/graficke-karty-gpu/skutecna-spotreba-akt...

ale spíše mě zaráží vypočtená hodnota spotřeby zde na diit.cz protože pokud má mít hd5970 tdp 295W, běžně žere (dle grafů na ddworldu) 240W tak GTX480 NEMŮŽE žrát POUZE 263 wattů, když v grafech zde žere celá sestava o 100Watt víc.... jako osobně bych tipl tu reálnou spotřebu klidne i na 300Watt, protože jak jsem psal předtím, 5970 aby žrala jen cca 180Watt (263 -100*83% účinnost zdroje) je prostě naprostá blbost....

+1
-1
-1
Je komentář přínosný?

Vypadá to tak nereálně, že tomu taky nemůžu uvěřit. Sestava se žravou 5970 je v zátěži o 100W úspornější a to má 5970 oficiálně max. reálnou spotřebu 294W. Že by GTX480 žrala skoro 400W? I kdyby "jen" 350W...

+1
0
-1
Je komentář přínosný?

já nad tím právě dumám a lezou mi z toho možné 3 výsledky...
za prvé, někdo se kdysi dávno sekl při měření spotřeby radeonů, protože pokud vím diit teď radeony na test neměli....
za druhé, někdo se sekl při výpočtu spotřeby té gtx480 a reálně je to o dost víc než odhadovaných 263Watt ve článku.
za třetí, neni NIKDE ve článku uvedena metodika měření spotřeby, což beru jako chybu, protože takhle bychom mohli porovnávat jablka s hruškami a tím pádem vzniká otázka, jestli se tato metodika nezměnila a nezměnily se tak podmínky u testu této nv a dřívějších radeonů.

jiné vysvětlení spotřeby gtx480 vs hd5970 mě nenapadají, protože jestli je graf správně a váš výpočet žravosti této nové NV také, tak 5970tka žere tak jak TDP hd5870, tedy cca 180Wattů...

+1
0
-1
Je komentář přínosný?

spotřeba je v testech měřena už roky stále stejně. ostatně vždy je v grafu napsáno, že jde o spotřebu celé sestavy a v ní se vždy mění jen grafika. takže porovnání celkových spotřeb sestavy mezi 5970 a 480 je objektivní údaj ze stejného wattmetru.

co se týče 263W výpočtu, pak ten je záměrně v recenzi velmi porobně popsán, aby z něj každý pochopil, že jde vůči GTX 480 o lepší možný propočet, který tolerance a přesnosti měření používá v její prospěch. Je tu údaj říkající, že karta umí vzít nejméně 263W, ale nijak nevylučuje, že je to za jistých okolností více.

+1
-1
-1
Je komentář přínosný?

co se týče měření, že jde o celou sestavu je mi jasné, že se mění jen gpu také, ale nevím zbytek... třeba za pomoci jakých nástrojů, nevím, možná jsem kdysi nějakou recenzi nebo článek kde to bylo přehlédl a teď ze sebe dělám vola, ale jestli to někde napsané máte tak do příští nějaké recenze to pro lidi jako já radši nalinkujte ;-) vyhnem se tak nedorozumění :-D

a cose týče té žravosti... ano, beru to tak že je to odhad pro gtx480 nejpříznivější, avšak vzhledem ke grafu jste nevzali v potaz žravost toho dvoučipového radeonu. ono je to opravdu vtipné když odhad je 263, ale když beru v potaz i kolik si odkáže říct hd5970 (a to podle jednoho testu na xbitlabs v occt či jak se ta upravená verze furmarku jmenuje) až 350Watt (SAMOTNÁ GPU!), tak potom nevím proč v grafu má sestava s ním hodnotu o 100Watt nižší od Nv...

+1
+8
-1
Je komentář přínosný?

Hele projel jsem si testy i jinde a opravdu mají sestavy v zátěži s GTX480 o cca 100W vyšší spotřebu než s hd5970. Těch 263W teda můžeme brát jen jako úplně hodně extra moc optimistickou hodnotu:). Testy s furmarky a HD5970 nepočítám. Reálná spotřeba GTX480 se 250W nebude blížit ani po vylepšení výrobního procesu. Tohle nvidia dost přehnala a podle mě ji původně chtěla prodávat na nižší frekvenci.

+1
0
-1
Je komentář přínosný?

Přesně tak, zřejmě měla na trh jít s nižší frekvencí, ale pak by přišla i o nějaký ten výkon (50Mhz = cca 4%). Takže zřejmě chlapci přitlačili na napětí a takt navýšili na 700Mhz. Se zvýšeným TDP se zřejmě už pak nikdo nezaobíral, natož aby předělávali chladiče.

+1
-1
-1
Je komentář přínosný?

Chtělo by to nějakou podtaktovanou "UC" edici:-) Se slušnou spotřebou a teplotami:-)

+1
-1
-1
Je komentář přínosný?

Ještě mne napadá jedna možnost, že CDR/DIIT dostalo hodně povedeného Radeona 5970, ale to by byla náhoda jak sviň.

+1
+2
-1
Je komentář přínosný?

spíš bych řekl že se ta grafika nudila... nevím.... možné je šecko v dnešním deštivém počasí... :-D

+1
-1
-1
Je komentář přínosný?

TDP != spotreba

Bolo by fajn, keby ste si to uvedomili.

+1
+1
-1
Je komentář přínosný?

O to tu jde. Pokud reálná spotřeba překračuje TDP neboli u nvidie Maximum Graphics Card Power tak to už dost smrdí.

+1
-6
-1
Je komentář přínosný?

"test pod třemi hlavními rozhraními (CUDA, DirectCompute, OpenCL) dává velmi odlišné výsledky a test tak považujeme za zcela nepoužitelný"

Uff to je perla. takže když vám test v OpenGL vyjde naprosto rozdílně od testu v DirectX11, protože ovladač pro jedno rozhraní je mnohem lepší než pro to druhé tak je ten test "naprosto nepoužitelný" ? Samozřejmě, že v proprietálních rozhraních vyhraje HW výrobce. O něčem jiném je test OpenCL, ale i tam záleží na tom, co testujeme a lze snadno udělat z jedné strany vítěze.

+1
0
-1
Je komentář přínosný?

Opravdu cenný a zajímavý test. To, že nvidia neuvádí výkon v GFLOPs považuji za ubohost. Ati ho uvádí, takže nevím proč by ho nemohle uvézt i nvidia. Vlastně vím - přejmenovávací marketing, snaha podvádět zákazníky a neschopnost poučit se z chyb(v tomto případě "like it big"). Každý chvilku tahá pilku, ale bohužel když AMD nebo Ati je v krizi, tak mě narozdíl od nvidie nerozčilují...

+1
-1
-1
Je komentář přínosný?

Viete mi povedať načo je dobré v grafike double precision? Okrem technických výpočtov. Ťažia z toho dnešné hry, prípadne programy, alebo je niečo chystané?

+1
-2
-1
Je komentář přínosný?

Ne, netěží, ale mnoho zastánců toto vyzdvihuje jako nemalou výhodu při porovnávání s ATI - tedy nyní už v minulém čase, byla to marketingová výhoda pro zajištění předobjednávek....

+1
0
-1
Je komentář přínosný?

S tímhle se musím pochlubit. Vcelku mě to pobavilo
http://kecy.roumen.cz/roumingShow.php?file=nVidia_Grill.jpg

+1
0
-1
Je komentář přínosný?

Fešnej grill a jako bonus zobrazovadlo. Zajímavý nápad, třeba se bude "Thermi" líp prodávat jako grill.

+1
+1
-1
Je komentář přínosný?

Ad spotřeba
Jestli je pravda, že teplota v místnosti (čipu) ovlivňuje zásadně spotřebu, nemůže se do porovnání promítnout to, že sestava v různých teplotách při různých měřeních s různými grafikami žere různě a rozdíl tedy není způsoben jen jinou grafickou kartou?

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.