Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Test: Sapphire Radeon HD 7770 - 28nm střední třída

Článek zajímavý, ale schází to podstatné - porovnání na stejných frekvencích. Je do očí bijící dokonce srovnávat standartní 4770 s OC verzí 7770 která má o stovky MHz víc na jádře i na pamětech a to podstatným způsobem zkreslí výsledek a z 4770 udělá totální sračku.
Je jasné že modernější architektura s více tranzistory bude lepší, ale při hodně podobných parametrech to nebude tak horké.

+1
0
-1
Je komentář přínosný?

DDR0: Ono je myslím i tak dobře vidět, že více než dvojnásobný výkon nelze zdůvodnit o třetinu vyšší frekvencí. Tzn. třetina z rozdílu odpovídá frekvencím a více než dvě třetiny architektuře. Hlavně je zajímavý rozdíl ve spotřebě ve 2D - tam se ATI/AMD podařilo dosáhnout poměrně brutálního rozdílu.

+1
0
-1
Je komentář přínosný?

o tom žádná, je jasné že o něco vyšší výkon nová architektura musí mít, ale takto ten test vypadá velmi nevyváženě, takhle to vypadá postavené tak aby dostal 4770 těžkou nakládačku. To doplnění by bylo velmi vhodné. Přeci jen silové parametry jsou dost podobné a vyšší výkon dá logicky v DX11, které ostatně HD4770 nemá. ALe typuju že v nejvíce rozšířených DX9 hrách by ten rozdíl nebyl velký.

+1
0
-1
Je komentář přínosný?

Ten test je naprosto v pořádku, autor hned na začátku uvedl "pohnutky", které ho vedly k takto pojatému testu.
Ber to třeba jako test, kam se mainstream od ATI/AMD dostal za tři roky :-)

... kdyby např. srovnal frekvence, tak by možná 4770 nedostala těžkou nakládačku ve výkonu, ale o to větší nakládačku ve spotřebě... prostě ty tři roky jsou znát minimálně ve výkonu ku spotřebě, kolik z toho dělá výr. proces a kolik architektura je pro uživatele v principu irelevantní...

Možná bych se přimlouval za větší test karet pro "běžné spotřebitele" mainstreamu, tzn. karet v relaci okolo cca 3500-4000 . Nějaké 7770, 6850, 6870 včetně srovnatelné třídy od nVidie.

+1
-5
-1
Je komentář přínosný?

tak zrovna u téhle třídy karet spotřeba nikomu žíly netrhá. Z článku to vyznělo tak že jde o porovnání architektur a na to je nejlepší když mají čipy co nejvíce podobné startovní podmínky. Ony ty frekvence mají na výsledku velký podíl protože 400Mhz na jádře a 1800Mhz na pamětech je už dost, to není nic kosmetického. Mnohem lepší, když už, by bylo srovnávat s 7750 na referenčních taktech, tam už ty parametry tak daleko od sebe nejsou.

+1
-2
-1
Je komentář přínosný?

Přesně jak píše Kecal. Lidi zapomínají na jednu věc, kterou ale opomíjet nelze: HD 7700 běží na vyšších frekvencích díky 28nm procesu. Pokud bys vzal HD 4770 a vyrobil ji na 28nm procesu, aby dosáhla stejných frekvencí, nevešla by se na ni 128bit sběrnice - pouze 64bit a výkon by paradoxně šel dolů bez ohledu na zvolené frekvence. A to je taky důsledek architektury. Tyhle vazby musí výrobce při svých dlouhodobých rozhodnutích brát v potaz; pouze určité kombinace parametrů jsou realizovatelné. Z tohohle hlediska je zbytečné vytvářet hypotetickou HD 4770 na 1 GHz (protože ji reálně nejde vyrobit) a stejně tak hypotetická HD 7700 na 40nm procesu by zase byla tak velká, že by se na ni bezproblémově vešla 256bit sběrnice, která by jí nějaký výkon taky přidala.

+1
-2
-1
Je komentář přínosný?

nonooo - ked uz tak je to presne 53% navysenie frekvencie (zo 750 na 1150), co teda pekne vzdialene tej tretine ty demagog.... ;o)

+1
0
-1
Je komentář přínosný?

Ale oni mluví o rozdílu taktů referenční 7770 a OC verze 7770, čili tam je rozdíl v řádu jednotek %, píše se a říká okolo 10%.
7770 -> 1000Mhz GPU a 4500 DDR5
7770 OC -> 1150 Mhz GPU a 5000 DDR5

+1
+1
-1
Je komentář přínosný?

naozaj? to vazne nevies citat?

`Je do očí bijící dokonce srovnávat standartní 4770 s OC verzí 7770`

+1
-2
-1
Je komentář přínosný?

Konecne sa niekto chytil testovania grafik napriec generaciami. Skoda ze nebola skor testovana 5770 (6770 by asi bola oproti nej slabsia). Dobuducna ak by ste testovali napr. Nvidiu, tak skuste vybrat taku triedu kariet aby sa tam vosli aspon 3 generacie (napr. 560,460,260) - bolo by to urcite zaujimavejsie a viac by to vypovedalo o pokroku samotnych cipov...

+1
0
-1
Je komentář přínosný?

Jak vidím ten nárůst spotřeby s druhým monitorem tak mě tak napadá - je zerocore tak chytré, že pozná když druhý monitor vypnu a sníží spotřebu jakobych měl zapojený jen jeden? Asi ne co? Já totiž zapínám druhý monitor jenom když makám ale lézt do CCC a vypínat ho i tam jsem línej, akorát ho vypnu tlačítkem.

+1
0
-1
Je komentář přínosný?

Nastav si to na profily -> klavesove skratky. Ja to tak pouzivam na notase s XGP.

+1
0
-1
Je komentář přínosný?

Uz ji mam v pocitaci a jsem spokejeny. Jde videt ze ovladace jeste nejsou vyladene, ale verim ze to se brzo zmeni. Na zahranicnich serverech si stezovali na vyssi cenu ($159 za zakladni model), ale uz po dvou tydnech tajou ledy - nektere OC verze maji $10 slevu a zakladni model od Sapphire nabizeli na jednom eshopu dokonce za $129 - jsou to sice ceny v USA, ale snad se tento trend promitne i v CR.

+1
-6
-1
Je komentář přínosný?

a opet ta `moderna` choroba - narvu tam hdmi a displayporty, pricom ako zastupca 99% pouzivaneho vga/dvi/2xdvi je jeden ubohy kombo konektor...

karta nevyzera byt `low cost` za kazdu cenu (podla chladica), tak by ich ten dalsi konektor za par centov zabil??? (namiesto idiotskych redukcii)

aj ten plosak si mohli dat namahu adekvatne skratit -> zato nebude rychlejsia ked ma tak velky ;o)

premrstenu cenu nekomentujem - to sa snad casom upravi...

+1
-2
-1
Je komentář přínosný?

Já Ti nevím, ale nemám pocit, že bych patřil k 1%?.... je rok 2012 a analogový VGA (D-sub) je při dnešních rozlišeních snad již pasé (pro uživatele mainstream grafik)... 2xDVI OK beru, nicméně osobně proti 2x DP nemám nánitek :-)... a to HDMI bych s klidem zkusil poslat na TV...

+1
0
-1
Je komentář přínosný?

vsak v poriadku, nech je tam aj 5x DP ;o)

ale 1x DVI???? 8-O

to je fuk, ze je rok 2012, v prevadzke je strasne vela monitorov, co maju len VGA - uznavam argument, ze z HDMI sa da redukciou spravit DVI-D - no analog???? -> preto by pomohlo aj aspon to 1x VGA,
najme ked spuste ludi zostane po kupe noveho monitora nejaky iba s VGA, mozno by ho vyuzili pripojenim ako sekundarny a takto mozu si ho pripojit tak do pr..le

k opacnej strane - napr. ludia co by si radi pripojili dva 30" su tiez v pr...li

2x 2 kanalove DVI konektory - ako to bolo donedavna standard je najuniverzalnejsie riesenie, skutocne ma velmi drazdia tieto snahy `socialnych inzinierov` o prevychovu zakaznikov :o(

+1
-1
-1
Je komentář přínosný?

2x 30" LCD bez problémů - přes DP -sice pokud nemají ty LCD DP, tak redukce DP-Dual Link DVI je dražší, ale to při 2x 30" LCD už je pakatel.
VGA před DVI, a cokoliv ostatního přes DP a HDMI.
Nevím stále kde je problém.

+1
-1
-1
Je komentář přínosný?

pozri sa na svoju aroganciu - zato ze som si kupil drahu 30ku tak je to `pakatel` zacalovat za nejaku haraburdu???

vies preco som si kupil 30ku? lebo ociam da to najlepsie co je dnes mozne... ta cena je adekvatna...

co mi da posr..na redukcia? v lepsom pripade to co som uz davno mal mat a mal, v horsom problemy a vyhodene peniaze (aktivne redukcie su svet problemov sam o sebe)

drzost vyrobcu bezdovodne `vychovavat` svojich zakaznikov (vlastniacich na 99% DVI alebo VGA) na takejto beztak v terajsej situacii predrazenej karte je jednoducho poburujuca.
(a ze cena je problem priznal dokonca aj AMDfilny DDworld ;o)

mna ako potencialneho zakaznika zatial stracaju - cena premrstena, zbytocne obrovsky plosak zhorsujuci pridenie vzduchu (zaujimave ze tu nesetria) a k tomu `mily bonusik` v podobe nemoznosti bezproblemoveho pripojenia dlink DVI + VGA naraz :o(

GPU samotne je vyborne - bohuzial cena, odflaknuty plosak a socialne inzinierstvo ho (aspon zatial) ZABIJAJU!!!

+1
-1
-1
Je komentář přínosný?

VGA rozhodně pasé není ani při dnešních rozlišeních. Mám doma tři monitory s rozlišením 2048x1152 a pouze VGA vstupem, což znamená, že na tuhle kartu napojím tak maximálně jeden. Navíc, při rozlišeních nad 1920x1200 se HDMI nechytá (teda, teoreticky by se chytalo dvoukanálové provedení, ale to jsem viděl snad jenom ve specifikacích na Wiki), takže s tímhle rozhraním se mohou jít výrobci s dnešními 23"+ monitory klouzat. Sice existují "aktivní" redukce z DP na VGA, ale zase končíme u max. podporovaného rozlišení 1920x1200 :((( VGA možná na dnešní dobu postrádá některé vymoženosti digitálního přenosu dat, ale pro lidi, kteří chtějí mít "pořádnou" plochu pro práci a nechtějí do toho investovat desítky tisíc (protože je raději investují do něčeho jiného), je to při maximálním podporovaném rozlišení 2560x1600 ideální volbou.

+1
-1
-1
Je komentář přínosný?

Nevím, kde jsi vzal ty omezení na DP a HDMI 1920x1200?
Na kartě je HDMI specifikace 1.4... takže by neměl být problém :-)
DP? ... hmm, zkus se podívat např. čím se krmí zobrazovadla u Mac-a... a jaké mají rozlišení...

Ad monitory s D-sub vstupem... pokud jsou LCD, tak pěkně děkuji za zbytečný D/A převod (na GK) + kabel + A/D převod (monitor)... co z toho vyplývá je snad každému jasné (impedanční přizpůsobení, kvantizační šum, Shannonův teorém...). Navíc vyjma Matroxů jsem již dlouho neviděl pořádný analogový výstup :-( ... nicméně netvrdím, že se nějaký výrobce občas nesnaží... většina to odrbává...

+1
-1
-1
Je komentář přínosný?

DP jako takový není omezený rozlišením, možná jsem se špatně vyjádřil, psal jsem, že všechny redukce (alespoň ty, o nichž vím a jsou dostupné) pro převod z DP na VGA mají maximální rozlišení 1920x1200. Co se HDMI týče, od verze 1.3 by sice mělo být možno z něho vytřískat více než 1920x1200, ale zatím jsem žádnou implementaci v reálu neviděl (HDMI 1.4 jsem ještě v ruce neměl), že by to bylo pouze tím, že se mi nedostal do rukou ten správný HW? A nebo je to, jak říkáš, pouze odrbávání zákazníků ze strany výrobců.

+1
-1
-1
Je komentář přínosný?

cele je to o tom, ze zopar fanatikov nedokaze pochopit princip, ze preco by mala vecsina uzivatelov onanovat s kopou AKTIVNYCH redukcii, ktore maju svoje vlastne zaludnosti obmedzenia a problemy, len aby.... aby co vlastne??? 8-O

aku ma logiku kriplit vlastny vyrobok? mozno bude v buducnosti DP tak bezne ako dnes VGA a DVI - ale v tej buducnosti uz bude karticka 7770 retro-vykopavka!!!

+1
-2
-1
Je komentář přínosný?

Jeste bych mel otazku na autory clanku - tech 25C v klidu je s termalni pastou z vyroby, nebo je tam neco jineho? U mojeho Spahhire neOC modelu se totiz v klidu nikdy pod 30C nedostanu.
diky

+1
-1
-1
Je komentář přínosný?

Jo, ty Frekvence GDDR5-RAMek, by asi šli Snížit, ale vzhledem, k tomu, že se, udává, jen Jedno na-pěti, a to no tak, více viz. tady. http://www.techpowerup.com/vgabios/67374/Club3D.HD5670.512.091223.html ,tak at o tak, si to, třeba, u-žijte, v BIOSu, Grafických Karet, jak tady, vidíte, asi, tak, a vzhledem, k tomu, že to, Na-pětí, je Extrémně, snížené, u té Grafické Karty ATI Radeon HD4770, jak jsem koukal na http://www.techpowerup.com ,tak i kdyby, se snížila, Frekvence, těch GDDR5-RAMek, na té ATI Radeon HD4770, tak, už stejně, by spotřeba, ne-klesla, asi skoro, vůbec, protože, na-pájení, by stejně, muselo, zůstat, asi tak na 0,9 Voltech, a když jede, Grafika na-plno, ta Grafická Karta ATI Radeon HD4770, tak má, asi tak 1,263 Voltů, a to, no tak, více viz. tady: http://www.techpowerup.com/vgabios/54001/Asus.HD4770.512.090415.html ,tak a to tak, si to, třeba, u-žijte, oproti, té, novější Grafice, ATI Radeon HD5670, takže to, už by, asi ne-šlo, no jo, no, tedy! :-)

+1
-3
-1
Je komentář přínosný?

jste vypnuli Ládíkový filtr? :D

+1
-5
-1
Je komentář přínosný?

Já bych ho nechal, po ránu dobré počteníčko :-)

+1
+7
-1
Je komentář přínosný?

Příspěvek pro výstrahu zůstane, ale uživatel byl zablokován. Tenhle mor fakt podporovat nebudeme.

+1
-1
-1
Je komentář přínosný?

Díky.

+1
+1
-1
Je komentář přínosný?

Potěšil by mne, kdyby redakce do testů lowendových/mainstreamových karet zařadila i testy pasivního chlazení. Myslím si, že pořízení Accelera S1 Plus by neměl být takový problém, a výsledky teplot jednotlivých karet při zcela pasivním chlazení by mohlo spoustu uživatelů zajímat. Navíc by se daly výsledky použít k samotné recenzi Accelera. Zrovna v případě téhle konkrétní OC edice HD 7770 by mne zajímalo, jak by vypadaly výsledky bez použití jakéhokoliv "větrníku".

+1
-2
-1
Je komentář přínosný?

Rád si čtu recenze grafik, ale tato recenze se mi opravdu nelíbí. Krom toho, že tu chybí kterýkoliv ze zástupců konkurence této grafiky (to může být vaše rozhodnutí), tak zvláště v závěru vaříte z vody.
Jak můžete dospět k "+ velmi dobrý výkon za aktuální cenu", když nikdy není srovnání s konkurencí?(6850 je stejně výkonná a podstatně levnější; 6870/GTX560 jsou jen o chlup dražší a výrazně výkonnější). To samé platí o "+ OC potenciál" - v článku o něm není ani slovo, ale přesto jste to byli nějak schopni vyvodit. Opravdu pochybuji, že OC varianta má nějaký výrazný potenciál k dalšímu přetaktování(řekněme více, než 10-15%, které zvládne skoro každá grafika). A co je na čtyřech výstupech "bohatého" mi taky uniká - má je každá karta (mají i některé karty za 700Kč, kolem 3000Kč standart). Ale i kdyby každá z těch tří věcí byla pravda - podstatné je, aby to bylo v článku ukázáno.
Ke grafům - přijdou mi hodně nepřehledné, pokud i na mé třicítce musím skrolovat, abych viděl celý graf, je něco špatně. Zkuste to aspoň rozdělit třeba podle AA.

+1
-2
-1
Je komentář přínosný?

A opět chybí test OpenGL a OpenCL.
AMD v něm zakazuje recenzentům testovat? Testují se pořád stejné hry a jediná technologie, jakoby nic jiného ani neexistovalo.

+1
-4
-1
Je komentář přínosný?

A ještě dodám. Proč není Unigine otestován i v OpenGL?
Tím by se ukázalo jak je na tom karta nejen v DX.

Pro inspiraci, nějak takto:

http://www.tomshardware.com/reviews/ubuntu-oneiric-ocelot-benchmark-revi...

+1
-2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.