Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Sapphire Radeon R9 285 OC Tonga v testu

Hlavním dojmem nad touto kartou budou asi rozpaky - podle materiálů se staví nad GTX760/670, ale jen o chlup a odpovídá tomu i cena na pixmanii - cca 6300Kč.
Podle mě si žádné ocenění nezaslouží, je to taková mírná evoluce a šedivý průměr. AMD se opět moc nepředvedlo.

+1
+6
-1
Je komentář přínosný?

S ohledem na to, že to je zaváděcí cena, která rychle klesne, to vidím naopak jako celkem dobré řešení, které "ruší" jedinou výhodu (Ok, nvidiáři ještě budou tlačit CUDA, ale to už není přímo o HW) co doposud nvidie měly, a to nižší spotřebu. A to při zachování plného setu featur, včetně DP instrukcí. O funkcionalitě VCE a spol. nemluvě.

+1
-4
-1
Je komentář přínosný?

no a je tu další podstatná věc - dříve byla u červeného tábora v módě úspornost a jsem hodně zvědav co řeknou na 256bit kartu co má spotřebu v zátěži jako 290 s 512bit sběrnicí. A moc se mi nechce věřit že na ehw kde si s tim dali dost práci by udělali chybu.

+1
-9
-1
Je komentář přínosný?

„dříve byla u červeného tábora v módě úspornost"
To bylo jen v době Thermi, kdy spotřeba-hlučnost-teploty dosáhly už mírně úchylných dimenzí a nvidioti to většinou dost hloupě bagatelizovali.

http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/9/
Tady je spotřeba proti 290 nižší o skoro 100W. Asi vliv nějakého OC nebo čeho.

+1
+3
-1
Je komentář přínosný?

usuzuješ z testu OC karty, která má BIOS nastaven zřejmě úplně jinak. Zdejší Sapphire má spotřebu změřenou jako 340W, takže z toho bych taky vycházel.

+1
-16
-1
Je komentář přínosný?

jednak se jedná o kartu s kosmetickým oc a jednak k tomu má MSI dobrý důvod - opět špatně fungující PT, tak to nastavili tak aby karta držela frekvenci.

+1
-7
-1
Je komentář přínosný?

Jen jestli to tentokrát soudruzi z MSI nedovrtali, soudím-li z testu zdejšího (Crysis), tak je to 30,7 FPS u MSI versus 47FPS u Sapphire (ok, EHW má 2560x1600, zato ne plné nastavení "very high" a SMAA, zde je jen 2560x1440, zato plné nastavení a jen FXAA - tedy ne zcela srovnatelné nastavení), tak je to powertune, nepowertune plusminus plichta.

A když jsou i ostatní spotřeby jiných karet u obou testů v korelaci, tak mi to prostě nedá, a domnívám se, že MSI to tentokrát nezvládlo.

+1
-6
-1
Je komentář přínosný?

no u toho grafu mi chybí informace zda je to spotřeba samotné karty a nebo zda celého systému...

+1
-2
-1
Je komentář přínosný?

nojo, jenze spotrebu karet se kteryma bude R9 285 souperit jeste nezname, GTX760 souperem vpodstate neni, neb bude za rekneme mesic dva nahrazena

to co je hodne videt je spise fakt ze nastupce v podani R9 280 je jen o chlup mene vykonnej a zere vpodstate stejne, kdys si projdes testy na webech kde maji v testech i R9 280 a nejlepe jeste ty kde testuji i stejne edice od stejnych vyrobcu tech karet, tak zjistis ze jim to vychazi vykonove na 3% ve prospech 285, spotrebou na 1% ve prospech 285 a cenou 8-12% ve prospech 280

+1
-7
-1
Je komentář přínosný?

aha, už se hraje na zelené karty, které "budou" uvedeny? ;-)
Srovnávat výprodejové 280 se zaváděcí cenou 285, really? ;-)

+1
-10
-1
Je komentář přínosný?

dobre tak si to srovnej teda s tou GTX760, a jak to dopadne? ze vykonostne je to +- plichta, spotrebou je to ve prospech GTX760 a cenou je to momentalne +- plichta, pomohl sis nejak?

no prave ona vyprodejova 280ka je dnes mozna lepsi kup nez prave nova 285ka, cifry proc jsem ti napsal vejs, jenze AMD neprodava sve produkty do karet co budou na trhu mesic, takze musi pocitat s tim ze do par mesicu jim pribude konkurence, a pokud ty s tim nepocitas, tak s tim holt nikdo nic nenadela

odhaduju ze nebudu sam kdo ocekaval ze R9 285 prinese alespon o 20% vetsi vykon nez 280 kterou nahrazuje

+1
-5
-1
Je komentář přínosný?

Tak já vidím několik dalších výhod, např. velmi funkční HW enkodér videa a komplet (neořezaný) výkon (i když nejsem miner kryptoměn) a za to mi ten rozdíl cca 30-40W stojí.

Nevím cos odhadoval ty, ale myslím, že se všeobecně hovořilo o tom, že to má být replacement 280. A tím ta karta taky je. Cena při uvedení je vždy vyšší, ale s postupem doby (až se doprodají staré 280) spadne, už jen proto, že ty karty musejí být výrobně levnější (recyklace chladičů, užší sběrnice). Zaklínat se zatím neexistující konkurencí, to se hodí když zrovna nvidia je ve skluzu, obráceně se na to podle některých nehraje, takže hrajme rovinu i nyní a berme to co je, tj. 760. Za měsíc, dva či tři se to zase změní, 285 zlevní a nvidia uvede nové karty, pak zase bude mít smysl reálně něco řešit a poměřovat.

+1
+2
-1
Je komentář přínosný?

Povedzte mi vojin Kefailn, k cemu je vam ten vykon v DP, kdyz ne k tezeni kryptomen? A co si predstavujete pod pojmom "velmi funkcni"? Tim chcete rict, ze ten soucasny neni velmi funkcni?

+1
-7
-1
Je komentář přínosný?

Tak třeba k používání s profi aplikacemi? Já osobně to TEĎ nepotřebuju, ale to jsem donedávna nepotřeboval ani VCE, a pak najednou ano a zjistil jsem, že to je skvělá věc, kterou už mám a která jednoduše řeší spoustu věcí

Velmi funkční = fuhnkčnější než předešlá verze, která bude už brzy nedostačovat věcem jako 4K apod.

+1
+10
-1
Je komentář přínosný?

pochybuju ze na neco kdy v beznem nasazeni vyuzijem DP, v komercni sfere je to totiz zcela zbytecne a vypocet se tim pro bezneho uzivatele vpodstate jen zpomaluje a neprinasi zadny valny uzitek, pokud tedy nebudes v budoucnu kuprikladu potrebovat laboratorni medicinske vypocty, nebo neco podobneho, tak je ti udaj DP platnej asi jako veverce louskacek :)

krom benchmarku vpodstate zadny bezny soft DP nevyuziva

+1
-9
-1
Je komentář přínosný?

na tezeni kryptomen je DP zcela k prdu, pac zadne tezeni u zadne kryptomeny DP nevyuziva, neni jedinej duvod aby se us tak pomale tezeni jeste spomalovalo jen aby to spocitalo jiz tak zbytecnej vypocet jeste pomalejc

+1
-11
-1
Je komentář přínosný?

GCN v1.1 v gpu "tonga" prinesla do mainstreamu:
o 60W nizsi TDP (nez 280x) 10W
2-4x vyssi vykon v tessellaci
bezstratova delta komprese barev (diky tomu muze mit nizsi sirku pamet sbernice i velikost)
update ISA instrukci
Novy skalovac
Vyssi vykon ve vypoctech
Freesync
TrueAudio
XDMA CrossFire
Cip je mensi a ma vic transistoru, roky vyssi efektivita ve vykon/velikost cipu nez NVidia - nizsi cena
novy UVD a VCE

PS: srovnavat pretaktovane s referencnimi je blbost, protoze pretaktovanim logicky klesa i efektivita v vykon/spotreba.

+1
-7
-1
Je komentář přínosný?

hi-endovou řadou R9 290(X) a nižší R9 280(X) // Dyt se ani té 280x nevyrovná? Tak jaký kompromis?

+1
-4
-1
Je komentář přínosný?

Vidím to podobně. A spotřeba mi stále přijde brutální. Kde jsou ty časy, kdy i hi-endová GPU typu X1900XT žrala kolem 100 W, o 9700PRO ani nemluvě :) Je vidět, že to chce minimálně lepší proces, na 28 nm už ty 4 mld. tranďáků nestačí, nebo rovnou GCN 4.0 :-)

+1
-3
-1
Je komentář přínosný?

Jenže ta X1900XT měla výkon jako dnešní lowend ;-)

+1
+6
-1
Je komentář přínosný?

Je sice pěkné, že testujete OC model, ale myslím, že mnohem zajímavější by bylo vědět, jak je na tom referenční karta. Taky jsem nenašel, v čem je konkrétně tato karta "OC" - není to tam, nebo špatně vidím?

+1
-4
-1
Je komentář přínosný?

965Mhz místo ref. 918Mhz na jádře, 5600Mhz místo 5500Mhz...

+1
-11
-1
Je komentář přínosný?

Presne! Rozcilovat se, ze karta ma vyssi spotrebu kdyz ji pretaktuju je zkratka pitomost. Stejna pitomost je ocekavat stejny narust efektivity jako GM107 (GF750), kdyz NVidia u tohoto cipu ubirala funkce. AMD naopak bohate pridavala.

+1
-1
-1
Je komentář přínosný?

Hm 285ka by mohla být nice náhrada za už starší HD6970 2GB s Accelerem Extreme Plus. Nebo ne? Ale asi by to chtělo možná i 4GB verzi, takový wolf a podobné novinky hodně papají paměť. Proto spíš přemýšlím o bazarové 7950/7970.

+1
0
-1
Je komentář přínosný?

Taky jsem chtěl nahradit postarší HD5870, ale zatím mě to teda nepřesvědčilo.... no uvidíme co Xko a co 4GB modely....

+1
0
-1
Je komentář přínosný?

Upgrade HD5870 bych asi ještě neřešil, na FHD to IMHO většinou ještě stačí (soudím dle synovcovy HD6870) a jediný argument by byl nižší spotřeba, což se ale projeví až s další iterací výrobní technologie.

+1
+3
-1
Je komentář přínosný?

no, taky jsem nedočkavě nevyhlížel jen r9 285, ale taky nějaké to 27" 1440p ~IPS zobrazovadlo.... ;-) no nic asi se na to stejně vy..ru a nechám to dosloužit tak jak to je teď.....

+1
-7
-1
Je komentář přínosný?

Lol mam GTX460, ma to snad pul giga pameti nebo co a noveho wolfensteina jsem hral demo ve virtualce ve fullhd a naprosto plynule. Dyt je to priserna hra po graficke strance a to se ani nezminuju, ze je to totalni picovina (na TOXIKK cekam jak na smilovani!) ..... proste to musi jet vsude, kde zas lidi berou ty veci o nedostatku pameti? To mi prijde stejne hloupe jak honba za taktovanim nebo snizovanim teploty .....

+1
-5
-1
Je komentář přínosný?

Ikdyz vidim, ze mas nejakou ATI .... ti maji zparchantele ovladace (viz muj prispevek dole), takze je mozne, ze je to tim .... jak rikam, mi na 4 roky stare i7 a GTX460 ve virtualce bezela ta kravina naprosto v pohode. Pravda, je to sice stale hiend, ale uz 4 roky stary .....

+1
-12
-1
Je komentář přínosný?

Zparchantělé ovladače? Nejsi ty náhodou Igor Staněk v převleku? Už není rok 2000. A určitě, virtuální mašina nemá zcela žádnou penalizaci výkonu....

+1
+2
-1
Je komentář přínosný?

Ano ty jejich ovladace, kde instalacka CCC ma 200 mega a je to jen aplikace s peti tlacitky a nemaji ani fixly 60Hz bug u monitoru bez EDID (pritom je tam nefunkcni checkbox pro vypnuti) .... ano, tohle delal clovek, co nemel zakladni programovaci znalosti, proste totalni looser!

+1
-8
-1
Je komentář přínosný?

nVIDIA balíčky nejsou o nic menší :) Často jsou i větší, pokud je to ke GPU od OEM dodavatele jako např. Dell. Tam třeba ty ovladače skáčou do BSOD kvůli zlobícímu HDMI, podpora Optimusu v linuxu není a to nejen u mobilních quadro.

S tím bugem jsem se nesetkal, vy máte nějaký monitor z roku 1999?

+1
-14
-1
Je komentář přínosný?

Ten vychazi predevsim z faktu unifykovane pameti v novych konzolich. Ten herni PC nemaji a jedna z jednoduchych (neefektivnich) zpusobu reseni je prave zvysit VRAM. Nicmene obhajovat velkou VRAM u hry na OGL3 (tusim) asi neobstoji. Castecne je to ale prekonatelny problem a samozrejme ze marketing bere kazdy vyssi parametr k tomu aby se produkt prodal. Zatimco u snizeni se musi vysvetlovat do zblbnuti, ze?

+1
-8
-1
Je komentář přínosný?

Já spíš o upgradu uvažuju z toho důvodu, že novější grafikkarten bude výkonnější, efektivnější, úspornější a také bude mít nějaké novější fičury. Třeba HD6970 vs 7970 je celkem znatelný rozdíl, uvažuju že vezmu asi nějakou bazarovou 7950/7970 (:

+1
-3
-1
Je komentář přínosný?

Tak ses pochlubil s GTX460, to je úžasné. Ve FullHD na low-detaily s kompresí textur? Skvělý zážitek. Chápu, že ti to přišlo strašné, když jsi to hrál na low detaily a 15FPS, to se nedivím, že to vypadá hnusně.

Na medium detaily a 1680x1050 s vyplou kompresí textur to klidně sežvejká 1,9GB VRAM.
World of Tanks mi sežvejká kolem 1,5GB VRAM (max detaily textur to papají)
Bioshock Infinite taky sežere víc jak 1GB VRAM.

Navíc se chystám pořídit si nějaké zobrazovadlo s vyšším rozlišením, asi 24" 1920x1200 a tam nároky na paměť slightly vzrostou. Nicméně nejde jen o VRAM, GPU chci na pár let alespoň, takže je lepší vzít něco, co bude mít i dostatek VRAM a bude to alespoň 28nm. Uvažuju na bazarovou HD7950/7970

+1
0
-1
Je komentář přínosný?

Chapes, ze wolfenstein vypada priserne? Jako hledat v te hnusne grafice predmety jde jenom honenim mysi po obrazovce a hledat, kde se neco vysviti .... silenost!

+1
-8
-1
Je komentář přínosný?

Přisvícení itemů tam jde vypnout, jinak low detaily to opravdu hnusně vypadá.

+1
-6
-1
Je komentář přínosný?

OT pro autora.
Proč je Edward Teller uveden jako záporák a Sacharov jako klaďas ? Díky za vysvětlení. :)

+1
-1
-1
Je komentář přínosný?

Na prvni strance je spotreba 190W, ale z grafu je jasne, ze je to 290W ..... to mi jako zrovna usporna karta teda neprijde:o)))))
Jinak v prvnim grafu nejaky nahodne vygenerovany udaj v teraflops .... tyhle nic nerikajici hodnoty jeste vazne dnes nekdo uvadi (nahodne generuje) a nekoho to zajima?:o)

+1
-8
-1
Je komentář přínosný?

můj starý radeon HD5870 má TDP 188W, v zátěži mi to žralo (kdysi když jsem to testoval) 340W, sice mám jinou platformu atp ale vzhledem k tomu, že zde mají CPU vcelku řádně přetaktovaný tak tu spotřebu beru jako legitimní.

Chápu tvoje počty, zátěž 340-50 klid je 290, ale opravdu nechápu co Tě vede k tomu, aby Ti přišlo ok odečítat klidovou spotřebu kdy se to CPU vysloveně nudí, takže žere řádově méně....
To musí být buď přirozenou blbostí nebo absolutním fanatismem shazovat cokoli od AMD, že? no jo, já zapoměl, BTJ, flamer #1...

+1
-2
-1
Je komentář přínosný?

Asi to bude naprostym kretenismem na tve strane ..... kdyz se totiz testuje GRAFICKA KARTA (zkus si to najit treba na guglu) a jeji spotreba a kdyz je graf spotreby v klidu a v zatezi, tak asi bych tak nejak logicky (INTELIGENTNE) predpokladal, ze v zatezi se bude merit spotreba POUZE one graficke karty ...... podle me logiky (verim, ze je spravna, jde o obecnou logiku) by se v takovem testu mela vytizit POUZE graficka karta, nechapu, proc by nekdo mel vytezovat jeste procesor??? K cemu by takovy test a graf proboha byl?????? Uplne k hovnu? ANO! Chapu, ze pro laika je celkem slozite zmerit odber pouze samotne graficke karty, tak se spodni hranice zkratka uvadi jako odber cele sestavy, ale OMG, jenom kreten by na test karty a jeji odber zatezoval i nejake nahodne CPU, kde kazdy bude mit uplne jine CPU, cili hodnota naprosto nevypovidajici a nicnerikajici. Hodnota teploty se taky merila jako CPU+GPU+cipset+venkovni teplota+teplota v pokoji?:o))) Tak si to preber z prdele do hlavy ..... ta karta proste neni usporna, kdyz zere vic jak 300W!!! Teda ona zere nejspis jeste vic, 14W je rozdil v klidu jenom proti jine ATI karte .... ABSOLUTNE nechapu proc tam neni zmereny odber sestavy bez graficke karty ..... ale >14W (ono to bude klidne 30W, mozna vic) v klidu rozhodne nema s uspornosti rovnez nic spolecneho. A ano, na ATI karty jsem vysazeny, byl jsem kratce majitel dvou (57xx a 68xx nebo takove nejake shity) a za vic jak rok nebyli schopni fixnout 60Hz bug (ktery byl na kartach vyresen nekdy z kraje tisicileti), ano jsou to diletanti, nic vic! Neschopove a tupci a jak vidim, ze i midend karta dnes furt zere jak vztekla i v klidu, tak rozhodne nehodlam svou 460ku menit (zvlast kdyz mi tam jede plynule ve FHD vsechno a za poslednich 10 let jsem nenarazil na nic, co by se nejak vyrazneji dalo hrat .....)

+1
-16
-1
Je komentář přínosný?

si to přeber z prdele do hlavy ty, protože jestli sis nevšiml, každý server má svůj vlastní způsob, jak si falšovat statistiky. Ale to by sis první musel nějakou recenzi taky přečíst.
Třeba takovej extrahardware ;-) http://www.cnews.cz/recenze/msi-radeon-r9-285-gaming-tonga-v-testu/stran...
nečekaně, spotřeba při hraní CRYSIS....
mimochodem, tam mají spotřebu v klidu udávanou +-130(!!!!) W kdežto zde na DIIT +-50W, opět další rozdíl v metodice/sestavě...
na pct opět spotřeba v klidu a ve hře... a opět naměřeno +-100W v klidu
http://pctuning.tyden.cz/hardware/graficke-karty/30835-gigabyte-radeon-r...

takže, než začneš vyvádět, něco si přečti...
mimochodem, podle tvé logiky by 300W musely žrát i srovnatelné nvidie, ale to je jenom takový malý detajl, na který jsi zapoměl, nebo jej spíš schválně přehlédl.

Neříkám že nejsou servery které to měří opravdu komplexně.... ale většina ti na to asi sere ;-)

Přeji spoustu srandy se 460tkou, sám si taky říkám že ty upgrady už pro mě nemaj smysl ;-)

+1
+5
-1
Je komentář přínosný?

Jak rikam, kdyz uz si nekdo da tu praci, ze to srovnava s deseti dalsima grafikama, tak bych cekal aspon to naproste minimum a to je spusteni te sestavy uplne bez karty a pak pouziti nejakeho gpuburnu, ktery zatizi pouze grafiku, ale ne procesor. To je proste uplne minimum, co bych ocekaval, nic narocneho. Navic pocitam, ze ty cisla v tomhle clanku jsou od nejakeho serveru prevzata ... od nejakeho aspon trochu spolehliveho, ale tak asi ne no:)
Jinak divam se na ty tve odkazy a CTKJ??? Spotreba sestavy v klidu 130-150W???? Divam se na testovaci sestavu a je tam nejaka novejsi i7, 16GB ram, SSD + HDD ..... 130W??? Ja mam starou, uplne nejstarsi zravou i7, 16GB ram, 2xSSD, 6xHDD, starou zravou GTX460 a zere mi to pod 100W v klidu! Dyt to jejich s daleko novejsima a uspornejsima komponentama musi zrat do 50W, ne??? Nebo jsou to uplni diletanti a ikdyz to nezminujou, tak k tomu maji pripojenou nejakou starou plazmu? Tak blbej snad nikdo neni .... nebo neumi odecist udaj na wattmetru .... tohle proste neni normalni ..... to jsou recenze uplne na hovno, pak se neda verit v tom clanku nicemu, kdyz tam maji tak zjevne kokotiny ....

+1
-13
-1
Je komentář přínosný?

PCtuning má u testovací sestavy napsáno toto:
Procesor je přetaktovaný na 4,3 GHz, má deaktiovvané automatické přetaktování Turbo boost, vypnutý hyperthreading a pro snížení chyby měření spotřeby je odstavené je i přepínání do úspornějších režimů (C1E, EIST).
A EHW.....
Jako testovací platforma posloužila základní deska Gigabyte X79-UD5 s BIOSem F10. Procesor je šestijádrový Core i7-3960X s TDP 130 W, který je přetaktovaný na 4,2 GHz při 1,36 V. Asistuje mu 16GB kit operačních paměti DDR3 od Kingstonu.

takže si to přeber jak chceš, ale řekl bych že to jde hlavně na vrub OC procesoru ;-) i tak, 130W v klidu mi přijde hodně hodně, moc moc moc.... aneb jak jsem napsal minule, každej si statistiky falšuje jinak...

+1
-2
-1
Je komentář přínosný?

Jako realne, to CPU nejspis i po pretaktovani nebude zrat v klidu vic. Ale kdovi, kdyz maji povypinane vsechny usporne rezimy, jestli fakt netopi naplno, ale podle me je to blbost. U toho jednoho serveru maji v testovaci sestave i monitor, to mi prijde jako uplna lamerina, jestli to meri i s nim ....
Na druhou stranu je mozna spravne mit vyple usporne veci u CPU, aby to neovlivnilo, ale pak by to meli (ikdyz to v kazdem pripade) vztahnout na takovou sestavu bez GPU. Ale jako 130W je fakt uchylarna, tolik muze mit TDP cele to CPU a zbytek komponent nebude zrat skoro nic. U me desky byla nejaka aplikacka a ta ukazovala spotrebu jednotlivych komponent na desce a u te i7ky to bylo v klidu jen par wattu (radove treba 1.5W-3.5W), coz by tak nejak clovek cekal. Ted uz jsem ale ochoten verit, ze ty spotreby meri i s tim monitorem ......

+1
-5
-1
Je komentář přínosný?

tonga bola nastavena na cca 170W priemernu tdp
a tu je test
tak klidek
http://www.tomshardware.com/reviews/amd-radeon-r9-285-tonga,3925-11.html

+1
-6
-1
Je komentář přínosný?

Podle slovniku chapu proc ses priznivcem NVidia. Nebo snad HD od intelu?

+1
-2
-1
Je komentář přínosný?

On je Igor Staněk nebo Obr v převleku.

+1
-1
-1
Je komentář přínosný?

Nejako mi nejde dokopy popis karty v uvode:
"Karta v sobě nese jakýsi kompromis mezi hi-endovou řadou R9 290(X) a nižší R9 280(X), která staví na dosluhující architektuře Radeonu HD 7970 (GHz Edition). "
a vysledkami testov. Ved 285 je snad v kazdom teste na tom horsie ako 280, pripadne aj 7970. Ak teda naozaj mierila medzi, tak je to asi dost neuspech. To samozrejme neznamena, ze je to zla karta, otazka je, kam sa zaradi cenou...

+1
-10
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.