Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Radeony RX 500 jsou tu, snižují klidovou spotřebu a zvyšují takty

Obrázek uživatele TyNyT

Carda má ban, že tu už nesmrdí s hláškou na téma "Veka"? :-)

+1
0
-1
Je komentář přínosný?

Třeba nestíhá a troluje dýdýty na tydýtworldu o)

+1
+2
-1
Je komentář přínosný?

pred nedávnom v niektorej z diskusií napísal, že už tu viac nebude komentovať, že vraj sú tu samí ADM fans a že nemá zmysel ich presviedčať. ale na pctuningu ho je občas počuť (väčšinou veľmi rýchlo dostane toľko mínusiek, že jeho komentár je skrytý)

+1
+6
-1
Je komentář přínosný?

Vicemene vsude kam prijde, tak si prvnim prispevkem k AMD aspon jednou kopne do diit...

+1
+2
-1
Je komentář přínosný?

Znova opakuju, rada Radeon RX 500 mela byt vyhradne zalozena na novych grafickych cipech Vega 10, 11 a 12(?). Mela proste indikovat nativni 5 GCN generaci AMD, takhle sou to jenom preznacene/-liche produkty ktere by tu nebyli nebyt lepsiho 14LPP+ vyrobniho procesu, k tomu chybejiciho modelu RX 450 a 1024 stream modelu RX 460(jadra v teto aktivni konfiguraci prodavala AMD vyhradne Applu a zakaznikum tak zbyl defektni 896 model).

Cili si to zhrnme:

-RX 550 ktera mohla byt klidne uvedena jako RX 450(je to GCN 4 produkt? je!)
-RX 560 ktera tu mela od vydani byt jako 1024 "jaderna" RX 460, ne prodejme 1024 produkt Applu
-RX 570 se od 470 lisi vyssimi takty jadra a 7.0GHz GDDR5 pametmi, pricem OC RX 470 tu jiz sou
-RX 580 ustanovuje 8GB grafickou pamet za oficialni pricemz pripousti pouziti i 4GB kapacity

14nm LPP+, vyssi takty dosahujuci/dorovnavajici OC modely predchozi RX 400 rady a nizsi spotreba pri prehravani videa na Youtube + 2 monitory nepovazuji za neco kuli comu se musi klamat lidi zavadenim nove RX 500 rady, proste tyhle "serepeticky" rozhodne nejsou tak obligatni pro nastoleni jiz nove produktove rady.

Kdyby aspon RX 570 mela misto 2048 jednotek 2304 a RX 580 jich mela pak 2816, ale takhle je to jenom ciste preznacovani.

Radsi meli pockat a vydat Vegu a pote z ni odvodit jeji "zmensene"/slabsi odnoze, takhle v tom smysl nevidim.

+1
-11
-1
Je komentář přínosný?

jasne, nejlepsi strategie je cekat a nic neprodavat, nechat trh konkurenci a nakonec zavrit kram.. (:

+1
+10
-1
Je komentář přínosný?

takhle je to ale spíš krok zoufalství jako tehdy když NV silně tlačil problém s HD4850 tak nuceně opět zrecyklovali G92 jádro plně aktivní do GT250. Akorát se ukazuje že AMD má prázdné ruce, tak dělá že dělá, nic víc. Zlatá stará ATi. Do HD7000 to bylo dobré, pak už jen z kopce...
Tady tohle je akorát výstřelek marketingu a to hodně blbý. Do poslední chvíle jsem doufal že ty uniklé údaje jsou fake, bohužel.
Procíky jim vyšly, ale tohle brutálně zazdili.

+1
-2
-1
Je komentář přínosný?

Osobne si myslim, ze je to tim, ze nemaji penize, ty ted dali do Ryzenu. Pevne doufam, ze to neni tim, ze je to ted 'indicke ati' a ze prekvapi s Vegou..byt pri te spotrebe 580ky..nevim :)

+1
0
-1
Je komentář přínosný?

Dobry no, mistni AMD fanatik uz psychicky nevydrzel a oprel se do AMD a schytal od jeste vetsich fanatiku kupu minusu. (Ode me mas plus.)

+1
-2
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

To ale nedává smysl. HBM je na lowend a midrange stále ještě moc drahé a zbytečné.

+1
+2
-1
Je komentář přínosný?

A nedělá třeba nVidia něco podobného? Že v jedné "řadě" jsou třeba až tři různé generace čipů nebo tak nějak? Viz GT 730 apod.

+1
+2
-1
Je komentář přínosný?

To vis, ze to bezne delaji(li) obe firmy. Staci se podivat rok zpatky nejlip do notebookovych gpu obou firem... ruzne revize architektur, chipu, preznacovani jak kdyz si objednas ruznobarevny zeleninovy salat :D
Pokud jde o NV tak jen ty 'nejjednodussi' viditelne prebaly .. 850->950, 860->960, atd, atd...

+1
+1
-1
Je komentář přínosný?

Jediné + u 5xxx řady je konečně opravenej idle power management u videa a browserů. Ala problém kterej AMD měla od příchodu boostu (ala od 7970 Ghz edition, původní 7970 byla ok), a trvalo jim to závratnejch 5 let než to opravili (ještě déle jim trvala oprava vynucování TRAA, AA, AF, Vsync), prostě AMD. V některejch ohledech future-proof a v jinejch jim trvá oprava do očí bijícího problému 5+ let....

+1
0
-1
Je komentář přínosný?

jakej problem boostu?

+1
+1
-1
Je komentář přínosný?

AMD karty s boost biosy maj problém že při přehrávání videa nebo in-browser akceleraci tahaj GPU takty a voltáže z 2D do 3D, a vypadá to že řada 5xx to má konečně fixnutý (viz co postoval No-X s těmi takty), ale trvalo to 5+ let.

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele no-X

To nesouvisí s boostem, jde o věc taktu pamětí. Přibyl třetí stav (mezi stávající 2D takt a 3D takt), který je použitý, pokud jsou připojené monitory s nestejným rozlišením nebo se přehrává video.

+1
+2
-1
Je komentář přínosný?

Problém je v tom že šlo manuálně vytvořit app profily které vynucovaly 2D takty a udržet tak spotřebu dole, ale opět to bylo "dodělej doma", ta karty nepotřebovaly další powerstate v biosu, jen drobej fix v driverech stylu "pokud GPU neni třeba 50+% loaded v idle clock nepřepínej do 3D clock), tohle je celej problém AMD, drobnostma většinou SW rázu si kazej celé produkty.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele no-X

„ta karty nepotřebovaly další powerstate v biosu“

Potřebovala. Že nějaký postup funguje jednomu uživateli, není ani omylem garance toho, že bude fungovat všem. Čím více monitorů s rozdílným rozlišením nebo obnovovací frekvencí je připojeno, tím vyšší jsou nároky na paměťovou propustnost a AMD si jaksi nemůže dovolit situaci, že kartě po připojení třetího monitoru dojde bandwidth a skončí to pádem systému.

+1
0
-1
Je komentář přínosný?

Tak nebo tak to šlo vyřešit drivery či upgrady biosů pro stávající karty a ne odebírat features lidem aby si podpořili vlastní rename scam. Nesnaž se okecávat a omlouvat neschopnost. Něco jako "dojde propustnost" je u multimonitor kravina, to už se řešilo spoustakrát a kdyby došla tak lehce zvednout, prostě dle % loadu, jako je to u NV už roky a funguje to ok.

Fail je prostě to že u AMD to taky dříve bylo OK, vše se podělalo až s nástupem boost karet, a nejvíce to bolelo u Hawaii. Trvalo jim 5 let to fixnout, tohle chceš omlouvat?

Dobrá zpráva aspoň je že AMD evidentně neudělalo žádnej HW blok a čip je stejnej, a už zde máme úspěšné flashe 480 na 580:

http://pctforum.tyden.cz/viewtopic.php?f=9&p=9270133#p9270133

+1
-4
-1
Je komentář přínosný?

'' a ne odebírat features lidem aby si podpořili vlastní rename scam ''

hele, v cem jedes? dyt nikomu nic neberou.. to je jako bys rikal ze gtx780ti byla rename scam protoze nVidie po vydani titan-black majitelum gtx780ti nezapla double-precision ((:

rx400 ma dany parametry a lidi co si je koupili, s tema parametrama souhlasili.. se podivej na testy rx480.. kdyz ji vydali, byla pomalejsi nez r9-390.. ted je skoro o deset procent rychlejsi.. kdyby ses podival co polarisu amd od vydani pridala ze features a kolik vykonu, tak nemuzes takovy nesmysly tvrdit.. (:

+1
+2
-1
Je komentář přínosný?

Tvá analogie s 780ti je naprosto mimo. Pokud se máme dívat k NV tak tam se podobná věc stala taky, ale naposledy v době 8800GT vs 9800GT, 9800GTX byla taky scam.

Co se týče těch novejch features tak jmenuj.

Co se týče zvedání výkonu to je normální, zvedá se s drivery u obouch táborů. Jen u jednoho když se zvedá novější GPU nad starší tak se tomui říká gimping u druhého super support....

Jako sorry ale místo novejch biosů a driverů co by fixly idle power na Polarisech vydaj refresh a prodávaj tuto "feature" jako novinku, sry ale to je rebrand scam. Dokonce si i přejmenovali GPU přitom staré karty jdou flashnout.

AMD tohle dříve nedělala, Bonaire čipy dostaly zpětně aktivaci trueaudio po vydání 2xx řady, Radeony 290 taky dostaly zpětně VR support po vydání 390, atd, atd. AMD toto prostě nedělala.

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele no-X

Mně přijde to srovnání docela příhodné. Kritizuješ, že karta A nepodporuje funkci, kterou má karta B a že je to špatně jen proto, že by ji karta A teoreticky podporovat mohla. Je to stejný případ jako u GeForce GTX 780 Ti a GeForce GTX Titan Black. I GTX 780 Ti teoreticky mohla podporovat rychlé double-precision, hardwarově to uměla. Jenže Nvidia to neudělala a za podporu na Titanu si nechala připlácet několik set dolarů. Říká se tomu segmentace. Rozdíl je snad jen v tom, že DP na Titanu stála stovky dolarů navíc, kdežto RX 500 je o $10 levnější než byla při vydání RX 400.

„Jen u jednoho když se zvedá novější GPU nad starší tak se tomui říká gimping u druhého super support...“

Myslíš tu situaci, kdy Nvidia srazila výkon Kepleru, aby se líp prodával Maxwell?

„Co se týče těch novejch features tak jmenuj.“

Dovolím si odpovědět sám: Od vydání na RX 400 přibyla:

- podpora pro DisplayPort 1.4 HBR
- FreeSync pro Linux
- podpora FreeSync s Borderless Fullscreen
- FreeSync 2.0
- Asynchronous Reprojection (ARP)
- akcelerace VP9 až do 4k / 60 FPS
- podpora Dolby Vision a HDR10
- Radeon Chill
- WattMan

+1
+4
-1
Je komentář přínosný?

Podle biosu který jsem upravoval u radeon 4870 byly taky tři stavy, 2d, 3d a power 3d. Problém byl, že karta využívala výhradně poslední dva, byla horká jak nevím co a jako bonus ventilátor jel od 70% otáček a výše, paměť se nepodtaktovala nikdy.

Mě to přijde jako šlendrián, který koukám přetrval.Taky jsem musel upravit bios aby vůbec šli snížit takty paměti a GPU na rozumnou hranici, plus upravit profil ventilátoru, který měl dva stavy 70%, a 100%.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele no-X

To, o čem mluvíš, se týkalo Radeonů HD 4870 a nijak to nesouviselo s pozdější situací. Řadič Radeonu HD 4870 je nepodporoval rozšířenou regulaci taktů pro GDDR5, pouze pro DDR3. Ta byla doplněná už u další generace.

+1
0
-1
Je komentář přínosný?

Aha, tak to jsem netušil, díky za vysvětlení.

+1
+1
-1
Je komentář přínosný?

> tím vyšší jsou nároky na paměťovou propustnost

Ehh lidicky... mohli by jste zkusit taky trochu pocitat. Naroky na pametovou propustnost jsou vyssi, to je pravda, ale s timdle to vubec nesouvisi.

Rekneme 4K display - ma zhruba 8M pixlu - pri 32bpp to je 32Mbajtu na jeden snimek. 60Hz obnovovaci frekvence -> 60*32MB = 1920MB/s, tj zhruba 2Gbajty za sekundu. Kolik dava sbernice dnesni mainstream karty, RX480 / GTX1060 ? kolem 200GB/s, tj jeden 4K displej sezere zhruba procento. To pretaktovani karet pri vice monitorech nema absolutne nic spolecneho s pametovou propustnosti.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele no-X

Promiň, ale vypočítal jsi úplný nesmysl. Když je řeč o tom, že by nestačila paměťová propustnost 2D taktů, tak nemůžeš argumentovat propustností, která se týká 3D, tedy nejvyšších taktů. Za druhé jsi vypočítal datový přenos, který se odehrává mezi čipem a jedním displejem, nikoli který se odehrává mezi čipem a pamětí. A za třetí si spočítal datový přenos týkající se jednoho displeje, když je řeč o datových přenosech po připojení více displejů s různým rozlišením nebo různou obnovovací frekvencí.

+1
+4
-1
Je komentář přínosný?

V čem tedy spočívá onen vysoký nárůst požadavku na datovou propustnost paměti při připojení dvou monitorů?

Opravdu se tak zásadně liší datové přenosy při připojení displejů s rozdílnými parametry? V čem?

P.S. O rozdílných monitorech v článku nic není!

+1
0
-1
Je komentář přínosný?
Obrázek uživatele no-X

„V čem tedy spočívá onen vysoký nárůst požadavku na datovou propustnost paměti při připojení dvou monitorů?“

Úplně jednoduše v tom, že pro vykreslování dvou obrazů je potřeba přenést přinejmenším dvojnásobné množství dat než při vykreslování jednoho obrazu.

„Opravdu se tak zásadně liší datové přenosy při připojení displejů s rozdílnými parametry? V čem?“

Zatímco třeba hardwarové vykreslování 3D grafiky je od počátků v devadesátých letech koncipováno tak, aby dokázalo pracovat s dlouhými latencemi a hardware může využívat toho, že je zcela jedno, jaká část obrazu se začne vykreslovat jako první nebo jak se při vykreslování bude postupovat, pokud jde o prosté zobrazovaní, tak tam se nedá čekat na nic. Když dojde k odesílání obrazu monitoru, je třeba, aby data byla připravená přesně v daný okamžik. Pokud přesně v určitou chvíli nejsou dostupná data, protože je sběrnice vytížená, tak si při 3D renderingu GPU prostě pár desítek nanosekund počká - jenže při zobrazování nemůže čekat, pokud by ta data přesně v daný okamžik nemělo, pak by se prostě obraz na monitoru nezobrazil, nebo by z něj kusy chyběly.

GPU musí přesně respektovat časování dané monitorem. Pokud jsou připojené dva identické monitory s identickým rozlišením a identickou obnovovací frekvencí, pak lze oba obrazy připravovat jako jeden větší, který se pouze při zobrazení virtuálně rozřízne na dva. Jsou ale připravovány synchronně, takže i datové přesuny jsou synchronní a přesuny dat zcela rovnoměrně rozložené. Pokud jsou ale připojené monitory s různým rozlišením a nebo různou obnovovací frekvencí, nejsou datové přesuny synchronizované, probíhají zcela nezávisle, dochází k výraznějším výkyvům v datových přenosech a systém musí být nastavený tak, aby ani při nejhorší možné situaci nedošlo k tomu, že dostupná přenosová kapacita nebude stačit.

AMD s EyeFinity počítala spíš s tím, že uživatelé budou připojovat totožné monitory a tomu technologii optimalizovala; je ale stále dost lidí, kteří kombinují nestejné monitory, což hardware řešil prostě tím, že zvýšil takt pamětí, aby byla jistota dostatečné datové propustnosti. Problém je v tom, že dosavadní hardware AMD s GDDR5 pracoval jen se dvěma stavy - 2D takty a 3D takty. Původně to nebyl problém, ale jak během let kapacita a frekvence GDDR5 rostla, rostla i jejich spotřeba při plných taktech, takže i spotřeba při použití dvou nestejných monitorů byla vyšší a vyšší. Nyní to vyřešili přidáním třetího stavu, který zajistí propustnost dostačující pro kombinaci plného počtu různých monitorů, jaké lze ke kartě připojit, ale zároveň je výrazně nižší než maximální takt, takže nedochází ke zbytečně vysoké spotřebě.

+1
0
-1
Je komentář přínosný?

"Úplně jednoduše v tom, že pro vykreslování dvou obrazů je potřeba přenést přinejmenším dvojnásobné množství dat než při vykreslování jednoho obrazu."

To vypadá logicky, ale dva monitory nemusí mít vždy větší rozlišení než jeden! A nárůst spotřeby se má zvyšovat s počtem monitorů a nikoli s rozlišením. Takže tato teorie nesedí.

"Pokud přesně v určitou chvíli nejsou dostupná data, protože je sběrnice vytížená, tak si při 3D renderingu GPU prostě pár desítek nanosekund počká - jenže při zobrazování nemůže čekat, pokud by ta data přesně v daný okamžik nemělo, pak by se prostě obraz na monitoru nezobrazil, nebo by z něj kusy chyběly."

Tomu nerozumím. Při GPU renderingu se pár nanosekund počká. Monitor má obnovovací frekvenci cca 100Hz, tedy po 10ms. Nemohu si pomoci, ale pár nanosekund by se v tom také ztratilo(navíc to budou úplně jiné hodiny).

Pokud se vrátím k tomu co napsal "franzzz", tak přestože počítá pouze 1 displej a maximální frekvenci RAM, tak to vychází na 1%. Zdvojnásobení nároků při dvou monitorech nic nevysvětluje:
1, I kdyby klesla frekvence RAM na 1/4 a byli dva displeje 4k, jsme na 8% celkové propustnosti a to jednotky GPU nic nepočítají
2, narozdíl od 3D, kdy musí totéž zvládnout s vysokými toky mezi RAM a GPU (a dle Vás není se zobrazováním problém).
3, "franzzz" počítal 4k displej, ale při FHD je to 4x méně
4, Vždyť to zvládnou i integrované grafiky!

Existuje nějaký test při jakých kombinací monitorů se to projevuje? Jestli je to při stejných nebo jak tvrdíte pouze při rozdílných?

+1
-1
-1
Je komentář přínosný?

No, pěkné. Jenom při čekání na reálně dostupný ITX AM4 board možná přeskočím i 5xx řadu a půjdu rovnou do malé Vegy. :-)

+1
0
-1
Je komentář přínosný?

Kolega má stejný požadavek, dohledal pouze desku od Biostaru (X370GTN) a tento týden je v Německu již naskladňují. Takže pokud chceš a máš odvahu na Biostar :), dostupné budou. V ČR je nečekám, Biostar dovážel do ČR Abacus a ten je už asi mimo hru.

+1
+1
-1
Je komentář přínosný?

Týjo, fakt, Biostar už dnes nikdo nedělá. Přitom to byly úplně běžné desky, i já jsem jich prodal a smontoval hromady... Nostalgie. :-) Ale už slíbilo ITX myslím i MSI a s trochu lepší výbavou, jakože WiFi a tak, tak uvidíme. Spíš se divím, že u Asrocku ticho po pěšině, a ti přitom vyrábí úplně všechny rozměry s úplně všemi sockety.

+1
0
-1
Je komentář přínosný?

Biostar to podělal s poruchovostí (nekvalitními součástkami) tuším pro socket 775 (nebo starší?), to byla trága.

Podle mě prckodesky dorazí ve velkém s R3, kde bude větší zájem větší. U ASRocku bych se nebál, ty si prvně všechno vyzkouší a pak pustí do distribuce. Teď podlehli tlaku a šibeničnímu termínu a mnoho nadšení nepanuje, ale už se to s novými BIOSy lepší. To přijde.

+1
+1
-1
Je komentář přínosný?

Paneboze at uz vydaj Vegu at muzu jit a hodit 1070 z wokna :D

+1
0
-1
Je komentář přínosný?

Ty wokno, napiš pak ze kterého, počkám dole až to budeš za půl roku házet :)

+1
+1
-1
Je komentář přínosný?

Jako pekny, bezesporu, ovsem Veka stale nikde a cas do 1. zari se nam neuprosne krati! ;-)

+1
0
-1
Je komentář přínosný?

Čo sa má stať 1. septembra? :-)

+1
0
-1
Je komentář přínosný?

Pro majitele 4xx o ničem.

+1
-1
-1
Je komentář přínosný?

Tohle je výsměch - manýry Intelu které jsou v jejich podání trapné. Označení o desetinu vyšší - 485 by bylo rozhodně adekvátnější. To už NV refresh je mnohem zajímavější. Tady o trochu zvedli takty a razantně spotřebu. Opět topítka, prodejné akorát skalním fandům.

+1
0
-1
Je komentář přínosný?

Nebyt te zvysene 3D spotreby, tak ty karty jsou v pohode, byt je to rebrandt. Takhle je to v dnesni dobe dost minus a hodne lidi to muze odradit.
Mne je vyssi spotreba sumak, protoze pokud clovek nehraje 12h denne, tak je to celkem jedno. Jedine co mne na tom vadi je, ze je potreba pro jistotu o 50-100w silnejsi zdroj nez u 1060..

+1
0
-1
Je komentář přínosný?

no právě, s tou spotřebou to bylo poukázání na zhoršené znovupoužití. Dřív byly Radeonky na bazarech hodně oblíbené, jenže k úsporným ale přitom solidně výkoným procíkům co mají tdp kolem 60W je potom použití Radeonu problematické protože do takových strojů se nedávají 500W zdroje co by tohle dlouhodobě táhly. A málokdo dělá undervolting.
A taky to vlastně znamená návrat k tepelně výkonným grafikám kdy už to vypadalo že jim pomalu odzvonilo, stejně jako procíkům. A kdo si zvykl na tichý pc s nenákladným chlazením tohle lákavé vůbec není.

+1
0
-1
Je komentář přínosný?

Tiche to muze byt i tak, zalezi na edici. Tentokrat se povedly treba Sapphirky pro zmenu :D
Pokud si nekdo stavi novy komp, tak ten zdroj muze zohlednit. Pokud je to upgrade k nejakemu +- 400W (pro 580, 570), tak se to nevyplati s novym zdrojem a zaboduje NV ;)

+1
0
-1
Je komentář přínosný?

"Pouze ve dvou případech měla konkurence náskok: Při použití dvou monitorů a při přehrávání 1080p videa z YouTube. Právě na tyto situace se AMD zaměřila a výrazněji v nich zredukovala spotřebu implementací nových stavů pamětí v kombinaci s výše zmíněnými optimalizacemi:"

Dle tabulky Nvidia stáhla spotřebu u dvou monitorů. Ale u videa výsledky chybí. To znamená, že se jim to nepovedlo?

P.S. Co tři monitory?

+1
0
-1
Je komentář přínosný?

"Pouze ve dvou případech měla konkurence náskok: Při použití dvou monitorů a při přehrávání 1080p videa z YouTube. Právě na tyto situace se AMD zaměřila a výrazněji v nich zredukovala spotřebu implementací nových stavů pamětí v kombinaci s výše zmíněnými optimalizacemi:"

Dle tabulky Nvidia stáhla spotřebu u dvou monitorů. Ale u videa výsledky chybí. To znamená, že se jim to nepovedlo?

P.S. Co tři monitory?

+1
0
-1
Je komentář přínosný?

skladám si teraz pc a oplatí sa ísť do 580 alebo radšej zľvnených 480? poprípade, ktorá OC varianta
bude to primárne pre 1080p hranie, tak mi bude stačiť 4GB varianta.

+1
0
-1
Je komentář přínosný?

Na anandtech.com je poměrně detailní recenze RX 570/580. Jejich měření spotřeby v idle ukazují na menší úspory než-li hodnoty uvedené v tomto článku, nejvyššího snížení spotřeby zaznamenali při přehrávání videa (H.264/HEVC high bitrate). Zůstala však zvýšená spotřeba při zapojení dvou monitorů s rozdílným rozlišením.
Celý tenhle refresh mne moc nepřesvědčil. Nabízí sice menší nárůst výkonu, vykoupený však neúměrným zvýšením spotřeby v zátěži. S fci Radeon Chill to může být ok.
Karty by si zasloužily pojmenovat spíše RX 450/465/475/485.
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/2
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/16

+1
0
-1
Je komentář přínosný?

Muzete nekdo doporucit konkretni model RX 580ky, prosim? CCa mesic po konci trilete zaruky mi ted zacala artefaktovat R9-290X, tak resim nahradu... Spotrebu v zatezi neresim, ani maximalni vykon (predpokladam rozdil max. par procent u OC edici apod.), jednoznacne kriterium je pro me hlucnost v desktopu a pri prehravani videa pres DXVA2 (idealne vypinani vetraku). Monitor mam jen jeden.

+1
0
-1
Je komentář přínosný?

pokud chceš nahradit plně aktivní čip hawaii tak tohle by byl downgrade z vyšší třídy na střední a výkonostně by sis nepomohl. Pokud chceš AMD tak jedině Fury, nic lepšího AMD nemá. Fury bez X stojí lehce přes 9 tisíc, verze od Sapphíre.

+1
0
-1
Je komentář přínosný?

Pokud chces 580, tak z tech recenzi vychazi dobre treba Sapphire Nitro+ , Sapphire Nitro+ LE, ASUS ROG STRIX 580 Gaming v 8GB verzich. Pokud chces tichou vyhni se MSI Gaming X napriklad.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.