Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nereferenční Vegy nečekejte dříve než za měsíc

Diky mizernemu hernimu vykonu neni vubec treba zacit nereferencni verze vyrabet, minerum staci i referencni verze. Jako dik za info, ale tohle vsichni AMDecku radi odpustime respektive ani neni co odpoustet, proste referencka bohate staci. :-)

+1
-8
-1
Je komentář přínosný?
Obrázek uživatele Nox Hubux

Su ludia, co maju FreeSync monitory a pre nich je Vega celkom pekny upgrade voci RX580.

+1
+5
-1
Je komentář přínosný?

Proč by tyhle karty kupovali těžaři když je výhodnější těžit na aktuální generaci od Nvidie?
(podle všech testů, co jsem zatím četl)

+1
-6
-1
Je komentář přínosný?

"Proč by tyhle karty kupovali těžaři"

Lebo rýchlejšie vyhreje miestnosť. TPD 300W, teplota 83°C a vetráky na plné otáčky.

+1
-7
-1
Je komentář přínosný?
Obrázek uživatele webwalker

Nesmíš věřit každé blbosti, kterou Obermaier na PCT napíše :)

+1
+9
-1
Je komentář přínosný?

Vegy nikto necaka takze je to jedno :)

+1
-4
-1
Je komentář přínosný?

Nečekám. Už před měsícem jsem koupil 1080 a nemohl bych si chrochtat víc.
AMD naprosto geniálním způsobem zkombinovalo roční lhaní o výkonu, 300w spotřebu, neskutečně mizerný chlazení a o tři tisíce větší cenu, plus pro mě potřebu novýho zdroje tak za další trojku.
Takhle mám kartu co je relativně tichá, zas tak moc netopí a ještě je (skrz spektrum her) výkonnější.

Přitom stačilo aby nelhali (poor volta my ass), nacpali tam normální chladič, trošku sundali napětí aby ta karta nejela na max ,a dali jí rozumnou cenu odpovídající výkonu.

+1
-2
-1
Je komentář přínosný?

To je ale krasna prehlidka ruznych komplexu. Tady by si psycholog smlsnul...

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele rathanuviel

Mám Vegu 56, provozuji ji s Freesync LCD 34 palců na rozlišení 3440x1440 a je to parádní zážitek.
Udělal jsem ca 300 benchů (1080p, 2560x1440, 3440x1440, 3840x2160) a kromě Crysis 3 jsou i ve 4K je všechny hry (které mě zajímají - WoT, WarThunder, Subnautica) hratelné na maximální nastavení. To znamená, že pro moje LCD v 3440x1440 má ta karta ještě na dlouho rezervu - a to je to, o co mi šlo.
Klidně mě zasypte mínusama, za to že jsem s Vegou 56 spokojenej - s Freesync zobrazovadlem je velmi dobrá volba.

+1
+3
-1
Je komentář přínosný?

Proc bych ti mel davat minus? Vzdyt ucet za elektrinu ti jeste neprisel. ;-)

+1
-5
-1
Je komentář přínosný?

ked spravis undervolt + OC mas kartu co zerie tolko ako taktovana 1070tka + vykon 2-3% pod 1080
nj, pruser ako brno

+1
+4
-1
Je komentář přínosný?

skaven - tak to mela ten undervolt udelat AMD, zbytocne si ted Vegu berou lidi jako kartu zravou.

+1
0
-1
Je komentář přínosný?

jasne ze ano, ludia mozno, ale redmarx sa vyzna v hw, a sprava sa ako retard(troll)

+1
+3
-1
Je komentář přínosný?

Všiml jsis ty trole, že má Vegu 56, tedy nic extra žravého, nehledě na to, že ji ani na 100 % nevytěžuje?

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele rathanuviel

Nemám z toho vůbec obavy. Ve většině her bere celá sestava mezi 300 až 330W a v některých i podstatně méně. A jelikož nehraju víc, než 2 hodiny denně (v průměru ani to ne), nebude to nic, co bych zásadně pocítil.

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele hajčus

Co chlazení? Dělá to kravál?

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele rathanuviel

Záleží na tom. Karta samozřejmě v záteži slyšet je, o tom žádná.
Pokud to srovnám s mou předchozí Gigabyte 7970 GHz edition, jsou na tom zjruba stejně, možná je na tom Vega 56 o něco líp, ale nemůžu to tvrdit s jistotou, poněvadž jsem to neměřil.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele hajčus

No, uvidíme, jak budou vypadat nerefenčky, ale dík.

+1
0
-1
Je komentář přínosný?

Referencni Vegy se prodavaj proto dobre nakolik lze z modelu RX 56 udelat jednoduse flashnutim biose RX 64, dnes je to proste hype uzivatelu.

Co se tyce ponuky karet Vega tak tam chybi model nejdulezitejsi a to Vega RX Nano, ja osobne nezdilim potrebu referencky s vodnim chlazenim a tez nechapu proc je uvedena RX 64 jako klasika a limited pricemz ta limited neprinasi oproti klasice nic navic jenom hlinikovy oku lahodici chladic a cervene pismeno R na pravem boku, meli proste udelat RX 56, RX 64 LE(+vyssi takty, baleni her, tricko Ruby,...) a za nimi uvest RX Nano(undervolt).

RX Nano by se sakra hodila vuci Geforce GTX 1080 ktera zere min.

+1
-2
-1
Je komentář přínosný?
Obrázek uživatele rathanuviel

Nemyslím si, že by většina, nebo alespoň významější část zákazníků flashovala bios. A upřímně, ani není potřeba, tak karta má výkonu dostatek.

+1
+4
-1
Je komentář přínosný?

Otázka je co je dostatek výkonu. Tady je to o preferencích a herním spektru. Mnéhé i 2 roky staré AAA tituly v plné palbě na FHD a 60FPS neuchodíte. Některé hry na to vyžadují výkon GTX1080Ti. Jako majitel GTX1080 si prostě nemůžu dovolit mít všude plné detaily, pokud chci zachovat 60FPS minima.

+1
-3
-1
Je komentář přínosný?
Obrázek uživatele rathanuviel

To by možná chtělo g-sync zobrazovadlo. To by mohlo problém vyřešit, co myslíte?
Mimochodem, které hry nv1080 neutáhne 1080p na plné detaily? Ptám se proto, že bych rád věděl, co případně otestovat v benchmarcích...

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Step

Nerozumím vám. Přikládáte nejvyšší důležitost vydání Nano, která se v samotném principu bude potýkat s konstrukčními problémy. Ty problémy, které jmenujete o pár vět dále.

Malé a výkonné přináší problémy s chlazením a zbytkovým odpadním teplem, které samo od sebe nezmizí. Protiklady, které nelze vyřešit k úplné spokojenosti. Hluk, teploty, ... vždy v něčem musíte slevit. Překvapivě jsou Vega 56 úspornější s vyšším výkonem, než 1080, které si řeknou o více než 250W, záleží na taktech konkrétní karty. Na vašem místě bych si nebyl tak jistý, nebo se neoháněl výkonem, či spotřebou jen tak do větru. Předpokládám, že vás mini karta s minimálním chlazením v minimálně chlazené miniaturní skříní přímo nadchla.

Není to ani tři dny, co jste zatracoval a pro změnu chtěl upálit Intel za absenci podpory ecc pamětí a hned v dalších větách vynachválil AMD za příkladnou podporu ecc a další standardní plky. Nelze se nezeptat, komu se chcete vlastně zavděčit? Nebo jen sbíráte +/- od místní úderné skupiny teoretiků.

Než začnete mlet pantem, ať už vy sám, nebo další teoretici, na téma papírová spotřeba, ne nepodobná papírové podpoře, tak se podívejte na skutečnost a karty si osahejte v praxi např.: při zpracování fotografií do fotorealistických 3D objektů + mi najděte a jmenujte 3 desky, které jedou s ecc pamětí v ecc modu (TR4).

+1
-4
-1
Je komentář přínosný?

Navíc na trhu už mám mini ATX GTX1080... Proč mít méně výkonné Nano se stejnou spotřebou.

A fakt chci vidět tu GTX1080 co si vezme 250W... a ne, nebavíme se o peeku ale o průměrné spotřebě, nechápu proč tím tady pořád někdo argumentuje. Malý peek nezvedne teplotu... Běžná GTX1080 se průměrnou spotřebou drží kolem svého TDP - 180W, pokud člověk nezmění nastavení, karta v průměru přes tuhle hodnotu nepůjde a když se ji povolí power limit tak si nebude říkat o více jak 200W a to bude potřebovat skutečně pořádnou zátěž a možná i trošku OC.

V autě které vám žere 5l/100km průměru máte při rozjezdu se studeným motorem taky peek klidně 30l/100km, ale nikdo neřeší že to při rozjezdu žere 30l

+1
-2
-1
Je komentář přínosný?
Obrázek uživatele Step

Slovíčkaření s nedefinovatelnou proměnnou umí každý, ale z čeho a jak chcete definovat průměrnou spotřebu grafické karty? "Pokud byste snědl jedno celé kuře a váš kolega žádné, v průměru každý z vás snědl půlku" Neexistuje ani hrubý odhad, natož statistika, kdo a k jakému účelu karty nakoupil. Nedokážete vůbec, ale vůbec nic. V tom je ten vtip a přesně o to mi jde.

Na situaci nic nezmění ani jistá oblíbená věta "99% uživatelů", alias důkaz davem. To jako stoupnout si na náměstí a za pivo s gulášem sbírat podpisy pro sepsanou petici "My níže podepsaní prohlašujeme, že teorie strun platí," a takhle si uděláte výlet a budete mít svůj důkaz davem, bez ohledu na řadu zásadních nedostatků.

Proč? Všimněte si zvláštního chování aktivní většiny. Například napíšete, že konstrukční software sice dokáží využívat více jader (vláken), ale výkon (činnost, u které prostě čekáte dlouhou dobu) závisí na výkon jednoho jediného jádra. Není možné zahájit výpočet (přepočet) bez znalosti předešlého výsledku. Provede změny ve struktuře, sketchi, upravíte vlastnosti ploch ... atd., okamžitě se do vás pustí horda místních teoretiků, kteří v životě neviděli, natož pracovali s CAD. Vždycky se chytí jak šváby na pivo a spustí své dokazovaní davem a ony úžasné - nedefinovatelné proměnné např.: "běžné, normální, obyčejné, ..." :-) Není to ani tři dny zpátky, co dotyčný vychvaloval podporu ECC pamětí, ale kdybych se zeptal na tři desky, ve kterých paměť ECC funguje v ECC modu, neřekne mi ani jednu. Žvanit, žvanit, ale realita k nim ještě nedorazila.

Schválně se někdy podívejte po fórech, kde rozebírají chlazení, základní desky, (ne)výhody grafických a staví pracovní stanice. Překvapí vás, jakou výdrž, teploty a spotřebu ty karty opravdu mají a na průměr se nehraje, musí zvládat to, k čemu byla určena. Více karet x80/x80Ti než by si člověk pomyslel, končí právě v pracovních stanicích, nebo serverech. Kamarád je geodet a fotogrammetrie znamená, že mu někde měsíc létá dron s foťákem a další měsíce mají karty co dělat. V pracovní stanici pod stolem maximálně dvě, v hlučných kumbálech po čtyřech. Ani jedna vážený pane.

+1
0
-1
Je komentář přínosný?

Protoze narozdil od Tebe, ti lidi trosku umeji srovnavat. Ty udaje si cucas z prstu na zaklade karty, kterou mas a nastavenich, jak ji pouzivas. Jinde to meri na konkretnich modelech a neni duvod se domnivat, ze to tak neni. Priklad AVG (prumerne) spotreby u hrani pro MSI 1080 Gaming X Plus - 219W, 1080 FE 166W -> 53W rozdil!
https://www.techpowerup.com/reviews/MSI/GTX_1080_Gaming_X_Plus_11_Gbps/2...
Zajimave, ze na CB jim vyslo 214W (jen 5W rozdil), pricemz 1080W ma u nich ma jen dokonce 157W...jinymi slovy proporcne to sedi temer na chlup
https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/4/

Jinymi slovy...fabrikujes zavery a to spatne. Mozna neni 1080karta s AVG 250W spotrebou. Ale urcite se najdou 1080 karty, ktere zerou o 50+W vice nez FE edice a v peaku to nebude mit daleko k 240W.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele iocz

Dle některých komentářů co jsem tak postřehl je nvidia 1080 k ničemu pač má malý výkon. Proč pač vega 64 má hodně podobnej +- píše se že je slabá tak že nějak nechápu proč nvidia vydala karty 1080 , 1070 , 1060 atd. když jsou k ničemu a nemají výkon koukám že na hry je asi minimum dnes 1080ti. Vsadím boty že většina těchto pisatelů má doma FHD monitor 60hz.

Jinak provozuji vegu 64 v 2560x1440 v FreeSync rozsahu 35-90 fps víc než 90 pro mě nemá cenu pač to nepoznám tak že to honím na tech 90fps.

World of Tanks 90fps v power Save modu spotřeba se pohybuje na celou sestavu 230-300W
World of Warships 75fps v power Save modu víc fps nejde pač je to omezeno 210-270W
Armored Warfare 90fps vlastní 1050mv na jádro +25% tdp limit 330-420W
Rise of the Tomb Raider 81fps nastavena jako Armored Warfare 350-415W
DOOM 90fps power Save modu 220 -310W

4 hodiny hraní World of Warships cca 810 Wattů v menu spotřeba padá hodně dolů to samé Wot.
jinak CPU Ryzen 1700x 3850mhz napětí default zatím též provizorní chladič. Průměrná spotřeba při hraní hodně záleží na tom co hrajete na jakejch FPS atd. není taky problém aby sestava vzala 590W pokud nastavíte +50% TDP a necháte default napětí a k tom u na cpu 1,5 tak to taky dokáže. Otázka je jaký to má smysl. Když se to správně nastaví a nebo stačí v nastavení kliknout na ten Power save a vidím hned jestli mám pořád stejné FPS a nebo jestli se propadnou a cca 10 a jestli to stačí nebo ne. Jinak spotřebu měřím VoltCraftem Energy monitor 4500 má true RMS tak že měří správné hodnoty jakýkoliv jiný Wattmetr který neměří pomocí true RMS ukazuje nesmysli a naměřené hodnoty se mohou lišit +- 40% jak nic. Z toho plyne že průměrná spotřeba je někde úplně jinde než ta maximální co se ukazuje v recenzích a to dost často mám pochybnosti jestli to měří vůbec něčím co umí změřit počítačovej zdroj. Klasické Wattmetry na to nejsou stavěné data jimi změřená nejsou relevantní.

Jinak GK jsem vyměnil za předchozí R9 390 která měla menší TDP ale průměrnou spotřebu měla znatelně větší než vega 64. R9 390 jela na doraz když to vega má dost často rezervu a vzhledem k tomu že mnou hrané hry vetšinou zvládá na 90 FPS tak nejede naplno a tudíž spotřeba je mnohdy i o 100W nižší než na R9 390 za mě je to posun správným směrem.

+1
0
-1
Je komentář přínosný?

Naprosta vacsina dnesnych wattmetrow meria true RMS, cize pocita i s ucinnikom (posunom faze prudu voci napatiu). Uz od cenovky 450Kc a vyssie. ;) Nehovoriac o tom, ze dnesne zdroje s aktivnym PFC napriek tomu, ze nepojde o ciste odporovu zataz, sa i "hlupym wattmetrom" budu dat relativne presne odmerat, rozhodne nie s odchylkou 40%.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele iocz

true RMS není funkce měření účiníku cos fí. Klasický wattmetr který měří výkon ve střídavé soustavě ho měří podle vzorce P=U*I*cosfí tak to měří každý wattmetr jinak u střídavého proudu to ani jinak nelze. Bohužel klasické wattmetry ty běžně prodávané předpokládají že tvar signálu je sinus a na základě toho měří napětí proud atd. True RMS je kvadratická metoda. True RMS hodí všechny okamžité hodnoty na druhou, pak zintegruje a odmocní čímž získá efektivní hodnotu i když signál není sinusový. Počítačový zdroj se chová jako frekvenční měnič a způsobuje stejné zdroje rušení a deformací sinusu. na frekvenčním měniči není problém dosáhnout klidně i účiníku 99% ale signál sinus je deformovaný a do sítě se vrací rušení rušení které deformuje signál a klasický wattmetr odečte hodnoty na základě předpokladu sinusového signálu to je ten problém s true RMS je jedno jak je sinus deformovaný může to být klidně obdélník trojúhelník atd. A vždy změří správné hodnoty na základě jich pak provede správný výpočet. Opravdu PC zdroj se klasickým wattmetrem měřit nedá dělal jsem jednou i video kde jsem ukazoval jak se chová klasický běžný wattmetr a ten co používá true RMS kde bylo dobře vidět že pokud měříte žárovky ledničky rychlovarné konve rádia atd. Tak ukazují stejné hodnoty. Jakmile ale začnete měřit spínané zdroje měniče atd. Tak vám začne dost značně proměřovat protože neumí správně změřit hodnoty. PC zdroj je v běžné domácnosti ojedinělí spotřebič který se takto chová. Proto se wattmetry určené do domácností konstruují levným řešením pač 99% měření by to nebylo využito. Ale v průmyslu se zase měřáky bez této schopnosti nepoužívají vůbec.

+1
0
-1
Je komentář přínosný?

Ja pisem, ze true RMS merakov je dneska hromada a daju sa kupit uz od 500Kc nahoru. Sam autor, na ktoreho reagujem sa tu ohana VoltCraftem Energy monitor 4500, co je merak za liter. Mam doma i profi merak a v porovnani s volcraftom ci mojim za cca 6 kil, ci WifI Edimaxom je meranie presne na jednotku wattu. Takze mam to zmerane a stojim si stale za tym, co som napisal. Dnes nie je problem zohnat relativne levny merak, ktory spotrebu zmera naprosto dostatocne presne. Potvrdila mi to i spotreba na mojom mining rigu zmerana merakom vs. kWh natocene na el. hodinach. ;)

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.