Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Herní spotřeba RX Vega 64 dosahuje 250-285 wattů

Dekuju za clanek na prani. :-)

+1
0
-1
Je komentář přínosný?

"Dekuju za clanek na prani."

Redakcia dobre vie že investície do teba sa im niekoľko násobne vrátia v podobe kvalitných komentárov :)

+1
+21
-1
Je komentář přínosný?

Podle mě je to nějakej bot napsanej, aby rozviřoval diskuzi.

+1
+2
-1
Je komentář přínosný?

AI

Konkretne, mas-li zajem o specifikaci:

Cely projekt byl navrzen firmou AMD a web DIIT dostal moznost se podilet na prvni verzi AI s pracovnim nazvem "Crha", tato AI bezela na procesoru FX8350, 16GB RAM a dvou grafickych kartach Polaris RX480 v CROSSFIRE. Bohuzel a neni zrovna ke cti diskuterum na DIIT tuto AI zdejsi diskuteri vytocili tak, ze odesla diskutovat do jinych diskuznich skupin a sem zavita jen velice vyjimecne a diskuze se neucastni.
AMD ovsem dala zdejsimu webu jeste jednu sanci a vyvinula sem druhou pokrocilejsi verzi s pracovnim oznacenim "Redmarx" (poznamka: Nick, ktery AMD vybrala, zustava i samotne AI do dnesnich dni zahadou), hardwarove to jiz bezi na RyZen 7 1800X, 32GB RAM a grafika RX Vega Frontier Edition.

+1
-2
-1
Je komentář přínosný?

Kdyby to běželo na zmíněné konfiguraci, tak to má 2x vyšší IQ. Tedy jasný fake.

+1
+9
-1
Je komentář přínosný?

Myslím že si zapoměl na AI v.0.1, Jiříkovou. Ta už to tu ale taky vzdala, nebo se pletu? Možná jsem jí jen vytěsnal svým mozegBock.

+1
+2
-1
Je komentář přínosný?

500W mi žere lednice...

Tohle opravdu nemůže nikdo myslet vážně. Místo aby se tlačilo na výrazně nižší spotřebu, tak trend je zcela opačný a neplatí to jen pro AMD. Je mi úplně fuk kolik elektřina stojí jestli 5 Kč nebo 50 Kč, ale nechci aby to žralo z principu, není k tomu relevantní důvod.

+1
-5
-1
Je komentář přínosný?

" Místo aby se tlačilo na výrazně nižší spotřebu,"

A teraz si zober že ich máš 13 a celé dni a noci bežia na maxe, aby zarobili na miningu pár centov :(

+1
+8
-1
Je komentář přínosný?

Pár centů jo? :o)

+1
0
-1
Je komentář přínosný?

jojo pár centů, má pravdu Jožine, mrk mrk

+1
0
-1
Je komentář přínosný?

Ale vždyť se tak děje. Místo 200W PC, které ti hýbalo hrou na HD ti na to dnes stačí laptop se spotřebou 40W....

+1
+4
-1
Je komentář přínosný?

500w lednice? Drsné, obvykle větší lednice s mrazákem žerou něco jako 320kwh/rok, tzn v průměru méně jak 1kwh/den, tedy pod 40W.

+1
+6
-1
Je komentář přínosný?
Obrázek uživatele hajčus

40W ledaže by běžela nonstop... odběr je vyšší (u mě cca 100W), ale nejede pořád.

+1
-1
-1
Je komentář přínosný?

ta věta nedává smysl a Jirka má pravdu, u mě je to ještě méně (cca 240kWh/rok, štítek 162)

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele Gembler

wtf, chcete mi nakecat, že lednice jede nonstop? Leda otevřená...

+1
+5
-1
Je komentář přínosný?

proto se u lednice píše spotřeba za rok. Rozpočteno na hodiny to je max pár desítek W.

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Gembler

Rozpocteno na hodiny to dava pekna cisla, ale nutno si uvedomit, ze lednice bezi maximalne par minut a sepne nekolikrat za den, takze ten prikon ze zdi bude mnohonasobne vyssi.

+1
+2
-1
Je komentář přínosný?

Ehm lednice nebezi par minut ...a prikon ma opravdu maly...lidi neblnete to není rychlovarná konvice

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele hajčus

Jo napsal jsem to blbě. 40W/hod prostě není skutečnej odběr v okamžiku, kdy lednice chladí a bere...

+1
+1
-1
Je komentář přínosný?

Já to měřil, když jede, tak mi vysoká lednice s mrazákem žere něco přes 70W a průměr v třicetistupňovém vedru byl těsně pod 700Wh/den (tj. asi 250kWh/rok, v zimě snad žere trochu míň)
Z celého dne lednice chladí něco pod 10 hodin

+1
+1
-1
Je komentář přínosný?

Potom Vam odporucam namiesto nej

Chystá se absolutní grafický král? ASUS prý pracuje na ARES IV aneb duální Radeon RX VEGA
No jisté zdroje tvrdí, že ASUS tak už pracuje na novém Radeon RX ARES IV, který ponese dvě VEGA 10 v plné specifikaci a 16GB (2x8GB) paměti nejméně (vyloučit nemůžeme ani 32GB (2x16GB). Samozřejmostí bude AiO chlazení. ASUS zkrátka chce postavit nejvýkonnější grafickou kartu světa a měla by být dvojicí RX VEGA 64 na jediném PCB s taktem kolem 1600MHz pro obě jádra. Výkon této karty do jednoho slotu bude dosahovat famózních 26TFLOPS FP32. O TDP můžeme jen spekulovat, nicméně ASUS se rozhodně ničeho nebojí a už ARES III s fullcover vodním blokem měl 3x 8pin a TDP 525W
http://www.ddworld.cz/aktuality/zakladni-desky-mb/monstr-zni-asus-x399-r...

A hned styri take karty v dosle s TR4

http://www.ddworld.cz/images/stories/zakladni%20desky/AMD%20X399/ASUS/AS...

+1
-2
-1
Je komentář přínosný?

ty brďo, a po oc to atakuje 450W hranici, že? Bohužel další prototyp ala Fiji. Už dřív jsem psal že to bude další prototyp - a bohužel jsem se nespletl. Tak napotřetí to snad vyjde....

+1
-8
-1
Je komentář přínosný?

No i ta 1080ti zere 370W po OC. Bohuzel nvidia je na tom skoro stejne blbe.

+1
+7
-1
Je komentář přínosný?

otázka je zda to bude mít výkonem na přetočenou Ti. Obávám se že ji dá leda v těžbě etherea...

+1
-2
-1
Je komentář přínosný?

Tak vo vypoctoch je situacia niekedy ina a tam niekedy moze AMD spomalit, aby porazila pretocemnu 1080Ti

napr. clpeakOpenCL Test: Double-Precision Double
GFLOPS, More Is Better

1080TI 415,06
Fury 447.26
R9 290 599.06
https://openbenchmarking.org/embed.php?i=1708107-TY-OPENCLVEG85&sha=0413...
https://www.phoronix.com/scan.php?page=article&item=opencl-aug-2017&num=5

+1
+1
-1
Je komentář přínosný?

Ale prd... 1080 Ti žere s maximálním OC 320-350W pokud je vytížená na maximum (ty běžné verze). Moje Asus Strix například 330W max. se zvednutým power limitem, ale zase to má o 35-45% větší výkon než ta Vega dle těchto testů https://videocardz.com/71771/final-radeon-rx-vega-64-3dmark-performance
V nepřetaktovaném stavu žerou cca 280-290 W a i to je výkonem jinde.

+1
-2
-1
Je komentář přínosný?

referenční Ti má maximální power limit sotva 300W (250W TDP, max power limit 119%), takže netuším jak by ta karta žrala 370W když tolik nedovolí bios. 1080 sní při max. power limitu max 220W (180W TDP, 121% power limit). V obou případech by ale muselo jít o OC do maxima té karty a titul který ji umí do maxima vytížit a tím nemyslím 100% load, ale typ činnosti kterou provádí, například AA umí spotřebu vyhnat hodně nahoru. Bez OC si to chroustá kolem toho power limitu. Pokud se hraje se synchromnizací, což dělám vždy, tak velká část her v mnohých scénách bude výrazně omezena. Reálně mívám odběr kolem 150W, tedy skoro o 20% méně než TDP karty. A pokud vím AMD teď nesrovnává maximální výkony ale herní zážitek, tzn používají hojně FreeSync, který bude mít kladný dopad na spotřebu

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9HL04vNTgx...

Já vidím špičky u ne-Ti verze na 350W. :-)

Ona to je jen otázka přesnosti měření. V průřezu (a dlouhodobější aproximaci) je to samozřejmě méně, ale totéž platí pro GPU od AMD.

+1
+1
-1
Je komentář přínosný?

Aneb jeden o voze a druhý o koze... proč sem dáváš spotřebu GTX 980, když už tak https://tinyurl.com/ya9t4uve a průměr 173 W pro GTX 1080 nebo https://tinyurl.com/y8hlc5u2 průměr 206 W po přetaktování - http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-pascal,4572-...

+1
-1
-1
Je komentář přínosný?

to není omyl, to je záměrné lhaní. Tydýt je známá amdfan firma. Teď když jim toužebně očekávané radeonky pohořely tak bude aspoň on a banda z ddfan webu trolovat co půjde. A mimochodem, Dbloger je až tak aktivní že vyloženě AMD škodí, proto mu neposlali ani TR a může čučet akorát na prázdnou desku :-))

+1
-5
-1
Je komentář přínosný?

samo že nějaké špíčky půjdou přes na jakékoli kartě, jde ale o průměrnou spotřebu.. pár ms špička jednou do minuty na dvojnásobek normální spotřeby téměř nijak neovlivní průměrnou spotřebu ani teplo co generuje.

https://www.pcper.com/files/review/2017-06-30/power-witcher3.png

není to v detailu s takovýma špičkama a lépe to reflektuje dlouhodobou spotřebu těch karet a je tam jasně vidět, co ty karty žerou.

Je tam vidět i průběh 1080 a 1080Ti a odpovídá to tomu co o těch kartách tvrdím. AMD určitě neměřilo špičky ale průměry.

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele Hrdina

...proto bude reálná (= za avizované ceny) dostupnost až v lednu, v zimě nikdo spotřebu neřeší ;)

+1
+2
-1
Je komentář přínosný?

No nevím, v lednu bývá největší kosa :)

+1
+1
-1
Je komentář přínosný?

V !Čechii" máte mesiac kosáka, tak to môže slúžiť ako najvýkonnejší kosák (česky srp).

so 180W trthačom vlákien
Product Line Model Cores Threads Base Clock (GHz) Boost Clock (GHz) XFR (GHz) PCIe® Lanes TDP (Watts) Suggested Price, SEP (USD) Availability
AMD Ryzen™ Threadripper™ 1950X 16 32 3.4 4.0 4.2 64 180 $999 Aug. 10
AMD Ryzen™ Threadripper™ 1920X 12 24 3.5 4.0 4.2 64 180 $799 Aug. 10
AMD Ryzen™ Threadripper™ 1900X 8 16 3.8 4.0 4.2 64 180 $549 Aug. 31

https://www.amd.com/en-us/press-releases/Pages/amd-launches-the-2017aug1...

Aj ked TR ma zjavne dobre chladenie

AMD Ryzen™ Threadripper 1950X
Max Temps
68°C

https://www.amd.com/en/products/cpu/amd-ryzen-threadripper-1950x

Pri 180W ma die temperature pod 70 Celziov

to vyzera na v yuzitie

AMD patents Peltier cooler on chip
21 October 2004
https://www.theinquirer.net/inquirer/news/1014063/amd-patents-peltier-co...

+1
-4
-1
Je komentář přínosný?

Wau s tou funkciou chill su tie hodnoty skvele.

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele rathanuviel

Ano, s funkcí chill to vypadá dobře. Uvidíme, jaký to bude mít dopad na výkon...

+1
+3
-1
Je komentář přínosný?

Prostě to osekává fps, to už si radši nastavim vertikální synchronizaci. V tom chill nevidím moc smysl.

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

Chill na rozdíl od vsyncu nepřidává input lag.

+1
+5
-1
Je komentář přínosný?

Ok, díky za opravu.

+1
0
-1
Je komentář přínosný?

který je stejně drtivé většině hráčů ukradený nebo v tom nepozná rozdíl. Nejčastěji o input lagu píší ti, kteří mají HW na kterém jsou rádi že vůbec něco uchodí.

Nicméně, o kolik v tom padne výkon, když spotřeba klesne trojnásobně? Proč to pak musí brát tolik. Klidně mohli obětovat trošku výkonu za lepší spotřebu a nechat to na majiteli pro případné OC. Ale chápu že by pak AMD ty karty s výkonem 1070 za cenu 1080 moc neprodávala.

+1
-10
-1
Je komentář přínosný?
Obrázek uživatele rathanuviel

Dobrý den pane, už jsme si dlouho nepsali... Nepřemýšlel jste o jiném nicku, třeba JirkAfekt?

+1
+3
-1
Je komentář přínosný?

co je za problém. Něco jako input lag mi nepociťuji, naopak synchronizace vylepšuje můj herní zážitek, stejně jako velké spoustě dalších hráčů. O hráčích na konzolích ani nemluvě, ti mají nižší FPS než ti co hrají ve synchronizací na PC a jejich "input lag" musí být výraznější, nehledě na to že v drtivé většině to jsou navíc bezdrátové zařízení... A na PC jsou bezdráty taky, konec konců ty konzolové ovladače na PC běží, bezdrátové klávesnice a myši lidi také mají...

To že bude mít RX Vega vyšší spotřebu než konkurence víme také už od vydání VegaFE. Pokud ta karta potřebuje 270W na plný výkon a v nějakém úsporném režimu si vystačí s 1/3, pak by se měl každý zájemce o takovou kartu ptát kolik výkonu to v tom režimu má a pokud to bude nějak výrazněji víc než polovina, tak by se měl ptát proč karta nemůže běžet efektivněji v max výkonu.

+1
-2
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

S tím vsyncem hodně záleží na konkrétní hře a také zbytku sestavy, minimálně v online hrách vsync nepoužívám, prostě použiju AMD Frame Pacing a zalimituju max FPS třeba na 80, jelikož mám 60Hz ne-FreeSync monitor.

Co se týče bezdrátových periferií, ty levné mívají input lag jako prase, klidně 100-200ms, což je celkem masakr. Nicméně jsem byl příjemně překvapen, že taková Logitech MX Master tím netrpí, což je super.

+1
+1
-1
Je komentář přínosný?

Mně žere 1080 Gaming X 220W, takže jestli Vega bude žrát 270, tak to bych viděl jako ok. 50W by už nehrálo moc roli. Otázka je, jestli bude výkonem spíš GTX1080 a nebo GTX1080 OC.

+1
+2
-1
Je komentář přínosný?

GTX1080 a GTX1080 OC je plus mínus to samé. Většinou je tam jen pár procent rozdílu a když člověk půjde do vlastního OC, tak obě přetaktuje stejně, resp. tak jak umožní kvalita čipu. Vím o lidech co své nereferenční kousky nedostali ani tam kde já FE.

Těch 220W pro tu Gaming X je TDP a ne spotřeba, je to tak? Skutečnou spotřebu monitoruješ? Jak? Já jednak spoléhám na reporting z karty, tak reporting kolik dodává zdroj, zdroj pak můžu ověřit ještě wattmetrem v zásuvce.

50W se nezdá moc, ale srovnává se TDP OC edice karty vs skutečná spotřeba. Skutečná spotřeba té GamingX nebude nějak vybočovat ze spotřeby referenční po stejném OC. Ta gaming bude mít průměrnou spotřebu jistě hodně pod 220W, reálně to vidím na rozdíl 70W.

70W rozdíl znamená 26% spotřeby, 50W je 19% spotřeby. To už je docela dost i když absolutně to není žádná velká tragédie. Ale je to dost tepla navíc které je třeba chladit a i v té elektřině se to projeví, jasně jsou to řády stovek za rok, 1-2 tisíce za životnost karty (dle toho na jak dlouho ji člověk plánuje, čím déle, tím více). Je to částka kterou je třeba připočíst k ceně. V tu chvíli se díváme na cca stejně výkonné karty za stejnou cenu (byť obchodníci tvrdí že je budou prodávat za víc než doporučuje amd), tzn rozdíl spotřeby v životním cyklu může celkovou cenu vlastnictví té karty ovlivnit, stejně jako případná prodejnost staré karty, tady ale těžko předjímat.

Jinak samo AMD oslovilo recenzenty ať v recenzích preferují Vega56 ne Vega64. Vypadá to že Vega64 je fakt jen uměle vyhnaná karta tak aby dosáhla na 1080 ale čipu už to nesvědčí

+1
-4
-1
Je komentář přínosný?

Měřím SW i wattmetrem, 220W mi ta karta žere naprosto běžně. Podívej se na dnešní článek na PCT a najdi si tam graf spotřeby. 1080 Extreme od Gigabyte jim tam žere 220W (a to tam píše, že ve FHD nejede ani na plno), tedy úplně stejně jako jim žere GTX1080Ti! Prostě tyhle vyhnané OC edice žerou jako tank.

Výrobci píšou ve specifikacích kraviny. Mám xx ks 1070 Gaming X co těží. MSI píše power consumption 150W. Ani prd! Po vybalení z krabice, žraly 185W (přesně změřeno wattmetrem+platinum zdroj-započítána jeho efektivita) a to i ve hrách. Po OC 200W a šlo by to ještě víc. Tyhle 1070 mají 8pin+6pin a bez toho 6pinu se ani nezapne, přitom teoreticky by jeden 8-pin měl s velkou rezervou stačit. Proč asi?

Rozdíl v nákladech za el. Vega vs 1080 je vtipný. To můžeš rovnou započítat rozdíl 3000,- Gsync vs Fsync monitor. To už by mě víc sralo to teplo, než pár drobných za elektřinu.
Ale co se namáhám, ztráta času tu diskutovat s fanatikem..

+1
+6
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

Stačí pořídit vysokorychlostní pumpu a teplý vzduch rozvádět po baráku: https://upload.wikimedia.org/wikipedia/commons/d/da/NVIDIA_GeForce_FX_58...

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Gembler

hodnoty možná, ale zkus si to zapnout... je to votravný jak Start-Stop v autě, jen se to nemusí vypínat při každym startu :D
Dělá to to, že když je obraz statický, tak to sníží grafický výkon (tím pádem klesne i spotřeba a fps), nicméně to snižování a zvyšování fps je při tom procesu rušivý (alespoň pro mě).
Úsporné funkce prostě vypínám, spotřebu neřeším.

+1
0
-1
Je komentář přínosný?

to nebude jen ve statickém obrazu., mě se 1080 v některých titulech vesele podtaktovává dle potřeby jednotlivých scén.

+1
-6
-1
Je komentář přínosný?
Obrázek uživatele Gembler

Chill je usporna funkce pro radeony

+1
+6
-1
Je komentář přínosný?

no jasně že je, ale radeony se neumí taktovat samy dle aktuální zátěže a potřebují nějaký úsporný režim? Na GTX v některých hrách z 1860MHz frekvence padá někde k 1200, když ji v danou chvíli hra nevyužívá natolik aby bylo potřeba držet maximální takt. Nejvíc to pozoruji v Division.

+1
-2
-1
Je komentář přínosný?
Obrázek uživatele Gembler

Pokud neni radeon omezeny tdp, nebo vsync, tak jede na max, stejne jako gtx, kdyz ho prepnes na maximalni vykon. Gtx maji "uspornou funkci" zapnutou defaultne, ale neni tak agresivni, jako chill. Tusim, ze se to jmenuje nejak rezim rizeni napajeni, nebo tak nejak...

+1
+1
-1
Je komentář přínosný?

má režim napájení... standardně je adaptivní resp. optimální, kdy se to mění dle zátěže, dá se zapnout max. performance, ta drží max. takt pořád. Hodí se to jen výjimečně, když máš titul který to vytěžuje na hranici power states a pořád to mezi nimi skáče, což může vyvolat třeba stuttering atd. Pokud titul tu kartu plně vytíží tam v tom rozdíl není. Takhle se chová vesměs každá grafika. Ten chill mi přijde že je tam uměle stanovený nízký power limit společně s nižšími takty. Tohle GTX standardně nemá jako jednoduchou volbu, ale stejného efektu se dosáhne podtaktováním.

+1
-3
-1
Je komentář přínosný?

Radeony mají "úsporu energie" nebo jak se to jmenuje a funguje to naprosto stejně jako u NV, jen to člověk může ovládat. Dále Chill tak jak tu píšete funguje ale jinak. Nejde o to o jak náročnou scénu jde, ale o to, zda posíláte do PC nějaké příkazy myší nebo klávesnicí. Pokud se tedy například ve Sykrimu budete kochat výhledem na zasněženou pláň, postupně Vám začnou klesat FPS až na hodnotu 30FPS (myslím že je to minimum). Pokud ale na tu planinu budete koukat a chodit třeba jen dopředu/dozadu, ovladač bude detekovat uživatelské vstupy a FPS půjdou nahodu. Pokud jsou vstupy na klávesnici i myši s velkými změnami, grafika pojede na max.
Chystám se to vyzkoušet, ale podpora je jen u některých titulů a co jsem koukal tak to můžu testovat pouze na pěti(ty mám) a z toho se k tomu donutim pravděpodobně jen u Fallout 4 a Skyrimu.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Gembler

Tak zrovna u falloutu a skyrimu je to naprostá ptákovina, jelikož ty hry mají divnej engine a "natvrdo" zapnutý vsync na 60, protože jsou některé animace a hlavně "gravitace" ve hře natvrdo spojeny s frameratem. Například lockpicking, při kterém bez vsyncu vystřelí framerate až do stratosféry, je obzvlášť "zábavný", když je ta animace třeba 40x rychlejší. To samé skákání, sprint, čerpání AP atd.
Dokážu si to představit u strategií, třeba anno, civilization, homam, starcraft asi moc ne, tam je to hodně o apm...

+1
0
-1
Je komentář přínosný?

Je to len môj pocit alebo fakt RX Vega zmizla z ponuky českých a slovenských obchodov? Ešte minulý týždeň som videl RX Vega 64 v CZC aj Alze, teraz nič

+1
+3
-1
Je komentář přínosný?
+1
0
-1
Je komentář přínosný?

Taky jsem sledoval alzu a czc, podle mě to stáhnuli, aby mohli smazat komenty - všichni tam řvali, že je vysoká cena a docela se to zvrhlo (měli tam 24 - 29kkč)

+1
0
-1
Je komentář přínosný?

moj cely pc zere 285w....

+1
-3
-1
Je komentář přínosný?

A môj v idle 6W a pri záťaži 19W :) HP 260 G2 so SSD namiesto klasickeho HDD.

+1
+3
-1
Je komentář přínosný?

Ach jo, to je zase koment jako pojď na mě z boku. Informačně totálně o ničem.
To můžu říct taky, že ti to žere jako prase, když mě to žere 160W
Ä víš prd, protože nevíš co je to za PC, jaký CPU, jaký GPU, kolik mám disků, jestli taktuju atd. Navíc nevíš ani to, jestli to je v klidu ve WIN, pri Furmarku nebo hrách a jakých hrách.
A takhle bychom mohli pokračovat ještě dlouho. prostě výkřik do tmy.
Navíc toto bude od AMD na nějakou dobu herní HighEnd - takže pochybuju, že máš s tou spotřebou 1080Ti, protože by si byl skoro o 100W výš (usuzuju, že máš nVidii).

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

Moje PC žere 0W.

+1
+2
-1
Je komentář přínosný?

:D
vega je fiasko, deal with it

+1
-3
-1
Je komentář přínosný?

to je mi ukradený, já nic kupovat nechci, je ty tu ze sebe děláš vola, deal with it

+1
+1
-1
Je komentář přínosný?

amd fanboy detected

moj vykonny pracovno herny pc zere menej ako ta karta

je 2017, standardy su trocha ine

trafena hus zagaga

+1
-4
-1
Je komentář přínosný?

A napíšeš nám komplet konfiguraci ?
Jinak málokdo si uvědomuje, že ta karta ten příkon pořád nežere, ani ve hrách, reálně je to mnohem níž jak u nVidie tak AMD. Záleží na rozlišení a nastavení.

+1
0
-1
Je komentář přínosný?

A uz si pohonil a je dobre? Bo vidim, ze si to pisal pred 2 dnami. Zdravi majitel gtx co nejak nechape komplexy, ako si ty a je jedno z ktorej strany. ;)

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

Padlo NDA na ThreadRipper, bude mít diit recenzi?

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele QWERTY

Možno už Obr žhaví TR tam volade u seba

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

"AMD vydalo žravé monstrum, které má problémy jako Ryzen, nízké IPC, malé frekvence, žádný overclocking, problémy s RAM, kdy se deska ani nezapne, celá platforma je naprosto nestabilní a AMD nedodává k procesoru ani chladič. Zaujmout může jedině cenou, my ale moc dobře víme, že jakýkoliv procesor z rodiny Core i9 je ve všech ohledech lepší."

Takovou recenzi číst nechci.

+1
+6
-1
Je komentář přínosný?

Díky, ta I9 se teda pěkně smaží ve vlastní šťávě, 85 stupňů ? lol
Jinak je to těžká plichta, čekal jsem trochu víc. Ale aspoň se rozhýbe trh a nebudeme kupovat cpu za nesmyslné peníze.

+1
0
-1
Je komentář přínosný?

zase přetaktované paměti tomu TR vyloženě nesedí, 30W pokles spotřeby jader aby to mohl nabrat memory controler. V idle dokonce 13% rozdíl mezi 2,6 a 3.2 ghz paměťmi...

+1
-5
-1
Je komentář přínosný?

To hodne zalezi, na ktere testy se divas. Tam kde jadra vyuzijes rendery, video konverze, vedecke vypocty, plus nekolik mutlitaskovych uloh najednou, tam to uz plychta neni. Tyhle CPU uz vetsinou bude kupovat nekdo, kdo predem asi presne vi, co od toho cekat. Neco jako ten typek na HWUnboxed..kde mu to v jeho cinnosti, coz je video render s CUDA davalo lepsi vysledek nez 7900x za levenjc ;)

+1
+4
-1
Je komentář přínosný?

plichta to neni, ve vicevlaknovejch testech vede TR na plny care, ztraci v jednovlaknovejch.. jenze kdo by si kupoval sestnactijadro kdyz potrebuje jednovlaknovej vykon? (:

+1
+2
-1
Je komentář přínosný?

Ten kdo bude potřebovat 16 jader a zároveň silných jader, třeba...

Zatím TR vede, ale je třeba si uvědomit že stojí jen proti 10c/20t konurence a dosahuje jen nějakýh 37-40% výkonu navíc max. což je ve finále o lepší výkon pro Intel, kterému chybí 60% jader TR 1950 ale chybí ani ne 40% výkonu. i9-7900X je výkonově srovnatelný s 12c/24t TR, což dokonce znamená že cenový rozdíl Intel vs AMD je jen 200USD a to jsou pro sestavy ve kterých takové CPU běží "drobné".

Navíc je tam problém s tou spotřebou paměťového řadiče, když se u TR použijí rychlejší paměti. IDLE je žravější asi o 1/3, ve výkonu to ubere skoro 20% energie jádrům, které pak logicky nemohou jet na takový výkon.

+1
-6
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

A uvědomujete si soudruhu, že ThreadRipper má více PCI-E linek a hlavně má podporu ECC RAM?

To jsou killer featury pro spoustu lidí co chtějí workstation, co nebude mít dva superžravé Xeony.

Jeden TR poskytne dost výkonu, hodně linek pro PCI-E SSD, grafické karty i různé akcelerátory + ECC RAM pro lepší stabilitu.

Core i9 vám toto nenabídne + má méně linek. Ten rozdíl 200USD se najednou navyšuje, pokud bych chtěl u Intelu více PCI-E linek než 44 a podporu ECC, nebo ne? :)

TR by moho být klidně ještě dražší a pořád by se jednalo o skvělou volbu.

Důležité je, že AMD je zpět, zákazník má nyní možnost výběru, což tu mnoho let nebylo.

+1
+5
-1
Je komentář přínosný?

Jistě že má více PCI-E linek. Samozřejmě že pro specifickou potřebu to chce specifický systém.

Bavím se o tom z pohledu enthusiast segmentu, kde 44 PCI-E linek může v pohodě stačit a rozdíl v ceně sestavy bude dělat třeba jen 5%

+1
-5
-1
Je komentář přínosný?

Ty si fakt chorý človek na gebuľu :(

+1
0
-1
Je komentář přínosný?

Jirko běž s tou demagogii někam.
Důlěžitý je poměr cena / výkon (vlastnosti). To znamená, že celý druhý odstavec můžeš škrtnout.

Pokud je 200USD marginální rozdíl na takové sestavě tak 30W je co ? To tvrzení, že paměťový radič bere energii jádrům a ta zpomalují pochází odkud ?

+1
+4
-1
Je komentář přínosný?

Asi ma Jirka nejaky tajny zdroj informaci..protoze vsude jinde je TR s rychlejsima pametma jednoduse rychlejsi ;)

+1
+4
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

Ale ne ve WinRAR 2.01 Beta (build z roku 2002)!

CHECKMATE AMD FANS!

+1
+5
-1
Je komentář přínosný?

+1 :D

+1
+2
-1
Je komentář přínosný?

já nepsal že je pomalejší ale že paměťový řadič při použití rychlejších pamětí vyžadoval více energie a v rámci max TDP logicky došlo k nižšímu napájení jader. V plné zátěži to bylo 20W, v IDLE to pak mělo o 13W vyšší spotřebu s rychlejšími paměťmi.

v zátěži jen cores power
http://images.anandtech.com/graphs/graph11697/89811.png

v idle celá package
http://images.anandtech.com/graphs/graph11697/89807.png

Logicky když uberu 20W jádrům, nepojedou tak rychle, kdyby je dostaly. Celkový výkon může jít nahoru, ale se specifickým scénářem to může být naopak horší.

+1
-2
-1
Je komentář přínosný?

Hmm.. to zni uz zajimave. Otazka, jestli takovy scenar pri nizsim "TDP" ma v praxi nejaky konretni dopad. Logicky to zni muze, ale asi by to chtelo prozkoumat trosku vic.
Potom se nabizeji varianty nastavit napeti rucne a samozrejme, kdyz udelas OC a nastavis tomu napeti rucne, tak by si to mel v principu obejit, pokud takovy jev vubec v praxi nastava.

+1
+3
-1
Je komentář přínosný?

Jirko cituji "ve výkonu to ubere skoro 20% energie jádrům, které pak logicky nemohou jet na takový výkon.".
Citace 2 "já nepsal že je pomalejší"
Citace 3 "Logicky když uberu 20W jádrům, nepojedou tak rychle, kdyby je dostaly. Celkový výkon může jít nahoru, ale se specifickým scénářem to může být naopak horší."
Zase demagogie ? (specifický scénář, může)

+1
+1
-1
Je komentář přínosný?

Jirka ma nemoc a zacina sa stale viac a viac prejavovat. V diskusiach. Jak ten Jirka, tak ta Nemoc.

+1
+1
-1
Je komentář přínosný?

Ach jo.

Psal jsem že jádra pojedou pomaljij díky vyššímu odběru controleru.

Nepsal jsem že dojde k zpomalení celého systému protože taktované paměti to táhnou nahoru. Teď už jen najít případy, kdy to nebude mít přínos.

+1
0
-1
Je komentář přínosný?

zdroj:
http://www.anandtech.com/show/11697/the-amd-ryzen-threadripper-1950x-and...

Primárně je třeba si stanovit požadovaný výkon. Pokud někdo hledá výkon TR1950X, nebude vybírat jako alternativu i9-7900X ale vyšší modely, které budou pravděpodobně výkonově blíže. Pokud tedy hledáme výkon i9-7900X, bude k němu ekvivalentní TR1920X. Pak je to o tom co mi nabízí celý systém, co z toho potřebuji, co beru jako výhodu/nevýhodu a k tomu do vyhodnocení zahrnu i cenu. Záleží pak na tom jakou váhu budou pro kupujícího mít jednotlivé kritéria a cena prostě poměr cena/výkon nemusí být pro někoho tak zásadní kritérium jak některé jiné vlastnosti.

+1
-3
-1
Je komentář přínosný?

"ale je třeba si uvědomit že stojí jen proti 10c/20t konurence a dosahuje jen nějakýh 37-40% výkonu navíc max. což je ve finále o lepší výkon pro Intel, kterému chybí 60% jader TR 1950 ale chybí ani ne 40% výkonu. i9-7900X je výkonově srovnatelný s 12c/24t TR"

Jenže otázka je, jak vysoko budou vyšší verze i9 schopné jít s frekvencí na všechna jádra, s ohledem na spotřebu a teplo. Něco výkonu navíc dostanete, ale úměrné počtu jader to asi taky nebude.

+1
+2
-1
Je komentář přínosný?

dufam ze ta nezazaluje za krive obvinenie

+1
0
-1
Je komentář přínosný?

Mnohem zajímavější možná bude Vega v noteboocích:

https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=53156431&os1=Windo...

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

Dle tohoto testu je to jen trochu rychlejší než Intel HD620 v i5-7300U, někdy i pomalejší.

Mobilní Ryzen mě zajímá, ale chce to počkat na reálné vydání a ne na to koukat na nějakém nepodloženém webu.

+1
+2
-1
Je komentář přínosný?

To mi přijde zajímavé, protože i ta A12 vypadá zajímavě v současných herních testech, rozhodně líp, než co jsem měl na HD 4400. A HD 620 se nejeví zas až tak rychlejší než HD 4400. S čekáním na další testy souhlasím.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Xspy

A bude Vega pod Linuxem taky chybová jako Ryzeny?... Když už jsme u těch nejasných provozních limitů a reakce redakce....

+1
-8
-1
Je komentář přínosný?
Obrázek uživatele Much Doge

Zcela určitě ano. Veškerý hardware, který AMD tento rok vydala není vůbec funkční. Jsou to vlastně jen atrapy a nikdo to nekupuje.

AMD drží tajně nad vodou Bilderberg, aby nikdo nemohl obvinit Intel z vypouštění chemtrails a boattrails. NVIDIA zase provozuje HAARP.

+1
+13
-1
Je komentář přínosný?
Obrázek uživatele TyNyT

:-D

+1
+3
-1
Je komentář přínosný?

:P

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele Xspy

:D... Na Nvidii jsem měl podezření dlouho. Jen těch šmírovacích utilit už po startu .
Však ony i atrapy mohou mnohým vyhovovat. Důležité je o tom mluvit a čekat na revizi v které nepůjdou ven chybující zmetky.

+1
0
-1
Je komentář přínosný?

Ouch

+1
0
-1
Je komentář přínosný?

Jsou tu první leaky...

RX56:
https://videocardz.com/71953/are-these-radeon-rx-vega-56-benchmarks

average 25 her stejně nebo chlup nad 1070 (jak jsem předpokládal)

RX56 a 64
http://wccftech.com/amd-rx-vega-56-and-vega-64-final-aggregate-performan...

1070 84%
Vega 56 91%
1080 100%
Vega64 103%

žádná velká změna od toho co už jsme tu viděli u VegaFE.

+1
0
-1
Je komentář přínosný?

Spotřeba v článku odpovídá použití power saving mode.

https://videocardz.com/71984/first-review-of-radeon-rx-vega-64-air-and-l...

Tady jsou ty spotřeby v balanced modu, tedy standard trošku jiné a v případě stress testu v 3DMarku to bylo 380W v Metru 308W…

Extrém je pak vodní verze s max power limitem… k 500W moc nechybí.

Jinak výkon… air někde lehce nad 1080, někde lehce pod, ustřelil jen BF1 v DX12, kde NV ztrácí, ale majitel NV to bude hrát v DX11 kde ten výkon bude srovnatelný.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.