Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Výkon Vegy je srovnatelný s GeForce GTX 1080 Ti a Titan Xp

„Výkon Vegy ve srovnání s GeForce GTX 1080 Ti a Titanem Xp vypadá velice pěkně“
=
Lepší poměr cena/výkon než Geforce 1080 / 1080Ti.
Což asi nikoho nepřekvapuje, vzhledem k tomu, že 1080/1080Ti je highend a ten má vždy nehorší poměr cena/výkon.

+1
+2
-1
Je komentář přínosný?

Na mírně sugestivní (až předpřipravenou) otázku

- I know you won't be able to say much, but how does Vega compare to the Nvidia GeForce GTX 1080 Ti and the Nvidia Titan Xp?

přišla odpověď:

- Vega performance compared to the Geforce GTX 1080 Ti and the Titan Xp looks really nice.

Dotaz nezněl na poměr cena/výkon a ani odpověď ani náznakem nic takového nenaznačuje. Z mého pohledu to může být cokoli od 80% výkonu až třeba po 200%. Podotýkám, že Vega s HBM bude nesporně hiend také, ostatně v hiendu nikdo ceny neřeší.

+1
+5
-1
Je komentář přínosný?

V DX12 to bude presne 105% vykonu, ve Vulkan 115% vykonu a v DX11 65%. Takze o nicem.

+1
-7
-1
Je komentář přínosný?

Já furt nevim co se slaví. Výkon full Vegy srovantelnej s 1080ti (ala dost ořezané GP102) by byl zklamání, jednak se od téhle "superduperhigh-tech" věco čekalo více, a druhak GP102 už v tu chvíli bude rok na trhu. Vydat s ročnim spožděnim kartu s obdobnym výkonem mi nepřijde jako úspěch. Zatim to vypadá na scénář podobnej Fiji vs 980TI, kde to Fiji naprosto projela.

+1
-6
-1
Je komentář přínosný?

'' jednak se od téhle "superduperhigh-tech" věco čekalo více ''

odkud beres ty tvoje ''čekalo se víc''? (: nikdo s mozkem v hlave necekal vic nez vykon gtx1080ti.. specifikace ma vega stejny jako fiji krom sbernice.. ta je polovicni.. tim ze zapracujou na efektivite tezko vykon vyleti na dvojnasobek.. ze mas naprosto mimozni ocekavani je jenom tvoje vec.. (:

+1
+10
-1
Je komentář přínosný?

Tak doufejme že zapracujou aspoň na tý efektivitě. Polaris vs Pascall nic moc co se týče efektivity.

Čekat více je ale normal s timhle spožděnim. Pascall je defakto launch produkt nového procesu. tzn jakmile TSMC bylo schopno vyrábět GPU na onom procesu tak pascall šel out a hned s velkými čipy. AMD si dalo další rok na odlaďování procesu a vylepšování arch tak by to sakra mělo bejt znát ne? Nabrali takové spoždění že Vega bude bojovat spíš s Voltou než s Pascallem, a ten krátkej souboj pár měsíců s pascallem by tedy měla dominovat, protože Volta pravděpodobně bude podobnej odsun od Pascallu jaoko byl Maxwell vs Kepler. Nezapomínejme že Pascall je jen die-shrink maxwellu s drobnými vylepšeními, a i to mu stačilo k té pozici jakou si vybudoval, jen proto že nebyla konkurence.

+1
-5
-1
Je komentář přínosný?

„Čekat více je ale normal s timhle spožděnim.“

Fiji / GCN3 - červen 2015
Polaris / GCN4 - červen 2016
Vega / GCN5 - květen nebo červen 2017

Už tři roky AMD drží stejný interval při vydávání nové architektury. Z čeho usuzuješ, že došlo k nějakému zpoždění? I pokud připustíme, že se zpoždění koná, tak mi prosím tě řekni, kde jsi vzal, že zpoždění je zárukou toho, že produkt bude kvalitnější? Zpoždění je vždy důsledkem problémů nebo nečekaných okolností a ty jaksi těžko zaručí, že výsledný produkt bude lepší, než si někdo představoval.

Mimo to systematicky opomíjíš, že stávající situace je důsledkem rozhodnutí Roryho Reada, že se situace AMD zlepší, pokud seškrtá financování vývoje grafických čipů. Výsledek je ten, že grafická divize nejen že ztratila lidi, protože by všechny ze seškrtaného rozpočtu nezaplatila, ale navíc si může v každé generaci dovolit vydat jen polovinu čipů, co dřív. Takže s jednou generací musí vynechat high-end, s druhou low-end. Tyhle segmenty tím Read naservíroval Nvidii, která díky němu získala takovou část trhu, že neví co s penězi a vyrábí v každé generaci naopak o polovinu čipů více než dřív. I když se po Readově vyhození tohle částečně napravilo, nedá se reálně čekat, že se z Readova tříletého úřadování grafická divize zotaví jako mávnutím kouzelného proutku ze dne na den.

+1
+9
-1
Je komentář přínosný?

Říkáš to co sám vim. Nic co jsi teď prohlásil nerozporuju. Já to říkám hlavně proto aby lidi krotili vášně. Všichni viděj Vegu jak spasitele ale ona tu může bejt jen další Fiji tentokráít s rok spožděnim oproti konkurenčnímu čipu.

Já Polaris neberu jako generaci, protože jeho top model bojuje s prťavou GP106. Ala čtvyrtym největšim čipem NV.... To je jako kdyby jsi bral Geforce GT240 (protože to byl novější čip s DX10.1) jako generaci mezi GT200 a Fermi. Bereš jí tak? Polaris má příliš málo změn, je to furt stará známá GCN a o Fiji raději pomlčet ta dnes občas propadá na úroveň Polarisu/Hawaii, ten čip je tragédie, řikat mu GCN3 je ostuda protože je horší jak GCN2. Jinak řikáš to dost honosně s tim jak AMD vydává novou arch. AMD naposledy vydala novou arch v Q4 2011 s Tahiti a jemuje se GCN. Vše od té doby jsou jen drobná vylepšení, arch je furt stejná.

+1
-8
-1
Je komentář přínosný?

Jak je možné, že AMD, která dělá jen taková drobná vylepšení, má v DirectX12 a Vulkanu náskok oproti Nvidii, která dělá takové velké generační skoky? Pokud se kvalitní podpora nových API dá vměstnat do drobných vylepšení, proč s ní Nvidia dávno nepřišla?

Nová grafická architektura není novou architekturou na základě toho, jestli pohání high-endové GPU nebo je integrovaná do ARM SoC. Ignorovat Polaris, která dokázala dostat výkon 512bit R9 290X a 2816 SP a 64 ROP do 256bit GPU s 2304 SP a 32 ROP, je… slušně řečeno ignoranství. Vůbec celkový přístup „karta pro segment, který nezajímá mě, nemůže zajímat nikoho“, mi přijde docela dětinský.

Tvrdíš, že na jednu stranu chápeš, že AMD produkty nahrazuje ob generaci, na druhou stranu tu kritizuješ Polaris za to, že dělá právě to, k čemu byla určena (tzn. nahrazení dvě generace starých čipů Hawaii a Pitcairn).

Co se týče Fiji, aktuální problém je ten, že přes 80 % softwarového týmu pracuje na ovladačích pro Vegu, takže nezbývají síly, které by se mohly zaměřit na nejnovější hry. Dá se ale předpokládat, že se po vydání Fiji vše zase vrátí do standardu.

+1
+11
-1
Je komentář přínosný?

Protože DX12/Vulkan/Mantle jsou přímo psané pro GCN, GCN jsou i čipy v konzolích, je spíš s podivem že AMD s takovou výhodou NV nerozdrtila, je s podivem jak se NV drží s nekompatibilnim HW. Onen náskok v DX12 má už první GCN ala Tahiti, ala GPU vydané 5 let před příchodem DX12/Vulkanu, to API je prostě psané pro GCN, ne naopak, tzn i kdyby jí nevylepšovali vůbec stále by tam měla náskok už z té podstaty že je to pro ní optimalizované by default. To API byla udělané pro GCN HW. Ne naopak.

+1
-7
-1
Je komentář přínosný?

praveze drti, staci taku hru, kde je normalne implementovane dx12/vulkan a zrazu nv straca dych a porazaju ju aj o 2 triedy slabsie karty, cize neviem o com tocis

to, ze nv je silnejsia v dx11 a aj to len o par % ale v dx12/vulkan, ktory su nastupcovia a moderne api, dostava naprdel a svedci o tom, ze tieto karty nie su vobec urcene do buducan to ti nevadi :D ale hlavne ze dx11 vyzera pekne :D

+1
+10
-1
Je komentář přínosný?

Já to AMD neberu, ten tah s Mantle,DX12,Vulkan, konzole byl skvělej. Spíš mi hlava nebere že přes to přeze všechno na tom nedokázali moc vydělat a naopak NV rejžuje. Co budou dělá až NV se svejma prachama vydá arch co s tim bude kompatibilní?

+1
-2
-1
Je komentář přínosný?

v jednoduchom slova zmysle, nv je viac seriova, amd viac paralelne a kedze dx11 je viac seriovy, preto nv to viac vyhovuje

zjednodusene povedane, nebrat doslova

+1
+6
-1
Je komentář přínosný?

Tak AMD to dokonale posralo prave s Mantle. Mantle co sa podpory tyka bol lepsi nez DX12 i Vulkan dokopy, bezal i na Windows Vista ci Win 7, podporoval HLSL shadery a bol podporovany vo vsetkych vacsich enginoch. No a potom ho AMD zarezala. Dnes mame DX12 ktory potrebuje Win 10 a Vulkan ktory nebezi na HLSL shaderoch. Ak zvazime ze 40% hracov ma Win 10 a z toho 1/3 ma AMD grafiku, tak DX12 + asynchronne shadery si uzije tak 13% hracov (ak nepocitame polofunkcnu podporu od Nvidie) a Vulkan zase podporuje asi tak 1% vyvojarov.

+1
0
-1
Je komentář přínosný?

Problém Mantle byl ten, že nebyl standardem. Ber to tak, že to byl klasický win-lose případ, tudíž nelze čekat, že by jej kdy podporoval kdokoli jiný, než AMD a EA(DICE). DX12 i Vulkan je standard, kde si mohli přicmrndnout i nvidia s intelem, tudíž tento standard "prošel" a má daleko větší šance být všeobecně přijatý (tj. jde o win-win - AMD má 90% svých vylepšení a nvidia s intelem zase svoje featurky, na kterých můžou stavět své featury, kterými budou s konkurencí bojovat zase oni)

+1
+1
-1
Je komentář přínosný?

Este ho podporoval i Eidos Montréal (Thief) - modifikovany Unreal 3 engine, Cloud Imperium Games (Star Citizen) - modifikovany CryEngine, Firaxis Games (Civilization: Beyond Earth), Rebellion Developments (Sniper Elite III) a Oxide Games. Prislubena bola aj priama podpora od Cryteku.

Win-lose, to znamena ze Win pre AMD a lose pre standardy. Rovnako ako PhysX, Gameworks je Win pre Nvidiu a Lose pre standardy. DX12 ale znamena Lose-Win, kde to Lose je pre AMD, kedze to bezi len pod Win 10 a tym padom sa do toho developerom velmi nechce.

Mozno za par rokov, az pride Win 11 a bude lepsi nez 10 a prejde na nho 80% hracov a na Nvidii to stale nebude fungovat na 100%, tak sa to preklopi a bude to Win-Win. Ale tie usle zisky to AMD nikto nevrati.

+1
0
-1
Je komentář přínosný?

Tak tak, Mantle napadlo AMD (ne marketingové odd.), rozhodl to Intel; Dále Apple, MS a SONY to pochopili nejdřív, nVidia zůstala čumět a objednala nejkvalitnější proces pro svoje "zboží". Dále to bohužel vzalo do rukou oddělení prodeje sladkých limonád z AMD a tak jejich firmička z toho měla leda tak hovno. Jestli máme AMD líbat ruce? Asi máme, i za Ryzen. Jestli si koupím AMD? To není jistý, lidi jsou svině a né samaritáni.

+1
0
-1
Je komentář přínosný?

Uvedom si, ze v ramci mnohem vyzsich nakladu a nizsim rozpoctu nez ma Nvidia AMD zvlada platit dluh, ktery ji zanechalo stare vedeni, vyvinout GGDR5, HBM, HBM, custom SOC pro konzole, Vulkan, novou generaci CPU, novou generaci GPU a spoustu dalsich projektu.

Co se toho, ze by Nvidia zacala podporovat vice open API misto svych proprietalnich vymyslu tak bych rekl ze AMD bude vice nez rado, protoze by developri hned zacali vice optimalizovat, pro neco co muze bezet lepe na vsech GPU misto ciste na tech od nvidie.

PS: otazka k zamysleni, kolik novych technologii prislo od nvidie za posledni roky, a jak dlouho ma Volta zpozdeni ?

+1
+5
-1
Je komentář přínosný?

Trochu mierni na všetkých týchto veciach okrem Soc pre konzoli spolupracovalo s niekym.
Ale konečne sa činí a pochopilo že musí vyvíjať viac, AMD nemá problémy s novými technológiami veľakrát ich zaradila skôr ako konkurencia ale zaostáva v doľaďovaní týchto technológii, je naprd že to máte prvý ak je to neopužiteľné alebo to nikto nepožíva, dúfam že tu sa to tiež zmení ale to by museli asi mať vyšší podiel na trhu.
Ešte lepšia podpora po stránke SW, čo jej zabíja ich teoretický výkon a snažiť sa nerobiť prúsery a za chvíľku si nikto nespomenie na chyby z minulosti.

+1
0
-1
Je komentář přínosný?

Čo si predstavuješ pod normálne implementovaným DX12/Vulkan? Podľa tvojich doterajších vyjadrení počítam že normálne je všade tam kde AMD má navrch. Tak som si pozrel Tech demo kde AMD ukazovala silu DX12 a tam 480 mala v priemere o 2-5% vyšší výkon ako NV 1060, to mi nepripadá ako drtenie.
Z pozorovania z viacerých testov mi vychádza že 480 má v DX12 vyšší výkon ako 1060 do 10% ale o rovnaké % má nižší výkon v DX11. Jasne najdú sa hry kde sú tie rozdiely vyššie ale to naoboch stranách. Takže ja nikde to drtenie AMD nevidím. Vidím len že sfére 480/1060 sú vyrovnané karty a každý si môže vybrať podľa hier ktoré hrá.
Jedno je isté, AMD má teraz lepší pomer cena/výkon pri 480, ale priznajme si že to má dlhšií čas a je im to platné ako mrtvému zimník.

+1
-3
-1
Je komentář přínosný?

zato karty od 1070 výše AMD drtí a je irelevantní na jakém API hra běží... a v tom je ta krása, jako uživateli mi je u zadele jaké API vývojář použije, důležité je to jak to sviští u mě na monitoru

+1
-8
-1
Je komentář přínosný?

Sweet Zombie Jesus, kdes vyhrabal takovou kravinu? To uz davno neni pravda, nV zapracovala na Vulkanu a dx12 a vykon pod temito api dost vylepsila.

+1
-3
-1
Je komentář přínosný?

je fakt bomba, ze se nVidii podari vyoptimalizovat drivery pul roku po vydani hry tak, ze proti stejne drahym radeonum neni vykon vylozene k smichu.. ale pul roku po vydani, kdy uz ty hry vetsina lidi dohrala je to dobry tak akorat do benchmarku (:

+1
+7
-1
Je komentář přínosný?

A nie je to mantra AMD fanboyov, že sa časom AMD kartám zvyšuje výkon?

+1
-4
-1
Je komentář přínosný?

relativne proti kartam nVidie se zvysuje.. coz je dany tim ze vzdycky kdyz dojde na novy technologie, jde vykon geforce strme dolu..

+1
+4
-1
Je komentář přínosný?

Výkon GF kariet nejde dolu. Drží si svoju úroveň alebo mierne stúpa novými ovládačmi. Výkon AMD kariet stúpne časom viac, ale to robí tak pár percent. NV karty sú úplne rovnocenne použiteľné v porovnaní s ich konkurentmi. A nič na tom nezmení aj keď sem hodíš jednu, dve hry kde je rozdiel väčší. V konečnom počte to nehrá rolu. Keď príde v čase k výmene GPU kvôli nedostatku výkonu, musíš meniť kartu bez ohľadu na to, či je od NV alebo AMD.

+1
-3
-1
Je komentář přínosný?

nie je to mantra

vid napr. Deus EX

Preset: 2560 x 1440 - High Quality
hybridny ovladac AMDGPU-PRO 17.10 - 23,03 fps
OSS ovladac Ubuntu 16.04.2 - Mesa 12.0.6 + Linux 4.8 -9,93 fps
OSS ovladac Mesa 17.2-dev + DRM-Next 4.12 -33,90 fps
https://www.phoronix.com/scan.php?page=article&item=rx580-pro-open&num=2

jadro 4.8 vyslo
linux-4.8.tar.gz 02-Oct-2016 23:41
https://www.kernel.org/pub/linux/kernel/v4.x/

a 4.12-ke sa zacne zaclenovacie okno 30.4.2017 - ovladac je v next vetve vcas a teda bude v 4.12 a aj v mesa devel vetve.

ak sa okno zatvori 7.5.2017, tak najskor 25.6.2017 vyjde 4.12..
mozno 2.7. ak bude zaclenovacie okno dlhsie tak je moz y aj termin 9.7.2017

+1
0
-1
Je komentář přínosný?

To vylepšenie sa týkalo nielen aktuálnych DX12 hier ale DX12 všeobecne. Takže to určite nie je iba do benchmarkov. A ako píše 7R7, sú to práve fandovia AMD, kto vyznáva vylepšovanie ovládačov s oneskorením a berú to v pozitívnom zmysle. Ešte to považujú aj za future proof a kupujú si kvôli tomu karty od tejto firmy. Tak nechápem prečo to nemôže byť pozitívum aj u konkurencie. :-)

+1
-3
-1
Je komentář přínosný?

a prave fandovia nvidie donedavna vrieskali ze nvidia vlastnici nemusia na nic cakat, maju gameready drivery dokonca skor ako vyjde dana hra :O

+1
+4
-1
Je komentář přínosný?

Hehe. A sranda je, že keď sa situácia zmení, ako veľa ľudí otočí a háji to čo predtým kritizovalo. A to bez ohľadu na to komu fandí :-)

+1
+1
-1
Je komentář přínosný?

"Zapracovala?" Tak proč se nVidií DX12 tak propadá na Ryzenu třeba? https://www.youtube.com/watch?v=0tfTZjugDeg

+1
0
-1
Je komentář přínosný?

Pretože to súvisí s optimalizáciami na Ryzen. S Ryzenom je problém na viacerých frontoch. Preto sa len nedávno upravovali Biosy, vyšiel patch na Windows 10 a pod. Celá platforma okolo Ryzenu potrebuje dozrieť. NVIDIA zrejme bude musieť tiež aktualizovať svoje ovládače pre Ryzen CPU.

+1
0
-1
Je komentář přínosný?

"Neoptimalizace" na Ryzen způsobují, že jeden a tentýž ovladač zvýší výkon na Core a sníží ho na Ryzenu? To spíš zní jako prasácké programování než jako "optimalizace". Někde prostě udělali nějakou botu.

Nebo někde mají smyčky typu "for (int i=0; i<URYCHLOVACI_KONSTANTA; i++); // TODO: V novejsich verzich snizit konstantu" :D

+1
-1
-1
Je komentář přínosný?

To sú také konšpiračné teórie. Načo by to NV bolo? V procesoroch nijak AMD nekonkurujú a iba by prinútili majiteľov Ryzen procesorov kupovať konkurenciu v GPU oblasti. Tým by si znižovali vlastný obrat. Pre mňa to nedáva logiku. Skôr to vidím tak, že sa zamerali pri optimalizáciách na špecifiká Core architektúry pri práci s CPU. Čo má logiku vzhľadom na ich početnosť na trhu. A určite ten ovládač nezbúchali za 2 dni. Ryzen len minulý mesiac prišiel na trh a samo AMD sa borí s problémami kvôli nemu (riešenie nových BIOS, patche na Windows). A to je ich vlastný procesor, s ktorým pracujú už dlhú dobu. Pričom od NV sa očakáva, že vylúskne riešenie za mesiac.

+1
+1
-1
Je komentář přínosný?

No pokud byste chtěl vyloženě konspirační důvody, tak pokud většina lidí kupuje karty od nVidie (což kupuje) a ty se chovají lépe na procesorech od Intelu (což se chovají), tak si ta většina lidí také spíš koupí procesor od Intelu než od AMD a AMD bude mít méně celkových příjmů, a tudíž i méně peněz na další vývoj všeho, včetně těch grafických karet, kterými nVidii konkuruje. A že by lidé kupující nVidie z technických důvodů přešli hromadně na AMD, no to už jsme viděli s P4 a Athlonem 64, jak to "funguje". :) Přitom v současnosti nejsou karty od AMD výkonnostně natolik před nVidií jako byl Athlon 64 před P4, takže ty současné plichty tím spíš nikoho, kdo měl předchozí tři generace karet od nVidie, asi nepřesvědčí ke změně.

Ne že bych snad *osobně* myslel, že tento scénář zrovna nastal, ale argumentace typu "vždyť v procesorech AMD nekonkurují, tak nemají důvod to dělat" je dost naivní. ;) Dokud má nVidia masivně větší podíl na trhu a *alespoň* o něco lepší provozní parametry, tak se jim ta horší podpora procesorů od AMD klidně nemusí v širším kontextu nevyplatit.

A vůbec, když budou karty od nVidie pomalejší na procesorech od AMD a karty od AMD nikoliv, kdo si všimne, že to je nepřirozené, dokud se 95 % recenzí dělá s GTX xx80? Drtivá většina kupujících nebude mít čas nebo chuť se v tom vrtat nad rámec čtení několika recenzí (všech s nVidií, samozřejmě) nebo rovnou koupí počítač v Tescu, ve kterém zase bude ta nVidie. :)

+1
0
-1
Je komentář přínosný?

Teoreticky je všetko možné z toho čo ste napísal. Ja si osobne myslím, že je to v tomto prípade otázka priorít. Proste Core procesorov je na trhu drvivá väčšina a tak sa primárne optimalizácie robia na ne. Na Ryzen príde podľa mňa rada neskôr. A možno nikdy. Ak ich bude na trhu predaných málo, tak si NV môže povedať, že im to nestojií za to a ponechajú aktuálny stav. Aj keď takému scenáru moc neverím.

+1
+2
-1
Je komentář přínosný?

" o Fiji raději pomlčet ta dnes občas propadá na úroveň Polarisu/Hawaii, ten čip je tragédie"

Myslíš to 28nm Fiji na Fury Nano, které je stále o 15% výkonější než 14nm Polaris 10 (RX 480/580) se stejnou spotřebou a poloviční pamětí? Člověče já si to vykládám přesně obráceně - že Fiji byla revoluce, která i přes horší 28nm výrobní proces a poloviční paměť dokáže naprosto úžasně držet krok s 14nm 8Gb Polarisem. Asi nehulím tak dobrej matroš jako ty

+1
+4
-1
Je komentář přínosný?

Fiji jakožto FuryX, je dnes stále in jen v pár titulech. Naopak, v mnoha ztrácí a propadá se na úroveň RX480 a 390X. Starší GCN tento propad nemaj, naopak se jim stále daří dobře, jen Fiji. A jeho dobová konkurence v podobě neref 980TI mu mizí v dáli. Pak tu máme ještě oněch 4GB Vram, absenci HDM2.0 prostě to byl hroznej produkt a zub času se na něm podepisuje. U tohodle čipu se žádné "AMD fine-wine". nekoná.

+1
-6
-1
Je komentář přínosný?

Fury se dostava na uroven 390/480 jedine kdyz je limitovana 4GB pameti. Ano, je to malo a ano, pro 4k tv je hdmi 2.0 stezejni, jinak jede max 30Hz, ale pro monitory s DP to limitujici neni.

+1
0
-1
Je komentář přínosný?

limitace pamětí se tolik neprojevuje, to je teoretický předpoklad, který se prakticky nekoná - ať už kvůli rychlosti HBM nebo lepší správě VGA paměti ve win10. na 60Hz HDMI seženeš už dnes redukci z DP1.2 a není to dnes problémem.

+1
+1
-1
Je komentář přínosný?

no, zase som videl par frametimes grafov, kde fury x to tazko nedava, preto sa cudujem, ze vega bude mat tiez aj 4GB verziu

+1
0
-1
Je komentář přínosný?

A tys tu kartu měl, že ji tak vehementně obhajuješ? Zkus si na tom dát Fallout 4 s tim oficiálním texture packem v QHD - lahůdka. 60fps to drží, když jdeš rovně jedním směrem, když se začneš rozhlížet, tak fps padají až pod 20 a stuttering, jak prase - právě kvůli nedostatku paměti a taky toho, že to W10 nestíhají kompnezovat... To je takový nejhorší příklad, kdy ty textury zabíraj cca 10GB.
Redukce asi úplnej problém není, ale je to věc navíc za pětikilo a nějakou dobu tím člověk stráví, než sežene nějakou kvalitnější.

+1
0
-1
Je komentář přínosný?

nemá se smysl bavit s někým, kdo uvádí nejhorší možný příklad jako "typický". Fallout 4 v pohodě na Nano provozuju v 3440x1440 ovšem bez toho texture packu, který mimochodem nějak viditelně hru nevylepšuje, takže jestli nic lepšího nemáš, tak zůstávám nadále spokojený. Mimochodem oficiální minimální požadavek pro ten texture pack je 1080, čili i taková 1070 je na to slabá

+1
0
-1
Je komentář přínosný?

Lžeš - I to nejpomalejší Fiji - Nano je v průměru! o 15% ve hrách rychlejší než Polaris 10
https://www.youtube.com/watch?v=x-HoTCd1siM
a to nemluvíme o poměru výkon/spotřeba na mining, kde je stále Nano bezkonkurenční.
Fury X musí být ve hrách logicky ještě rychlejší
jak vidíš, tak ani 4Gb Fiji se jaksi oproti 6Gb/8Gb kartám na výkonu nepodepisuje, naopak se zvedajícím rozlišením Fiji zvyšuje svůj odstup (Že by HBM?)

+1
+3
-1
Je komentář přínosný?

ono to bude silné jako 1080Ti? To by nebylo "looks really nice" ale "it is HUGE"

+1
0
-1
Je komentář přínosný?

A tuhle pitomost jsi vzal kde?

+1
+2
-1
Je komentář přínosný?

Jak, hi-end? Vždyť v diskuzích neustále čtu, jak NV nemá žádný hi-end, jen předražený vyšší mainstream. :-o Takže analogicky dle těchto příspěvků (a že jich není málo a většinou od skalních AMD fandů ;-) ), pokud AMD nevydá něco výkonnějšího (cca 20 %), tak vlastně nebude mít hi-end také. :-) Nu, já jsem zvědavý, jak to dopadne. Zejména jsem zvědavý, jestli AMD bude pokračovat ve své sebevražedné cenové politice s minimálními maržemi. :-) Asi jo. :-/

+1
0
-1
Je komentář přínosný?

Jako vždycky. Když bude nejhůř, šejkové to zatáhnou ;)

+1
0
-1
Je komentář přínosný?

Nesouhlasím, Jarda Crha říkal, že Vega bude až září/říjen. A co řekne Jara, tak platí :o)

Jinak výkon na úrovni 1080Ti bude stačit možná na pár měsíců, ale pokud příjde dřív Volta, tak Nvidia bude zase o kousek výš.
Nicméně důležitý bude, že AMD bude mít grafiky v segmentu mezi 10 a 20 tisíci, a to, že nebude mít nejrychlejší model, moc lidí trápit nebude,

+1
+4
-1
Je komentář přínosný?

Podle aktuálních drbů (podpořených zprávou Hynixu) bude velké GPU Volta až příští rok a letos vydají jako top model GV104, který má být výkonnostně podobný Titanu Xp. Pokud se to potvrdí, pak to výkonnostní pozici Vegy příliš nedegraduje. GV104 by v takovém případě měla spíš nižší spotřebu než vyšší výkon.

+1
+3
-1
Je komentář přínosný?

Copak guru Jára, ten se vyzná. Teď odháčkovává svou novou lásku, GTX1080. :-D

+1
+5
-1
Je komentář přínosný?

Ten odháčkovává spíš nějakou Rivu TNT, on je přece na ty starší. ;)

+1
+6
-1
Je komentář přínosný?

Nebude on ten ajtak Karel z Prostreno?

+1
+1
-1
Je komentář přínosný?

Já si to vykládám jako výkon 1080Ti ihned, do půl roku výkon o 10% vyšší než 1080Ti s aktualizacemi ovladačů a optimalizací nových her na novou architekturu, zatímco 1080/1080Ti se již nikam neposune. Poměr cena/výkon velmi mírně lepší než 1080Ti a spotřeba naopak horší než 1080Ti. Diskuze se tedy ponesou v klasickém duchu - AMD fans budou onanovat nad každým % náskoku před 1080Ti hlavně v DX12/Vulkán hrách, zatímco Nvidioti budou dokola hatovat vyšší spotřebu, protože v ničem jiném Vega horší nebude

+1
+9
-1
Je komentář přínosný?

Tak nějak. Já si spíše myslím, že to vše pojede ve starých kolejích - v DX11/starých hrách bude lepší GTX a naopak u náročnějších (moderních) her to bude zase spíše výhra Vegy.

+1
+10
-1
Je komentář přínosný?

Tady nepůjde tolik o stáří jako o využití výpočetní části Radeonů která jinak leží ladem. Tam rezerva je. Ale pokud nebude třeba, jakože v mnoha titulech ne, tak to bude pořád stejné. Je to jediný světlý bod této staré architektury kdy se dá využít tato výkonová rezerva, ale zabíjí to absence vyšších taktů a prudký nárůst spotřeby na každý Mhz nad frekvenční "sweet spot".

+1
0
-1
Je komentář přínosný?

Mě je to jedno. Hlavně chci něco výkonnějšího než FuryX s AdaptiveSync/FreeSync. Kdyby nvidia podporovala tyhle technologie, už dávno mám doma 1070+.

+1
+6
-1
Je komentář přínosný?

To jsme dva. Vzhledem k tomu že má investice do freesync monitoru byla vyšší než průměrná cena hiend grafické karty (24K za monitor), dá se říci, že výběr grafiky, jakožto toho levnėjšího z obou je nyní podřízen monitoru. U mne se celá věc navíc komplikuje hiend mini ITX buildem, který pojme mx 17cm kartu. Pokud si spojíte obojí dohromady, je Vám jasné, že màm původní Nano. Nvidia pro můj konkrétní scénář nemá co nabídnout, bohužel neohlásila ani podporu freesyncu do budoucna, ani referenční mini ITX hiend. AMD bude mít obojí, takže Nano2 to má u mne vyhrané již nyní, přestože o ni nic nevím. Holt Nvidia si svým přísupem odehnala zákazníka sama, přitom nemám problém s nákupem karty od nich, bude-li splňovat mé požadavky

+1
+2
-1
Je komentář přínosný?

Ja mam taky (drazsi) freesync monitor a proste jsem to uz nevydrzel a poridil 1080Ti. Freesync jsem stejne nepouzival, pac i tech maximalnich 90Hz bylo na strilecky malo, jedu na 144Hz kvuli nizsi latenci. Velikosti bedny jsem limitovany nebyl, doted jsem jel na Sapphire Fury Tri-X, takze nova karta narostla jen dva centaky do sirky, jinak zere stejne, topi stejne... Jo a ma dvojnasobny vykon a skoro trikrat tolik pameti.
Uprimne neverim, ze by Vega mela podobny vykon, jako 1080Ti/Titan Xp... Mozna spis kolem GTX1080.
Jinak jsem teda nic o nove Nano karte neslysel, ale s temi HBM by nemel byt problem, sestrojit neco kompaktniho, tak snad ti to vyjde.

+1
0
-1
Je komentář přínosný?

Dík, taky doufám že to vyjde. Střílečky a CSko nehraju, takže tyhle vysoké frekvence nepotřebuju. Raději mám velkou plochu a vyšší rozlišení. 75Hz je takový sweetspot pro casual gamera. Je to víc než 60 a v těch vyšších rozlišeních jako 3440x1440 stejně těch 144 fps v náročných hrách nedáš ani s titánem, aby si ten 144Hz monitor využil. Navíc ty 144/200Hz monitory bývají lowres TNka, já mám poctivé IPSko. Takže kompromis, ale rozumný, pro 90% ne-CSkujících gamerů výhodnější.
Taky výkonově mi ta Vega k monitoru sedí - cíl je 75fps při 3440x1440 - to by dát mohla. Víc nepotřebuju, protože to monitor nezobrazí. nepotřebuju ani extra výkonový převis. Stabilních 75fps znamená obvykle propady tak na 55-60 a to je s freesyncem naprosto nepostřehnutelné

+1
0
-1
Je komentář přínosný?

Já mám tuším AHVA panel, což je takový příjemný kompromis. 4ms odezva, 60/120/144Hz (v případě FS 90Hz) a pěkné barvy. CSko teda nehraju, ale Quake Champions, Overwatch, Doom, Trackmanie Turbo... ono se to hodí úplně všude, kde se obraz rychle hýbe horizontálně, je to plynulejší. A nejsem JirkaK a klidně někde nějaké to vyhlazování ušetřim :D Já teda vnímám propady i s FS kolem 45-50, taky to je jeden z důvodů, proč to mám vypnuté.

+1
0
-1
Je komentář přínosný?

Jde hlavně o to, že bude hi-end (jestli totální, to se ještě neví, ale zkrátka produkt spadající do hi-endu). Polárky tu máme docela dlouho a Hawaii/Fiji jsou vymetené, takže cokoli nad polárkou jakoby nebylo.

Většině samozřejmě polárka stačit asi bude, nicméně nebudeme si tu nalhávat, že polárka a cokoli s výkonem okolo tohoto produktu (třeba 1060) stačí na FHD mačkání při 60 fps v maximální kvalitě. Žen(y) už tu máme, teď ještě GPU a bude to komplet. A co je asi nejdůležitější, evidentně se dost změnil marketing AMD, na který bohužel většina obyvatelstva téhle planety stále sází.

+1
0
-1
Je komentář přínosný?

tak pořád jsou k mání obyč Fury, od Sapphire i nějaký kousek tu a tam od Asus. Ale dobré recenze na to nejsou, zvlášť že mají problém s hučením cívek. A pak ta velikost, ne každý má bigtower na 30cm+ karty. Další mínus jsou 4GB které na 2K rozlišení už jsou docela limitací. Za devět tisíc je to lákavá nabídka, jen kdyby tam bylo víc VRAM....

+1
0
-1
Je komentář přínosný?

Proč by měli Nvidioti hejtit, že AMD vydala kartu, který dohnal dávno vydanou kartu nvidie? Případně se jen pouzmějí, že fandům AMD stačí ke štěstí málo. Ale to tak je, že někdo musi hranice výkonu posouvat a někdo dohánět :-p

+1
0
-1
Je komentář přínosný?

přesně, kdo výkon chtěl, dávno ho má. Čeká jen skalní jádro fanoušků.

+1
0
-1
Je komentář přínosný?

Ano, jak tu někdo již psal "je fakt bomba, ze se nVidii podari vyoptimalizovat drivery pul roku po vydani hry tak, ze proti stejne drahym radeonum neni vykon vylozene k smichu.. ale pul roku po vydani, kdy uz ty hry vetsina lidi dohrala je to dobry tak akorat do benchmarku". Trochu zmatek... je to dobře, není to dobře...

+1
0
-1
Je komentář přínosný?

Tesim sa na Vegu, dufam, ze bude mat dobry mining vykon a ze sa mi do kompu zmestia aspon 2 kusy. :)

+1
+1
-1
Je komentář přínosný?

AMD zapomíná jenom na pár věcí:

- Výkon je srovnatelný teď (dnes) - takže až to vyjde už mě to jako koncového zákazníka možná zajímat nebude
- Skoro jisté je, že TDP bude značně vyšší než má konkurence (jo možná má amd víc funkcí ale je to první věc který si jako zákazník všimnu a TDP = teplota = životnost)
- V době vydání, kolik bude nVidii zbývat do vydání volty?

No nevim nevim, ale AMD sice přichází postupně s kvalitními konkurenceschopnými produkty, ale bude to stačit? Já myslel, že pořídím novou GK a že to bude AMD, ale nepořídím si jí ze dvou důvodů: Na trhu není dostatečně výkonná AMD karta (resp je, ale fakt nepůjdu do FuryX) a prostě moc žerou ...

+1
-2
-1
Je komentář přínosný?

Ja ked som bol maly, tak som tiez dost zral a mamke to nevadilo, dolezita bola moja nadcasovost a vlastnosti . A nemyslim si ani, ze by tym utrpela moja zivotnost.. :)

+1
+3
-1
Je komentář přínosný?

Uz se to tu pise.
Karty od AMD vcetne Vega maji budou mit silenou spotrebu, NVidia je o ligu jinde.
Karty od NVidia neumi FreeSync, AMD nema problem.

Proste zjevne jsou oboji karty spatne a zajemce tak musi volit mezi mensim zlem. Ja doma zatim FreeSync monitor nemam, takze volim NVidii, ale zcela chapu kazdeho herniho zajemce s FreeSync monitorem, ze obetuje vic penez za elektriku ve prospech FreeSync a voli AMD. Pokud se situace nezmeni, tak casem s novym monitorem skoncim u AMD take.

+1
+2
-1
Je komentář přínosný?

Samozřejmě je tu i ta možnost, koupit mega brutální nvidii a neřešit zda mu FPS padnou pod 75Hz v mém případě a zapnout VSYNC. U jedinců se 144Hz monitorem je taková technologie jako je freesync ale docela zásadní, protože udržet 144Hz všude je problém nemálo často nejen grafiky, ale i CPU, enginu, netcode, propustnosti pamětí, aplikací bežících na pozadí, dohráváním textur/levelu a tak dále...
Budu se opakovat, ale kdo si jednou zažije Freesync/GSync,už se mu jinak moc nechce. Např u GR:Highlands jsem padal k 50FPS, ale nemít zapnutý FPS počítadlo, asi bych si nevšiml. Zato roztrženého obrazu při desyncu si všimnu a "*ere mě".

+1
+1
-1
Je komentář přínosný?

Pozor to je omyl.
FreeSync je na 60Hz monitoru stejne dulezity jako na 144Hz.
Predstav si jedes na 60Hz monitoru stabilne 60FPS, parada, najednou narocna scena a mzikovy pad FPS na 25. U VSync jses v prdeli respektive budes mit v obrazu tearing. FreeSync te podrzi a obraz bude nadale hladky. Proste mam ted pomerne novy monitor a navic mam funkcni stary monitor jko druhy monitor, az ten odejde, tak koupim jako hlavni monitor FreeSync a tim padem skoncim s NVidii, pokud to do te doby nedoresej.

+1
+1
-1
Je komentář přínosný?

tyhle situace by mel resit fast sync
co sem pochopil tak to funguje ala "opengl tripple buffer"
mam to tedka v testu hozeny do global profilu a vypada to, ze to neni vubec spatny, pri 60 fps to problemy nedela, nema to tak vysokej input lag jako klasickej vsync a pri propadech ti to akorat udela jemnej stuttering

tam pak zalezi na tom na co je konkretni clovek haklivej, jestli input lag, tearing nebo stutter

+1
-1
-1
Je komentář přínosný?

víš mluvíš teoreticky. Fast sync je další softwarová blbost, která neřeší problém s propady a nízkými fps. Takhle mluví lidé, co freesync/gsync nikdy neviděli že? Vzhledem k tomu v jakém stavu jsou některé hry, které i na absolut hiendu padají místy i pod 30, tak jediná obrana proti tomu není ještě vyšší GPU výkon, ale jen a pouze Freesync/Gsync s LFC. Kdo zkusil, nevrací se. Návrat zpět je asi jako vrátit se z SSD zpátky k mechanickému disku. Proto už i v době, kdy byla gtx 1070 úplně nová venku, šel jsem do výprodejové Nano za +- stejnou cenu. Mám 3440x1440 Freesync 75Hz monitor s LFC(35-75). Podobně vybavený Gsync model by mě nestál 24, ale 30-31 tisíc. Za těch 7 tisíc rozdílu můžeš mít panebože u AMD celou mainstream RX580 kartu.

Prostě kombo grafiky + monitor se synchronizací jasně vyhrává AMD řešení. Pokud se na to díváme takhle, tak i kdyby Vega dopadla tak špatně, že by hypoteticky měla o 15% horší výkon než 1080Ti a o 30% vyšší spotřebu, pořád je AMD řešení lepší, protože tenhle rozdíl dělá méně než 7 tisíc.

+1
+1
-1
Je komentář přínosný?

wtf ? to reagujes na me ? co to tady smolis za blabol... sis asi domyslel k tomu mymu postu tak 2 A4ky co sem nikdy nerek nebo nevim

+1
-5
-1
Je komentář přínosný?

reagoval jsem pouze na to co jsi řekl. Oslavuješ tu fastsync, který nic moc neřeší. Zmiňuješ stutter, latenci, input lag, tearing a podobné srajdy. S freesync dáš Vsync off, max fps nastavíš v driverech na max refresh monitoru, tedy nikdy nebudeš mít více, triple buffer ani podobné věci nepotřebuješ - latenci máš nejlepší možnou - jak se vyrenderuje snímek, tak se hned zobrazí - nejnižší možná latence. Je to jediné "čisté" řešení. Nevím jaká je latence na Gsync modulu, prakticky to funguje stejně, jen je tam vražený další mezikus - ten modul, který logicky spíše bude zvyšovat latence (další mezičlánek s bufferem). Ale věřím, že za ty nekřesťanské prachy to Nvidia implementovala dobře, takže ani Gsync latenci nějak nezvedne

+1
0
-1
Je komentář přínosný?

ja sem se bavil obecne o reseni tearingu vcetne alternativy kdy nemas free/g sync monitor, bo ten coz ti mozna prijde divny nejde zapnout kdyz nemas free/g sync monitor

+1
+1
-1
Je komentář přínosný?

Jo, chápu, tak to je blbé. Ale opět je to asi jako problematika SSD a HDD. Já říkám běžte do SSD, vy hledáte jak vytunit HDD, aby se tomu SSD co nejvíce přiblížilo. Podle mě ať uděláte cokoliv, pomůžete tomu jen minimálne. Tohle je diskuze o hiend grafikách. Nechápu že jsou tu lidi, co mají na Titána a nemají na freesync/gsync monitor nebo si v dnešní době dokonce koupí nový monitor bez syncu. Podle mě to tím zabijí. Je to jako tunit jednu část auta (třeba kola, převodovku) a nechat tam slabý motor a vůbec na něj nesahat. To pak jako celek pořád stojí za prd

+1
0
-1
Je komentář přínosný?

nekupuju monitor na rok, cekam az se vsechny novy veci (sirsi gamuty, free/g sync, 4k, hdr, 144hz) spoji dohromady, zatim byl na cesu jen jeden asus a ten ma prej 20% rma....

a televize free/g sync jeste nemaj ne ?

+1
0
-1
Je komentář přínosný?

klasické televize ne. Dá se očekávat ale jejich nástup, protože Xbox freesync podporovat bude. Můžeš si ale pomoci už dnes koupí korejských 40-55" 4K monitorů a používat je jako telku (v podstatě to telky jsou)
Značky jako Crossover nebo Wasabi Mango stojí od 15 tisíc a mají alespoň omezené freesyncy 42-60

+1
-1
-1
Je komentář přínosný?

Za slušný peníz se dají už pořídit UHD TV, které při inputu FHD dávájí 120Hz a mají 10b barvy.

+1
0
-1
Je komentář přínosný?

"Nechápu že jsou tu lidi, co mají na Titána a nemají na freesync/gsync monitor nebo si v dnešní době dokonce koupí nový monitor bez syncu."

Mozna preto, ze su ludia, ktori nehraju hry, ale vykon takejto karty dokazu (obcas) vyuzit aj inak a tito ludia preferuju 4k 10bit Widegamut IPS, pred rychlym, ale smejdovym obrazom? ;)

+1
0
-1
Je komentář přínosný?

mám 3440x1440 poctivé IPSko. 4K to není, ale nazývat to "šmejdem" jste přehnal. Buď jste snob nebo blb. Možná jste si myslel že mám takové to 200Hz TNko - ne to nemám a nedoporučuji to, kdybyste četl mé příspěvky výše, dozvěděl byste se to. Jinak to neherní využití Titána nemůžete myslet vážně. Kolik takových lidí je? Méně než 1%? Všichni ostatní by gsync využili

+1
0
-1
Je komentář přínosný?

Na Gsync Vam kladiem bobek, z principu i kvoli cene. To len na zaciatok. :) Pod "Titanom" som myslel 1080Ti, nie Titan = vysmech @ "Zaplat mi love, oskubem ta a neponuknem ti nic navrch". 3440x1440, no jo, slize dneska asi ficia, ale ked si potom clovek otvori nejaky web, dokument, knizku ci cokolvek, tak to vypada asi ako 4cm penis v pripade 350kg sumo. :D Ale aby som to zhrnul, GSYNC monitor s patricnym priplatkom, si dnes zaplati iba debil. Alebo nvidia fan (debil). Normalny rozumny clovek, sa rozhodne inak. A to hovorim ako clovek, co ma v kompe 1070 a nijak zvlast nenadrziava ziadnemu taboru, akurat nevyuzije /zatial/ ani FS ani GS, pretoze nehraje hry. Avsak GPU mu produkuje mesacne prachy. ;)

P.S.: To poctive IPSko ma aky nazov, ak sa smiem opytat?

+1
0
-1
Je komentář přínosný?

Já myslim, že až vyzkoušíš 144Hz monitor, tak se na FS taky vyprdneš. Jsem citlivka na tearing, jsem citlivka na stuttering, jsem citlivka na nízký fps, myslel jsem, že FS je ta pravá cesta, mrcasil jsem se s nastavením v každý hře - nahoře jsem ji zařízl na 89fps, hlídal si, aby nešla pod 35fps a pak jsem stejně zapnul 30fps video na youtube fullscreen, nebo prošel v RoTR nějakou vizuálně náročnější sekvencí a trhalo se to a furt to zapínat a vypínat... pfff. Tak jsem to zkusil bez toho a poklesy mezi 144 a ~80 jsou naprosto neznatelné, 60 ok - často si toho ani nevšimnu, páč jsem zažranej do hraní a až u ~45 si řeknu "hey wtf", ale to musí být taky hra, u který si toho všimnu, třeba Dirt Rally v lese, nebo RoTR, když mám pár posledních šípů... no nvm.
Výhodu 144Hz vidím v nižším inputlagu, například u některých her mi nevadí zapnutý vsync (wot) páč při latenci jednoho snímku jsem na nějakých 7ms, kdežto plebs se 60hz monitorem je na 17ms - tak to už je takové gumové a tearing, buhvíproč, taky nezažívám, i když se v doomu a overwatchi kroutim, jak žížala v poslednim tažení...
Každopádně freesync monitor má oproti svým g-sync klonům nespornou výhodu v menším inputlagu a zachovanym osd (MG279Q vs PG279Q), kde v bledě zeleném rázem monitor ztrácí některé své možnosti nastavení. Je to vidět i na trhu. G-sync monitorů je, co bys na prstech mutanta spočítal a neštěkne po nich pes.
Fastsync, pokud mě paměť neklame, je takový blbuvzdornější vsync, kde se nechá grafice volná ruka, a když jsou snímky rychlejší, než monitor, tak se začnou zahazovat. No na freesync to asi nemá, ale na 144Hz by to fungovat mohlo, tam desync snímky nejsou vidět.

+1
0
-1
Je komentář přínosný?

Na 144Hz nemám výkon a ani mít nechci jak jsem vysvětloval. Freesync dokáže skoro to samé za podstatně méně výkonu. Nerozporuju, že tvé řešení je lepší, poměr cena/výkon máš však mizerný, to nepočítám spotřebu. Mám to s i7 6700T (35W), takže celé PC 145W ve hrách typicky (gold zdroj 500W). Kolik potřebuješ ty 2-3x víc? A pořizovací cena taky tak 2-3x vyšší. Přidanou hodnotu proti mě však 2-3x vyšší nemáš, takže tak :-).

+1
0
-1
Je komentář přínosný?

Ahoj, co to máš za monitor? Úplně tu samou kofiguraci hledám...3440*1440 75Hz, lfc, freesync. Díky za odpověď

+1
0
-1
Je komentář přínosný?

Ahoj Acer BX340CK. Super na něm je, že je to asi největší a nejlevnější monitor, který má ještě použitelný freesync. Není zahnutý což považuju za plus, nemá gaming kolotočový predator vzhled a má i VESU. Na trhu je spoustu freesync 34" 3440x1440 např. ty od LG, ale těm se vyhni protože žádný z nich nemá LFC. Tenhle Acer má. Existují 2 verze. První co jsem dostal měla rozsah 30-75, ale měl vadný USB hub. Druhý co jsem dostal nemá vepředu nápis a má rozsah už "jen" 35-75, LFC mají ale obě verze, takže fungují rozumně i pod 35, respektive 30 fps.
Jo a neber ani Acer zahnutý 342ku, protože má opět mizerný rozsah a postrádá LFC, takže to defacto není náhrada za 341.

+1
0
-1
Je komentář přínosný?

No prave zahnuty bych chtel...a chci se zeptat, je to LFC nejak moc dulezite? Urcite nemam v planu jit pod 60(75)fps...

+1
0
-1
Je komentář přínosný?

Az na to, ze Freesync u 60Hz monitoru jde vetsinou tak kolem 40fps minima.

+1
+1
-1
Je komentář přínosný?

Je to bohužel tak. To proto, že je tam levná elektronika. Taky neexistuje nic 60Hz s LFC, protože LFC funguje až když horní rozsah freesyncu je více než dvojnásobek spodního (to proto aby se mohli zdvoj, či trojnásobovat snímky když potřebujete LFC - při 27fps se snímek zobrazí 2x a výsledná frekvence je 54Hz (jakoby 54fps). Dokonce to funguje někde od 15-20 fps, kdy dojde dokonce ke ztrojnásobení snímku. Aby to tedy fungovalo, musel by být dolní rozsah u 60Hz monitoru pod 30, což jsem ještě neviděl, obecně Gsync i freesync fungují až od 30. Níže "fungují" také ale uplatňuje se LFC, což je spíše taková poslední záchrana, protože syncnutých 20 fps s LFC je prostě pořád málo pro super zážitek. Syncnutých 40fps mi ale subjektivně připadá lepších než nesycnutých 60. Co z toho plyne? Že díky syncu nepotřebuju pro stejný zážitek tolik fps a šetřím tím za dražší grafiky i proud.
Při výběru freesync monitoru doporučuji tedy jako minimum volit 75Hz modely a ohlídat si, zda mají LFC. Rozsah 35-75 již splňuje kritérium a LFC mít může. Stačí se podívat na seznam freesync monitorů od AMD, který je pravidelně aktualizován. Najdete tam jak rozsahy, tak informaci o přítomnosti/nepřítomnosti LFC

+1
0
-1
Je komentář přínosný?

"i když s vyvozováním jakýchkoli dalších závěrů je potřeba opatrnosti"
a tak dame nadpis
"Výkon Vegy je srovnatelný s GeForce GTX 1080 Ti a Titan Xp"
:)

+1
+1
-1
Je komentář přínosný?

o vyznamnu slova ''dalsich'' si nekdy cet? (:

+1
+1
-1
Je komentář přínosný?

cet, ale ty jsi asi necetl clanek. Abys vedel k cemu se to "dalsich" vztahuje.

+1
0
-1
Je komentář přínosný?

Tak o 300W jednocipovke na VEGA s HBM by som nehovoril, ked dvojcipovka s Polarisom a 32 GiB GDDR5 VRAM ma 250W.

The New Radeon Pro Duo Delivers Professional-Grade Performance & Flexibility for Today's Most Complex Multi-Tasking Workflows

NAB SHOW 2017, LAS VEGAS, Nev. 4/24/2017

​Today AMD (NASDAQ: AMD) announced the world’s first dual-GPU graphics card designed for professionals: the Polaris-architecture-based Radeon™ Pro Duo.

The Radeon Pro Duo is equipped with 32GB of ultra-fast GDDR5 memory to handle larger data sets, more intricate 3D models, higher resolution videos, and complex assemblies with ease. Operating at a max power of 250W, the Radeon Pro Duo harnesses a total of 72 compute units (4608 stream processors) for a combined performance of up to 11.45 TFLOPS of single-precision

https://www.amd.com/en-us/press-releases/Pages/the-new-radeon-2017apr24....

A tam by mala by aj VEGA v SSG a mozno aj "out of Core"

Radeon Pro at NAB 2017

Professional color correction using BlackMagic Resolve powered by the new Radeon Pro Duo
Incredible real-time 360 video stitching and real-time VR preview using Radeon™ Loom and the HTC Vive, and powered by the new Radeon Pro Duo
Accelerated rendering performance in Blender using Radeon ProRender and “Out of Core” technology to access system memory for increased frame buffer capacity powered by the Radeon Pro Duo
VR content creation using Radeon Pro Duo
Real-time rendering at 4K resolution in Radeon ProRender powered by AMD's next-generation Radeon™ Pro SSG
8K video post-processing in Adobe Premiere Pro CC 2017 enabled by AMD's next-generation Radeon™ Pro SSG
Stunning VR experiences from Rewind and The Foundry's Nuke running on Radeon™ Pro WX 7100

A v Linuxe asi mnebude Vega out of box graficka karta ale akcelerator vypoctov s OSS ovladacom..

Vega Support Called For Pulling Into Linux 4.12, Without DC Support
03-30-2017, 06:20 PM

(john) bridgman :
03-30-2017, 08:33 PM
Without DC there would be no support for physically connected displays but most compute & server configurations run the dGPUs headless anyways.

For typical desktop (single GPU) use an out-of-tree kernel driver will be required until we can get DC re-factored into an upstream-acceptable state.

https://www.phoronix.com/forums/forum/linux-graphics-x-org-drivers/open-...

A keby tu niekto nevedel, co je Solid State Grpahics

Radeon s terabajtem onboard paměti: Radeon Pro SSG
27. 7. 2016 |
Když je třeba více paměti, než kolik mohou nabídnout GDDR5, dojde na HBM. Co dělat, pokud ani jejich kapacita nestačí? AMD profesionální Radeon pro zpracování 4k UHD videa vybavila 1TB NAND flash
http://diit.cz/clanek/radeon-pro-ssg

V tychto dnoch AMD teda predvadza Radeon SSG na VEGA...

+1
+1
-1
Je komentář přínosný?

Ten nadpis je hodně HYPE, oproti tomu nicneříkajícímu konstatování, které je ve smyslu nenadchne ani neurazí.

AMD ví že v high endu hraje druhé housle a stojí proti velké konkurenci, zároveň na trhu nemá zatím nic co by dokázalo soupeřit se střední třídou konkurence, natož s hing endem. Cokoli co bude výkonově na úrovní konkurenční střední řady bude ve srovnání s konkurenčním high endem "looks really nice" protože součsná produkce tak určitě nevypadá.

+1
-5
-1
Je komentář přínosný?

A co je podle tebe stredni trida u nVidie ? Podle me jsi tupoun, kdyz pises, ze AMD nema nic co by dokazalo souperit ze stredni tridou od nVidie. Stredni trida nVidie je snd GTX 1060 a te je rovna RX 480/580, tak co to pises z hovadiny ?

+1
0
-1
Je komentář přínosný?

Netuším co mi AMD nabídne jako alternativu k GTX1070, natož 1080, to jsou mainstream chipy - střední třída.

GTX1060 a pdoobné považuji za lowend, cokoli co je pod 1050 je entry level, ale na tom už se hrát ani nedá, i na té střední třídě to není na max. detaily 60FPN a FHD rozlišení... Některé hry pro to vyžadují 1080Ti

+1
-4
-1
Je komentář přínosný?

A ty, vyhlášený milovník výkonných grafik, hraješ na mainstreamové grafice? Běž se stydět do kouta! :D

+1
+1
-1
Je komentář přínosný?

Ale fuuuuj, takovej bulvarni clickbait a ja na to skocil... Vykon vypada pekne... Kdyby alespon slibne, rovnocene, nebo tak neco. Ne, vykon ve srovnani s konkurencnim highendem vypada pekne... I male veci jsou pekne.
Pekne, pekne... Spis to vypada, ze reditel si z nas pekne strili a pred padem NDA nemuze rict ani ň.

+1
0
-1
Je komentář přínosný?

Řešit výkon Vegy vs XYZ bez znalosti ceny je bezpředmětné:-)

+1
0
-1
Je komentář přínosný?

Ja som zvedavy na spotrebu. Fury X mal spotrebu peknych 220W, referencna RX480 160W, RX480 OC 190-220W, no a RX580 OC 220W ale i ta ma prosim pekne nizsi vykon nez Fury X!
To maju v AMD 2 nezavisle vyvojove timy kde jeden spravil Fury a druhy Polaris?

http://www.tomshardware.com/reviews/amd-radeon-r9-fury-x,4196-7.html
http://www.tomshardware.com/reviews/amd-radeon-rx-480-graphics-card-roun...
http://www.tomshardware.com/reviews/amd-radeon-rx-580-review,5020-6.html

Pre porovnanie Nvidia zlepsila spotrebu GTX980Ti z 211W na 145W u GTX1070. Takze az by RX580 technologicky vychadzal z Fury, tak jeho spotreba by na tom musela byt minimalne podobne nez u 1070.

+1
-2
-1
Je komentář přínosný?

ze srovnavas ruzny zpusoby mereni a ruzny vysledky ti nevadi? (: btw. po vydani rx480 priznali ze mali v metodice chybu a hodnoty nemusej odpovidat.. nepremerili to, proste to nechali bejt.. thg, fakt spolehlivej zdroj udaju o spotrebe..

+1
+2
-1
Je komentář přínosný?

Ta spotreba je +- rovnaka na vsetkych weboch, mohol som uviest i iny zdroj nez tomshardware a vysledok by bol rovnaky.

+1
-3
-1
Je komentář přínosný?

kdyz to rikas, tak mi ukaz nejaky dalsi weby kde jim rx580 zere jak fury-x.. diiik (:

+1
+2
-1
Je komentář přínosný?

okej, tak FuryX zerie viac nez 220W, som sa sekol.

+1
+1
-1
Je komentář přínosný?

možná Fury nebo Fury Nano, Fury X je zřavá potvora, ale to nejvýkonnější co AMD udělalo, když nebereme hybridy kde jsou na jedné desce ty karty dvě.

+1
0
-1
Je komentář přínosný?

Je tu jeden podstatny rozdil a sice ze Polaris ma univerzalni jednotky jak pro hry tak pro vypocty kdezto Pascal je ma rozdeleny na samostatny chipy.

A jen tak mimochodem, pokud si pohrajes s napetim pro jednotlive urovne vykonu tak se se spotrebou dostanes klidne par desitek procent dolu.

+1
-2
-1
Je komentář přínosný?

Vy si kupujete počítač na hraní a tunění HW a ne na hraní her? To je to poslední co lidi budou řešit, prostě to bude out of box. Počítač taky lidi kupují proto aby jim sloužil, ne aby oni sloužili jemu.

+1
-1
-1
Je komentář přínosný?

skoda, zes to nenapsal v minuly diskusi kdyz se tu nV-fans rozplyvali nad undervoltingem pascalu ((:

+1
0
-1
Je komentář přínosný?

Bude moci Nvidie spát dál ? Jednoznačně se od Vegy čekal konkurence schopný produkt ovšem to by nesměla protistrana již rok okupovat se svým zastaralým ,ale výkonnostně na míle vedoucím řešením highend trh. AMD možná nabízí technologická pozlátka ale v praxi ...k lepším výsledkům v hrubém výkonu jim to nepomohlo . Vulkan ač vypadá famózně , opět minimální zastoupení v praxi . No a už i tady se v souvislosti s Vegou mluví především o úsporách a optimalizaci což si NVidie odbyla již s Maxwellem .
A proto v Laptopech vidím víc 1050 než RX ....skutečná konkurence vypadá jinak ( Ještě aby si AMD měnila patenty s Nvidií jako s Intelem a jsme doma) ...

+1
0
-1
Je komentář přínosný?

click bait jak vyšitej :-))

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.