Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Jak to vypadá s hrami pro DX12? Do seznamu přibývá Deus Ex: Mankind Divided

ARC je odložen. Prý kuli problémům s ovladačemi. http://steamcommunity.com/app/346110/discussions/0/520518053440119300/
edit: tak beru zpět. Nevím jestli už jim to jede nebo ne. Doma vyzkouším, už jsem to nějaký ten pátek nespustil.

+1
+4
-1
Je komentář přínosný?

Tak nejde, tedy pokud se to nemusí spouštět nějak "speciálně" s nějakým příznakem pro podporu DX12.

+1
-2
-1
Je komentář přínosný?

Doufám, že DX12 výpočtů bude využito k ještě reálnějšímu zobrazování chromatické aberace a jiným post-processingovým prasečinám, co jsou dnes moderní. :-D

+1
+15
-1
Je komentář přínosný?

Jo heh, asi tak. Chromatická aberace je zatim nejtypičtější příklad zpraseného postprocesingu, ala věc co nám cíleně kazí obraz, protože kdysi tímto trpěly kamery takže to musíme mít také pro onen "cinematic look". Sorry ale tohle já fakt nechi, heh, i sami výrobci kamer dost investovali až se toho nakonec zbavili, a mi si tady bude plejtvat výkonem pro něco co nám zhorší obraz? Hmm?

Já osobně vypínám i DOF + motion blur protože tak jak to v hrách bejvá implementovanýá mi přijde hnusný a total nerealistický, sorry ale moje oči takhle nefungujou... Já výhodu DX12 beru jako hlavně ten CPU overhead, zbytek je už méně podstatnej.

+1
+15
-1
Je komentář přínosný?

Chromaticka aberace neni vec kamer, ale optiky a zbavit se ji nejde. Jen potlacit na snesitelnou uroven.
Jinak souhlas, ze cpat to do postprocesiingu her je kravina.

+1
+2
-1
Je komentář přínosný?

To DayZ si klidne skrtnete. Sleduji vyvoj z prvni ruky. Urcite pridaji jednu dve cepice, kabely k autobaterii a nejaky guny, coz rozbije zombiky a spawn lootu. Nejaky jak tomu rikaji "renderer" nebo dokonce reseni problemu ze ve mestech maji vsichni 12fps, zatimco na novem Exile na Chernu+ 80fps, to je vec podruzna.

+1
-4
-1
Je komentář přínosný?

Ja se jen bojim ze nakonec vetsina vydavatelu pred NVIDII stejne couvne a vyda jenom "umele" DirectX 11 hry, inu uvidime ale zas na stranu druhou Playstation 4 a Xbox One vyuziva AMD konceptu a tak by byla skoda ozelet vyhody api DirectX 12.

Nejake informace ohledem Half-Life 3 nejsou :-), uz me stvou :-D.

Doufam ze nam nesprasi podporu pro Windows 7, "jenom Windows 8.1 a 10 only" dnes je mozne proste vsechno.

+1
+5
-1
Je komentář přínosný?

Prečítal by som si toto:

https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_i...

NVIDIA v Maxwelloch AS podporuje. Len nie v takej miere ako AMD. Je to ako s teseláciou len obrátene. Počkajme si radšej na reálne výsledky v daných hrách.

+1
-10
-1
Je komentář přínosný?

S teselací se to moc srovnávat nedá. Cílem teselace je zvýšit počet polygonů za určité snížení výkonu. Toto snížení výkonu bylo u AMD o něco výraznější než u Nvidie (důvody by byly na samostatný článek). U obou výrobců šlo ale o snížení výkonu. Proti tomu cílem asynchronních shaderů je zvýšení výkonu díky možnosti efektivnějšího využití architektury čipu. Jenže to není tak, že by zvýšení výkonu bylo u Nvidie méně výrazné než u AMD: prozatím je to tak, že u Nvidie dochází k propadu výkonu o desítky procent. Neděje se, co by se dít mělo - laicky řečeno to nefunguje.

O adekvátní srovnání s teselací by se dalo mluvit v tom případě, kdyby teselace na AMD hardwaru snižovala výkon a přitom nepřidávala žádné polygony :-)

Tohle spíš připomíná implementaci Shader Model 3.0 na GeForce 6000 a 7000. Formálně tato technologie podporovaná byla, ale když došlo na dynamic branching, šel výkon na jednotky FPS...

+1
+15
-1
Je komentář přínosný?

Porovnával som dopady na výkon. Nie cieľ oboch riešení. AMD aj NVIDIA majú v teselácii inak posunuté hranice a všetci vieme čo sa stane keď sa použije extrémna teselácia (tuším je aktuálne na stupni 64). Teda je to podobné ako keď sa kvôli benchmarku odošle do GPU neúmerné množstvo asynchrónnych úloh. Myslím, že v uvedenom odkaze je celkom pekne vysvetlené prečo došlo k prepadom výkonu u Maxwella. Použitý benchmark dosť presiahol možnosti Maxwella (nadmerným zahltením asynchróonych úloh - bolo použitých 128 a limit Maxwellu je 31) čím jeho výkon doslova zabil. AMD má hranicu posunutú na 64 asynchrónnych úloh. Vďaka tomu daný test zvládla lepšie. Rád by som videl situáciu kde by benchmark použil 31 asynchrónnych úloh, potom 64 a nakoniec trebárs 256 (to už by malo zabiť výkon aj u grafík od AMD). Ak je teda pravda to, čo sa píše na uvedenom webe.
Je to v podstate obdobné ako keď sa preťaží Geometry Shader. Ten pridáva do stávajúcej geometrie nové vertexy a tiež má svoju hornú hranicu, koľko ich pri jednom volaní môže vytvoriť. Ak sa táto hranica prekročí, ide výkon strmhlav dolu v závislosti od miery prekročenia.

+1
-4
-1
Je komentář přínosný?

Ono cíl teselace je vytvéřet polygony na GPU, aby se nemusely vytvářet na CPU/enginem, CPU je počítat, štosovat přes sběrnici, proprvat je overheadem API, atd. V podstatě to co říkáš je pravda, pomocí AS se dá výkon na té či oné architektuře dokurvit easy, je to opravdu velice podobné kauze s teselací. Když třeba ve witcherovi dáš forced tes fakto 16x, tak to krásně zlepšuje geometrii aniž by rostl overhead a zátěž na CPU, dopad na výon minimální efekt pozitivní. Ale když to necháš by default je to na hairfowrks až 64x což je overkill kterej killne výkon na Radeonech mnohem více jak na Geforce.

To samé se zde může dít s AS, pokud by se opravdu použil AS kterej nemá více jak 30 úloh najednou, tzn i maxwell by jej dal single, pass opravdu by výsledek vypadal tak jak vypadá? Dobré by také bylo vědět co přesně ty AS dělaj, aby to nebylo schválně zahcení blbostma co killne výkon konkurence, stejně jako to udělala nv u těch vlasů či předtim třeba v Crysis2 DX11 patchi. Nezapomínejte že dnes AMD hraje stejně špinavou hru jak NV.

+1
+3
-1
Je komentář přínosný?

Ale jděte, Srovnávat tyto věci je zavádějící. Teselace má za úkol vylepšit obraz. Je ale nutné podotknout, že to růstem teselace zatížení teselačních jednotek roste, ale na obraze je každé navýšení pouhým okem méně patrné. To se přece již řešilo. AMD v ovladači udělalo omezení na tuším 32 násobnou propad výkonu není tak velký a rozdíl v obraze aby člověk lupou hledal. V AS je logika přesně obráceně, čím více AS využíváte jde výkon čipu nahoru. Protože rozložíte zátěž rovnoměrněji. Pokud omezíte AS omezíte výkon. Z logiky věci tedy vyplývá, navyšování AS není kontraproduktivní jako u teselace kde výkon jde dolů a rozdíl v obraze je těžko patrný.

+1
+1
-1
Je komentář přínosný?

"čím více AS využíváte jde výkon čipu nahoru"

Toto práve nie je logické. Akákoľvek architektúra GPU a aj CPU má svoje HW limity. To platí aj o počte spracovaných asynchrónnych úloh na GCN či Maxwelly. Čím viac túto hranicu presiahneš, tým menší výkon získaš navyše oproti synchrónnemu spracovaniu. A keď to prepískneš veľa, tak budeš mať výkon ešte menší. Problém je v správe takýchto úloh a prílišnému zaťaženiu čipu. Je to úplne rovnaké ako s threadmi na CPU. Tiež si ich nemôžeš alokovať koľko chceš s tým, že čím viac threadov, tým viac výkonu. A to počítam s úlohami, pre ktoré je vyšší počet threadov prospešný. Optimálne je alokovať si toľko threadov koľko podporuje CPU na HW úrovni. Čím ich alokuješ viac, tým menší nárast výkonu získaš až nakoniec nájdeš hranicu (ktorá je v tomto prípade veľmi malá) kedy pri multithreadingu budeš mať menší výkon ako keby si použil iba jeden thread.
Teda ak Maxwell podporuje iba 31 vykonávaných asynchrónnych úloh v jednom čase a ty mu ich pošleš 128 (ako v prípade benchmarku z Beyond3D), tak ho tým úplne zahltíš a jeho výkon zabiješ. AMD má s GCN hornú hranicu 64 a preto je dopad 128 úloh nižší a s takým prepadom, ktorý ešte stále zabezpečuje vyšší výkon oproti synchrónnemu spracovaniu. Čo by sa asi diaľo keby sme do AMD grafiky pustili 256 asynchrónnych úloh (čo je štvornásobok podporovanej hranice a bolo by to teda ako v prípade Maxwella)? Myslím, že by sme videli rovnaký prepad ako u NV. Týmto sa dajú robiť úplne rovnaké ťahy ako s teselačným faktorom. Je to proste ďalší spôsob akým je možné zabiť výkon grafík konkurencie. A povedal by som, že sú si momentálne NV a AMD kvit. :-)

+1
+2
-1
Je komentář přínosný?

Při paralelním zpracování úloh se vždy dočkáš vyššího výkonu, než při sériovém zpracování těch samých úloh, protože GPU je vždy vytíženo na maximum (jeho výpočetní zdroje), kdežto u sériového zpracování ne!
A právě těchto nevyužitých zdrojů při sériovém zpracování, využívají AS obdobně, jako je tomu u CPU a SMT.

+1
-1
-1
Je komentář přínosný?

Sorry, ale tohle je neskutečná blbost. Paralelismus má taky nějakou režii. Rozhlašovat, že více paralelismu je více Addidas, je dost nezodpovědné, protože se najdou pitomci, co se toho chytnou a budou tomu snad i věřit.

+1
-4
-1
Je komentář přínosný?

Práveže u CPU a multithreadingu je to tak, že ak si alokuješ viac threadov ako je HW dostupných, tak výkon mať vyšší nebudeš. Skôr naopak. Ako píše Shal, réžia toľkých threadov ťa bude stáť viac ako budeš mať z toho úžitok.

+1
0
-1
Je komentář přínosný?

Takto vypadá onen MDolenc test na GTX 980 Ti provádění AS až 506 kernelů (tasks)
http://i.imgur.com/3NrhGRo.png

červená čára - doba mixu compute a graphics shaderů
modrá čára - doba pouze compute shaderů

Z toho je patrné, že Maxwell opravdu neprovádí mix compute/graphics asynchronně (paralelně), ale o to tu nyní nejde. Koukněte se na tu žlutou čáru jdoucí až k nebesům - no a to je právě to sériové zpracování shaderů :)

+1
+2
-1
Je komentář přínosný?

Zrejme majú architektúry GPU lepšie zvládnutý paralelizmus, ale u CPU to nefunguje na princípe čím viac threadov (myslím teraz SW, nie HW), tým vyšší výkon. Grafiky musia ťažiť z vysokého počtu výpočtových jednotiek. Tu je trochu starší článok, ale niečo podobné som čítal aj v aktuálnej knihe k multithreadingu:

http://www.codeguru.com/cpp/sample_chapter/article.php/c13533/Why-Too-Ma...

+1
+1
-1
Je komentář přínosný?

GPU se chova presne stejne jako CPU, jen jde o specificky typ uloh, ktere maji nizkou rezii => jsou pro paralelni zpracovani vhodne. Ale jak uz bylo receno, nejaka rezije s obsluhou tu je vzdy, vetsi ci mensi, to je fuk, vzdy existuje hranice, kdy zacne vykon s poctem threadu klesat.

To vubec neznamena, ze se ty hranice da dosahnout na soudobym HW.

+1
-3
-1
Je komentář přínosný?

Tady je otazka, co si clovek predstavuje pod pojmem vykon. Pokud thready plne vytezujou vsechny jadra CPU/GPU, pridavani dalsich threadu uz rychlost nezvysi, ale snizi o rezii prepinani threadu. Pokud, ale thready nevytizej CPU/GPU na plno pridavani threadu rychlost zpracovani zvysovat bude. U CPU se toho hodne vyuziva hlavne i sitovych spojeni, kde neni potreba skoro zadny vypocetni vykon, ale sou dlouhy cekaci doby na odezvu. U GPU to muze byt treba vice threadu bezicich na renderovacich jednotkach cekajicich na vystup z pixel shaderu.
Samozrejme zvysovani poctu threadu do nekonecna nema smysl, protoze pri urcitych poctu se kapacita kazdy vypocetni jednotky naplni.
Ale kazdopadne neplati, ze pocet threadu se musi rovnat poctu vypocetnich jednotech.

+1
0
-1
Je komentář přínosný?

Čítal som to ako doporučenie. Myslím, že je jasné, že každý HW má svoje konečné limity. Kždopádne dík za doplnenie.

+1
-3
-1
Je komentář přínosný?

Pises kraviny a ani si neprectes, na co reagujes. Vetsi paralelizace vede k vyssimu vykonu jen do ty miry, dokud pro ty ulohy existuje HW, ktery je bude zpracovavat. Jakakoli paralelizace sebou pak nese i spravu tech uloh. Takze i kdybych mel CPU s nekonecnym poctem jader, tak se driv nebo pozdejs dostanu na hranici, kdy samotna obsluha tech uloh bude narocnejsi, nez jejich vlastni zpracovani => kazdy dalsi navyseni poctu paralelne zpracovavanych uloh pak uz vede naopak ke snizovani vykonu.

+1
-1
-1
Je komentář přínosný?

Takovy skromny dotaz:
Podle mne je toto resitelne jednoduse frontou. To znamena v momente kdy SW pridelujici paralelni prostredky alokuje vsechny prostredky, tak preci zacne jednoduse radit dalsi ulohy do fronty a v momente, kdy je dalsi paralelni prostredek volny, tak ulohu jednoduse prideli. Podle mne spise nez ke snizovani dochazi spise ke stagnaci vykonu.
Ke snizovani vykonu pak muze dochazet v pripade, pokud pocet prijatych uloh ke zpracovani neni uz kde radit a nebo je paralelizace napsana spatne. Jinak si to moc neumim predstavit co myslite.

+1
+1
-1
Je komentář přínosný?

Poznám výhody teselácie a aj jej účel. Porovnával som ale niečo iné. A mám v podstate rovnaké otázky ako ty. Preto by som rád videl benchmark, kde by sa dal počet odosielaných úloh konfigurovať a mohli by sme vidieť ich dopady na výkon GPU. Vtedy by sme mohli vidieť, či sa správajú podľa očakávania ak ich hranica prekročená nie je. A ak by sa správali v poriadku, vedeli by sme zistiť kde majú fyzické hranice.

+1
-4
-1
Je komentář přínosný?

Poslední info o hl3 je ze práva chtělo koupit studio, které dělalo na crash bandicoot. (Vím ze ta firma dělala i na jiných hrach ale nevím jak se teď menuje

+1
+2
-1
Je komentář přínosný?

Naughty Dog. Aktuálně jsou známí hlavně díky Uncharted a Last of Us. Každopádně on to byl jenom takový joke na Twitteru, kdyby Valve fakt chtěli prodat práva na HL značku, tak tipuju nejvíc by nabídli Activision a ti by z toho udělali roční sérii ala CoD.

+1
+3
-1
Je komentář přínosný?

Tak na Armu 3 jsem nejvíc zvědav, zrovna před pár dny jsem to řešil, že tam mám průměrné využití grafické karty na 60% na 4GHz 6-jádru a nevím, co s tím. Tak snad mi to pomůže :-)

+1
0
-1
Je komentář přínosný?

U Army 3 jsem se o tom jako laik kraťoučce pobavil na bugtrackeru a tady jsou odpovědi: http://feedback.arma3.com/view.php?id=23922 , růžově to nevypadá, nejspíš 20FPS ve městě při žádné komponentě vytížené na max zůstane.

Upvote pro ten thread prosím.

+1
-5
-1
Je komentář přínosný?

Porid Intel, i dvoujadrova I3 ti tu grafiku vytizi vic nez pretaktovana FX-6300.

+1
-4
-1
Je komentář přínosný?

Je k dispozici Infiltrator demo od Epicu ktere by melo behat jak pod DX11 tak pod DX12. Nenaslo by se par dobrovolniku co by to odzkouselo, ze by sme porovnali vysledky DX11/12. Ja to zrovna stahuju, ale pochybuju ze to rozbehnu.

Link na stazeni v description https://www.youtube.com/watch?v=_YepxAtYvfg

+1
+1
-1
Je komentář přínosný?

To je jednoduché, více DX12 her bude, až se začne používat na Xbox One. Taky hraje velkou roli (ne)rozšíření Windows 10, pokud lidi budou stále na Windows 7 s DX11, tak motivace vývojářů používat DX12 nebude valná.

+1
-5
-1
Je komentář přínosný?

"Lidi" vývojáře nezajímají - a už vůbec ne MS hateři - vývojáře zajímají hráči. A ti na W10 kvůli DX12 prostě půjdou.

+1
+5
-1
Je komentář přínosný?

Gears of War: Ultimate Edition musí být blbost a nebo nebude Exkluzivně pro xbox ale i pro PC (xbox one má podle EN wikipedie podporu DX 11,2).

+1
-1
-1
Je komentář přínosný?

XBOX one samozrejme nebude mať HW podporu nových DX12 features, ale bude môcť ťažiť z optimalizovanej CPU vrstvy a mal by teda vedieť s DX12 lepšie využívať viacjadrové CPU.

+1
-6
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.