Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Scott Wasson představil Frame Pacing pro DirectX 12 [video]

To je báječné o tom číst ale v sestavách kde je použito CrossFire, dual-graphics, dvoučipové grafické karty, obvykle bývá i více zobrazovadel, takže by se dalo předpokládat, že se ten efekt když GK počítá 3 a více obrázků smaže.
No možná jsem zapomněl na APU+GPU, no ale vzhledem k prodejům :-)

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele no-X

To většinou neplatí. Pokud nemám kombinaci dvou grafických karet, kdy je na výstup každé připojen jeden samostatný monitor (a tudíž nejde o CrossFire, jen o více karet s vlastními zobrazovadly), pak karty renderují jeden obraz, který je rozřezán a rozdělen mezi jednotlivé obrazovky. Při kombinaci dvou karet a tří monitorů má Frame Pacing stejně podstatnou roli jako při kombinaci dvou karet a jednoho monitoru.

+1
+2
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Tynýte, teď si musíš koupit ještě jednu RX480 a budeš mít výkon jednoho TitanuX v DX12 hrách :)

+1
-10
-1
Je komentář přínosný?

Ale pořád bude těžce v plusu :)

+1
+9
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

dodnes jsem neviděl test 1080 vs 2xRX480... natož TitanX... a ještě k tomu že spousta her duální zapojení nepodporuje... a to je tak asi vše.

+1
-4
-1
Je komentář přínosný?

staci jen hledat vim ze je to klise ale Google na tohle funguje docela dobre ;)
BTW ty aktualne nejhranejsi AAA hry SLI/CF profily maji a dokonce to funguje 2x RX 480 se motaji vykonem kolem jedne GTX 1080 nekdy trochu lepsi nekdy trochu horsi (v zavislosti na rozliseni a detailech)
Titan X byl taky testovany dokonce i v SLI
a to je asi tak vse .....

+1
+5
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

ne google na tohle nefunguje, našel jsem nanejvýš jen srovnání grafického výkonu 1080FE a RX480. Bez spotřeby el.energie.

+1
-3
-1
Je komentář přínosný?

"...ne google na tohle nefunguje..."
:D facepalm :D

jeste ze 99,9999% populace funguje google normalne a behem nekolika vterin najde potrebne informace :) ale tak Crha musi mit vzdy neco extra : )

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

víš čemu se říká cílená reklama? Nebo relevance zobrazování vyhledání? Když si ty zadáš do googlu ABC najde ti to 123, když si pořídíš novej kompl a jdeš poprvé na Gogle tak ti to najde abc, ale když tam zadám já ABC tak mě to najde xYž*^&%&* protože prostě je přehlcenej a neví co chci, protože je zvyklej zobrazovat úplně něco jiného.

+1
-4
-1
Je komentář přínosný?

you made my day :D to je posilovna brisnich svalu :D vrele dekuji
tady se nekdo minul povolanim co takhle vyzkouset stand-up comedy ?

ale ted vazne >>> zaklad je vznest spravne formulovany dotaz ...jestli jste ten vzacny pripad ze na vas google reaguje i pri pokladani takto banalnich dotazu nestandardne tak bych videl problem nekde jinde nez na strane googlu :D

+1
+4
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

děkuji za potvrzení, že nejde dohledat TitanX vs 2xRX480

+1
-4
-1
Je komentář přínosný?

CRHA >> "...dodnes jsem neviděl test 1080 vs 2xRX480 ...natož TitanX..." od toho se odvijela cela debata

moudry clovek si dokaze ty testy dohledat a pokud velmi ojedinele nastane situace ze nelze snadno dohledat raritni kombinaci produktu tak nastupuje dalsi vyuziti sede hmoty v nasich hlavickach a navzajem si ty vysledky porovname a nebudeme tvrdit tunu nesmyslu ze neco nejde dohledat kdyz je toho internet plny :)

+1
+7
-1
Je komentář přínosný?

Mam zase dotaz, uplne se nevztahuje k clanku, protoze kdyz na to clovek ma, tak muze poridit dualni grafiku, ale jedna se o ten druhy pripad.
Dejme tomu, ze mam Skylake procesor a chtel bych si poridit dvakrat RX480. Existuje deska, kde je relevantni provozovat dva RX480?
Ptam se proto, ze jsem na s.1151 nenasel desku, ktera by poskytovala dvakrat PCIe 16x a pro tyhle highend grafiky uz PCIe 8x nestaci, samozrejme se to na tom da provozovat, ale uzke hrdlo bude prave na te sbernici a pak je otazka, zda ma vubec CROSSFIRE nejaky (podstatny) smysl.
Takze jake desky si priznivci crossfire porizuji, aby to neomezovalo vykon GK?

+1
0
-1
Je komentář přínosný?

Deska ktera ma 2x PCIe 16x by se nasla, jenze problem je najit procesor do socketu 1151, ktery to podporuje, protoze Skylake to neni. A kdyz to nepodporuje CPU, na desce je to k nicemu.

Podporuji to nektere Haswelly, nicmene rozdil mezi 16x a 8x PCIe je pouze symbolicky.

+1
+3
-1
Je komentář přínosný?

Aha, diky za upozorneni, no ja cetl nejake clanky, kde to rozebirali a srovnavali vykonove a dospeli k tomu, ze PCIe 8x uz proste vykonove nestaci a tim padem v podstate Crossfire a Sli prestava davat smysl, kdyz neni k dispozici, jak rikas procesor na Skylake, ktery to da. :-/

+1
0
-1
Je komentář přínosný?
Obrázek uživatele no-X

Jak jsi přišel na to, že PCIe 3.0 ×8 nestačí? Datová propustnost je stejná s PCIe 2.0 ×16 a online najdeš řadu testů, které u výkonnějších grafik než je RX 480 nenacházejí mezi oběma sběrnicemi žádné významnější výkonnostní rozdíly.

+1
+4
-1
Je komentář přínosný?

Nekde jsem to cetl, ale ted teda nevim, jestli to nemohlo byt PCIe 2.0 x8, rekl bych ze ne, ale nevim teda. Vubec jsem nevedel, ze datova propustnost PCIe 2.0 x8 a 3.0 x8 se lisi, takze jsem tohle nesledoval.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele no-X

http://www.ibmsystemsmag.com/getattachment/e1567668-90c6-42c4-9e5a-ddceb...
Zatím šla s každou generací prakticky na dvojnásobek a ani s PCI 4.0 se to nemá změnit.

+1
+2
-1
Je komentář přínosný?

diky, tak to bude asi ono, ze asi srovnavali PCIe 2, takze tim je to vyreseny.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Hrdina

Toho se fakt neboj, někdo to kdesi testoval s jednou kartou a propad ve výkonu začal tuším až na PCIe 4x maličkej (nevím která verze, je to relativně jedno). X4 se dělají externí grafiky pro notebooky (USB 3.1 rev. 2) a pohoda.... Navíc je tam ten můstek, kterej tam taky asi k něčemu bude.... Skylake má 24 linek celkově, takže to bývá 16 grafika, 4 z CPU pro M.2 a karty, 4 z čipsetu pro bižuterii. Na 40 linek typu Xeon 1336 nebo kolik potřebuješ ty drátky navíc právě. Jinak to pásmo na southbridge je +- sdílený, takže málokdy to zadusíš atd. atp.

Pátrat po tom nebudu, ale tuším existujou desky i pro 1151, kde je další čip pro 3x16 a navenek pro CPU se tváří jako 1x16 nebo 1x20 podle dalších karet, co tam máš nastrkaný a sám si to tam organizuje, takže máš jakoby 3 x 5,33 až 3 x 6,66...možná kecám.

+1
+1
-1
Je komentář přínosný?

AMD patrí za snahu a vývoj všetka česť a uznanie, ale...

... v dobe keď vychádzajú vyslovene nedorobené hry, s 10tkami zásadných chýb a bugov, zamknuté na 30fps, pri uvedení a často dlhé mesiace bez podpory CF/SLI som vážne pesimista v tom ako dlho bude trvať kým túto DX12 "fíčuru" budú vývojári herných štúdií využívať na 100%.

Alebo sa mýlim a akokoľvek pok***ená DX12 hra bude vďaka tomu že beží pod DX12 plnohodnotne využívať "Frame Pacing" ?

+1
+2
-1
Je komentář přínosný?

No, jak já to pochopil z článku a videa, tak jde přesně o ten druhý případ - software, který zajišťuje plynulost, když se vývojáři her vybodnou na pokročilejší možnosti chodu dvou grafických jader pod DX12.

+1
+3
-1
Je komentář přínosný?

Myslim, že při dnešní stavu vývoje her, jsou všechny výhody DX12 spíš nevýhody, protože to vývojáři akorát dojebou. Sice dostanou nějakej výkon navíc, ale o to míň zase budou optimalizovat, protože 30fps stačí, takže se to v praxi neprojeví. Stejně jako možnost si ručně implementovat podporu pro multiGPU, kdo by to dneska dělal? Dneska nejsou schopni pořádně něco dodělat a spoléhají, že to výrobci GPU dodělají v ovladačích za ně.

+1
0
-1
Je komentář přínosný?

Hezký, ale zase to přináší nevýhody - vyšší inputlag a lehkej blur obrazu, jestli to dobře chápu?

+1
-1
-1
Je komentář přínosný?
Obrázek uživatele no-X

Ani jedno z toho není pravda. Docela by mě zajímalo, odkud ta informace pochází.

+1
+3
-1
Je komentář přínosný?

"synchronizace již vykreslených snímků" a z grafu opravdu vypada ze se vykresleny snimek pouze pozdrzi aby se vykreslovaly pravidelneji. Takze pokud se nic nezmenilo na vstupu a jen se kazdy druhy snimek pozdrzi, tak u techto snimku se zvysi input lag.

+1
+1
-1
Je komentář přínosný?

nevim co je lepsi mit pozdrzeny snimek ve fronte a nebo nemit snimek vubec a vynechat tak jeden interval >>>hadam ze nejeka prodleva ac zanedbatelna tam bude ale zase na druhou stranu se to vykompenzuje tim ze snimky budou chodit v pravidelnych intervalech takze ciste teoreticky to vyjde nakonec mnohem lepe (to ukazou testy z praxe) a jelikoz vicecipove karty jsou budoucnost tak tohle je velmi dobra pripravka ....

+1
+2
-1
Je komentář přínosný?

Blbost, vícečipové karty nejsou budoucnost, všechna elektronika se víc a víc integruje, tak proč by zrovna grafiky měly mít více čipů?

+1
-2
-1
Je komentář přínosný?

protoze vykon+chlazeni + velikost cipu atd. .. do toho jeste integrace HBM apod. :) ) uz ted jsou ty cipy velke a vykon nedostacujici delat jeste vetsi cipy tak vyteznost klesne ... a i chlazeni vychazi potom lepe :) porovnejte si velikost treba i7-6700 s iGPU vs GPU cip treba GTX 1080 :) chce to proste dalsi zlom ve vyvoji nebo rozmach multi GPU

btw integrace probiha kolikrat na takove urovni ze dva samostatne cipy akorat daji na stejny plosnak a sdileji napajeni a prostredky :) v mobilnim segmentu kde neni potreba high end vykon je to jina kava ...tam je to pochopitelne (setreni mista a energie)

+1
+3
-1
Je komentář přínosný?
Obrázek uživatele ROdNEY

protoze je mnohem levnejsi vyrobit vice mensich cipu nez jeden velky monoliticky cip. Z hlediska vykonu je pak dosazeni vysokeho vykonu mnohem snazsi pomoci vice malych nez jednoho velkeho

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

obecně: vždycky žasnu nad těma hlupákama co tady předpovídají svou myšlenku kdy podle nich nic jiného nikdy nebude. Já jsem dávno u 1GHz předpovídal, že frekvence nepůjdou zvětšovat do nekonečna a bude se muset jít cestou paralerizaci zpracování procesů.A světe div se od prvních 1GHz CPU to je už víc jak deset let a už tady každý brečí že chce 8+jader. -současně vlaken ke zpracování.
A najednou tu čtu že jsou dvě jádra u grafiky slepou cestou. PROČ? Proč musím číst takové žgrgly malých dětí, které tomu nerozumí a nechápou jak to celé funguje. Dneska je tady AMD s dvěma jádry, zítra tady budou jednočipové karty s integrovanými jádry tak jak byl Athlon X2 nebo Core2Duo. A za pár let se budeme hádat o tom že 8+jader GPU nestačí pro naše 16K monitory...

+1
0
-1
Je komentář přínosný?

Tady se zase někdo projevuje... Dvě jádra grafiky, LOL...

Dvoučipový ≠ dvoujádrový. CPU a GPU jsou v tomto neporovnatelné architektury čipů. GPU je ve skutečnosti vysoce paralelizovaná výpočetní jednotka, "jader" je tam opravdu hodně (třeba 128). Takže dvoučipová grafika fakt není dvoujádrová.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

no to tě chápu, ale proč mě napadáš když je to o tom co říkám. Jednočipovka bude mít dobře 128 vláken/jader pojmenuj si to jak chceš. Dvoučipovka bude mít 256, ale nic nebrání tomu aby příště na jednom čipu při zachování stejné velikosti bude napříště třeba 1024vláken jader? Je to prostě paralizace a je to jediná možnost jak s tím pracovat. A jestli se SLI/Crossfire míchá v čipu, na kartě a nebo softwareově někde na výstupu už je jedno.

+1
0
-1
Je komentář přínosný?

Tohle už není pralelizace, protože paralelní to dávno je, to je spíše miniaturní výpočetní cluster. Každé řešení má nějaké nevýhody. Vícečipová řešení by potřebovala architekturu sběrnic a paměti jako u superpočítačů, neboť jejich arbitrování omezuje dostupný výkon (dva čipy se dělí o pro jeden slot dostupné PCI-E linky a paměťové zdroje). Což je i ten základní rozdíl mezi SLI/Crossfire.

+1
0
-1
Je komentář přínosný?

Prosím Crha! Zdržte se dalších komentářu v tomto článku.

Mluvíte povětšinou nesmysly a jen zbytečně vládáte spam.

Chápeme že jste vševjedoucí a vše jste předvídal, všemu rozumíte nejlíp atd atd... ale už stačilo, ano?

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Hrdina

Ten graf je hlavně interpretovatelnej vícero způsobama... typické AMD (video jsem teda neviděl). Z toho non-pace taky můžu vyvodit, že jedna grafika je nevím proč dvakrát pomalejší než druhá a ten důvod mi jaksi uniká. S pace-on se zázračně zrychlí ale "odkud se beue" netuším. To je teda CrossFire na hovno a lepší je soft řešení pomocí 30let starýho DMA? Pokrok ničím nezastavíš holt.

+1
-2
-1
Je komentář přínosný?
Obrázek uživatele webwalker

V tom grafu nejsou vyneseny časy renderingu jednotlivých snímků každého GPU, ale časy (intervaly) mezi Swapem Front/Back bufferu. Frame pacing nedělá nic jiného, nežli hlídá, aby se tyto intervaly výrazněji nelišily. Pokud zjistí výraznou diferenci, další swap jednoduše pozdrží, čímž intervaly zase srovná do latě.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele webwalker

Nemusí být pozdržen každý druhý snímek, stačí pozdržet pouze snímek jediný a intervaly se zase srovnají.

+1
+1
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Nezlob se na mě, ale pokud něco pozdržím, tak vzniká inputlag.

+1
-3
-1
Je komentář přínosný?
Obrázek uživatele webwalker

To samozřejmě platí,ale musíš počítat jak vysoký input lag. Třeba v případě uvedeného grafu RotTR stačí pozdržet hnedle ten první snímek o cca 6 ms a je hotovo. U zbylých 50ti snímků nic zdržovat nemusíš, protože už pojedou pravidelně. Frame pacing je tedy něco jako defibrilátor při fibrilaci srdce :)

+1
+2
-1
Je komentář přínosný?

Crha, pokud mám inputlag 6ms, nepozná to absolutně nikdo.

Pokud nevíte co to znamená 6ms tak vězte, že reakční doba na podnět je cca 250ms. To je doba než mozek zareaguje na to co vidí nebo slyší.

Tím chci jen říct, že není nikdo kdo by postřehl input lag jednoho snímku o 6/1000 sekundy :D

+1
0
-1
Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

jeden snímek 6ms, zabalení snímku 6ms, transfer přes kabel + 30ms, rozbalení snímku 6ms, načtení do buffru 6ms, zobrazení 6ms... no nebudeme zabřehávat do detailů, ale ve své podstatě to prostě inutlag zvyšuje.

+1
0
-1
Je komentář přínosný?

Neřešíme celkový inputlag ale jen rozdíl oproti hodnotě bez této technologie.

A klidně vám inputlag vyčíslím.
Zpoždění běžné myši (ne herní): 8ms
Zpoždění CPU: 15ms
Zpoždění GPU (60fps): 16ms
Přesun snímku do monitoru: 7ms
Vykreslení na LCD: 12ms
Celkový inputlag: 58ms
Pokud zapneme vsync protáhne se to o 16ms , to je 74ms.

časy krásné a to nepočítám herní sestavy kde klesne input lag na polovinu!
Těch 6ms navíc není tak hrozná hodnota :)

+1
0
-1
Je komentář přínosný?

Dotaz - je potřeba frame pacing na monitoru s adaptive sync? Hypoteticky mám adaptive sync monitor s rozsahem 30-144. Pokud mi náhodou přijdou 2 snímky po sobě, prostě jen adaptivně na ten okamžik vyhoním frekvenci směrem k horní hranici a snímky zobrazím hned po sobě. Pokud mi hra dělá průměrně 60fps, tak špička bude kolem 120 když oba snímky přijdou najednou, což není problém na 144Hz monitoru zobrazit. A tu případnou mezeru která následuje hned potom se vyřeší přepnutím na nižší frekvenci a kdyby to nestačilo zapracuje LFC. Tak jako tak zůstane dojem plynulý i když prakticky dochází k neustálému kolísání mezi dolním a horním rozsahem adaptive syncu (freesync,gsync)

+1
+1
-1
Je komentář přínosný?

Je to uplně jiná technologie pro jiný účel.

Freesync přizbůsobuje frekvenci monitoru k počtu vykreslovaných snímků to proto aby vždy při překlesní obrazu byl k dispozici celý jeden snímek a nedocházelo k posunu obrazu. Takže řeší chybu vykreslování monitoru.

Monitor by to nevyřešil protože on by prostě zobrazil snímky, neřešil by jaké jsou mezi nimi mezery.

Frame pacing zas zajišťuje aby snímky byly posílány ve stejném intervalu.

V absolutním pohledu by bez FP dostával jednotlivé snímky takto:
100hz
25hz
100hz
25hz
Reálně by to bylo 50hz
Se zapnutým FP by je dostával standartně ve frekvenci 50hz.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.