Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Havok bude počítat pomocí GPU

Jak už jsem kdesi psal tak to nechápu. To znamená že si dám do počítače Radeon X1800 a ten mi bude počítat obojí? V tom případě to bude na nic, protože už dneska jsou hry, které vytíží samotnou kartu na maximum. A pochybuju že si někdo bude chtít snížit rozlišení a omezit grafické efekty aby běžela i fyzika. A pokud je to myšleno tak, že jednu X1800 budu mít na grafiku a druhou v druhém slotu na fyziku tak je to podle mého stejný jako dát si tam kartu s Ageia čipem. A to už nebudu rozebírat to, že by někdo chtěl využít dvě karty na grafiku a kam by potom dal tu další co bude dělat fyziku... podle mého se to ubírá špatným směrem, ale fakt nevím kudy to směřovat. Možná vícejaderné procesory budou řešení... A nebo možná desky s 4x PCI-E x16 a dva zdroje

+1
0
-1
Je komentář přínosný?

Povedal by som, ze vyuzitie GPU pre pocitanie fyziky znizi vykon grafiky, takze pripadna urychlovacia karta pre fyziku sa hodi vzdy...
V pripade ze je vykon GPU dostatocny (nejaka hra co je limitovana limitovana procesorom) sa teda prenesie fyzika na GPU a zrazu bude mat procesor povedzme 20% menej vytazenia co prida povedzme 10 fps, ale na druhu stranu nebude stihat grafika a znizi sa rychlost o 20 fps :-)

+1
0
-1
Je komentář přínosný?

>>Fan - jde asi o to, ze "sejdry" na kartach se v soucasnosti casto docela flakaj, nejvice makaji jine casti GPU-cka a tak je vyuziti "nevyuzitych" casti GPU jen ku prospechu. Pochopitelne bude muset novy herni engine zanalyzovat, co je rychlejsi, protoze je mozne, ze na nekterych kartach (zpravidla levnejsich "shitech" s vecmi typu TurboCache, atp.) budou vypocty provadeni PS (ci VS) celkovy vykon spise snizovat, nez zvysovat, ale to uz neni takovy problem zaridit.

+1
+2
-1
Je komentář přínosný?

RaStr: shadery (pixel shader engines) nejsou zrovna to, co by se na dnešních grafických čipech flákalo, alespoň ne tím způsobem jakým popisuješ (viz. třeba rozdíl NV43/RV530). Problém je spíš v tom, že hry se složitějším fyzikálním modelem jsou limitovány výkonem procesoru (fyzikální výpočty - viz HL2), takže grafický čip na procesor čeká (samozřejmě čeká jako celek, nejen "pixel shadery"). Přesun části výpočtů na GPU by pak mohlo paradoxně znamenat nárůst FPS, protože GPU provede mnohé výpočty výrazně rychleji, než CPU a čas, po který GPU čekalo, bude zkrácen na čas, po který bude GPU počítat fyziku. A pokud platí předpoklad, že GPU je pro tyto výpočty vhodnější (=provede je několikanásobně rychleji), dojde ke zkrácení této doby na zlomek a výsledkem bude rychlejší běh hry.

+1
0
-1
Je komentář přínosný?

2no-X: Jenze tohle vsechno vychazi z predpokladu, ze GPU je radove vykonejsi nez CPU. Jaky % sestav tomuhle predpokladu vyhovuje ? Podle me mizivy. Vetsina gamesnickych sestav je velmi dobre vyvazena. Samo ze vzdy je jedna cast (GPU/CPU) vyuzivana vic nez druha, ale ten rozdil je tak minimalni, ze se podle me vubec nevyplati neco takoveho delat.

Proti tomu stoji samostatna karta, ktera nebude delat nic jineho a vlastne celkovy vykon PC muze znacne narust, jelikoz tu kartu lze pouzit i na jine ucely.

+1
0
-1
Je komentář přínosný?

Dobre navrzena graficka karta je dostatecne "paralerizovana" na to, aby se v pripade vyuziti jejiho pixel shader vybaveni pri pocitani fyziky misto graficke kvality zmena vykonu vyrazne neprojevila. I s pomerne obycejnou grafikou jdou delat hotovy zazraky. Vsechno je to jen o kvalite navhru a vnitrni strukture hardwaru, na cemz si urcite panove inzenyri davali, davaji, a budou davat zalezet.

+1
0
-1
Je komentář přínosný?

J: Ale nejprve si uvedom ze vykon GPU je mnohanasobne vykonejsi nez vykon CPU...
Nekdy drive sem cetl ze vykon GeForce 256 neboli NV10 tusim mel vykon kolem 25GFlops....a vykon CPU je dneska sotva nekolik GFlops pokud vubec...
A hruby vykon soucasnych GPU je radove nekolik stovek GFlops....
Takze nejaka fyzika je pro GPU legrace....ma to za maly zlomek toho co to dela CPU....

+1
+1
-1
Je komentář přínosný?

Jak psal Fan: 4x PCI-E x16, dva zdroje..... a tiskárnu na peníze. Pamatuju dobře kdyz vyšel v jednom časopise článek "Souboj titánů - Riva TNT2 Ulta vs. VooDoo 3 3000" a o chvíli pozdeji uz jsem mel tu TNT2 Ultru doma ale za 6500. A vydžela nějaký ten rok než jí vystřídal Radeon 8500, na svou dobu taky dobrá karta ale už trochu dražší.Ta TNT2 tehdy byla špička high-endu. Dnešní špička high-endu stojí 15k+ :-( Dřív se dal pořídit herrní stroj daleko levnějc než teď...škoda

+1
-1
-1
Je komentář přínosný?

RaStr> To ze se shadery flakaji je docela pravda s vyjimkou Ati rady 1xxx ... aspon ATI tvrdi, ze vyuziti shaderu zvedlo na nejakych 90%. Takze uz moc vykonu na fyziku nezbyva.
Jooo, az bude karta s 48 univerzalnimi shadery, to bude jina ...

+1
-3
-1
Je komentář přínosný?

Vsechny novejsi GPU jsou na fyzikalni vypocty mnohem vykonejsi nez CPU. Nejaky lidi z nejaky univerzity zkusili pouzit FX5900 jako vypocetni jednotku a zjistili, ze jeji vykon je asi 5-15x vetsi nez P4 na 3Ghz. Takze pokud si s dnesni 6800ky ktera ceka v 10% pripadu na CPU pucim 10% vypoctovyho casu, budu mit lepsi fyziku, stejny FPS a navic plynulejsi hru, protoze kdyz se ceka na CPU dela to skoky, staly zatizeni neni tak hrozny.
Vracime se do dob 386 a KOPRU(nikdy nezapomenu, jak jsem dones domu kopr k nasi 386-SX25 a vsechny dema se zrychlily 5x, to byl upgrade - a co teprve to delalo s CADem na 486kach, ten se urychlil aspon 20x ) :). A S3Mka hraly.

+1
+1
-1
Je komentář přínosný?

Nalim: těch >90% je sice pravda, ale týká se to něčeho úplně jinýho :-) To je efektivita využití ALUs díky UTDP. Když se při složitých fyzikálních výpočtech čeká na CPU, je jedno, jestli je tahle efektivita na GPU rovna 1% nebo 99%. Protože je naprosto jedno, jestli na výpočet ze strany CPU čeká S3 Virge, nebo GeForce 7800 GTX - v tuhle chvíli rychlost procesoru grafický čip nijak neovlivní. Rozdíl je až v tom okamžiku, kdy má CPU hotovo a ke slovu se dostane grafika. A právě to se má přesunem fyzikálních výpočtů na GPU částečně změnit.

+1
0
-1
Je komentář přínosný?

A může mi tady někdo říct tedy jeden rozumný důvod proč se dělají karty do SLI/Crossfire když i jednu kartu nedokážou současné stroje vytížit?
A za druhé, proč třeba FEAR zatíží i nejnadupanější karty ve vysokém rozlišení natolik, že to jede jen v pár fps. Pokud je to jen procesorem tak to chápu, ale stejně si myslím, že si tohle budou moct dovolit jenom ty nejlepší karty.
Prostě nějak nemůžu kousnout, že po tej masáži jak která karta je rychlá, kdy se NV honí s ATI kdo je rychlejší najednou přijde hláška s tím, že karty mají ještě rezervu na to aby si každá počítala ještě fyziku. V tom případě nechápu proč se dělají SLI/Crossfire... Asi jsem oběť reklamy, ale prostě mi to nějak nesedí.

+1
0
-1
Je komentář přínosný?

GPU su blbe jednoucelove procesory a su vyborne v tom na co su navrhnute. nemozno porovnavat s CPU.
fyzika na shaderoch je v prvom rade reklamny tah, sposob ako sa odlisit od konkurencie. byt vynimocny. cool.
lepsia efektivita shaderov nesie zo sebou este jednu nevyhodu. karty budu menej stabilne a pojdu menej pretaktovat.
neviem si predstavit ako bude vyzerat fyzika na nestabilnej karte, alebo karte s otvorenymi pipeline.
na grafike clovek ozelie ked nejaky ten pixel uleti...

+1
+1
-1
Je komentář přínosný?

To jsou zase názory... :-|

Fan: Zapomínáš na počáteční předpoklad. Fyziku má smysl akcelerovat v případě, že na ní nestačí CPU (resp. když její akcelerace přinese nárůst výkonu). A to se nejvíce projeví limitací výkonu ze strany procesoru. Sám sis dokázal, že to není případ F.E.A.R.u, protože jeho limitem je grafická karta. Jinak přečti si moje předchozí posty - nejde o to, že by měla karta rezervy. Ty nejsou zapotřebí, protože se nejdříve počítá fyzika a až potom probíhá rendering.

sepul: GPU už dávno nejsou jednoúčelové procesory a kdybys měl poslední tři roky aspoň trochu otevřený oči, mohl sis toho všimnout sám

+1
0
-1
Je komentář přínosný?

Teda proc ja mam toho no-X tak rad? Von to vzdycky tak pekne rekne.. :-) bych to lip nevymyslel.

+1
+2
-1
Je komentář přínosný?

souhlasim s Hoooba
 
Kdyz sem si porizoval nahradu za starickou 486 tak sem kupoval nejakyho celerona 300Mhz s Voodoo2 ktere v te dobe coby nejlepsi karta stala nejakejch 8000kč. Jenze od te doby jsou vyrobci grafickych karet cim dal tim nenazranejsi. Dnesni hi-end je nekde mezi  15 a 20 a to jeste za kartu o ktere se vi ze bude behem 3-9 na trhu jeji nahrada.

+1
0
-1
Je komentář přínosný?

2 JoHnY: maš pravdu na 368 myly coprocesory skoro zázrak, ale uz horsi je ze to byl jenom zasranej marketingovej tah zasranyho intelu. On totiz ten procesor bez koprocesoru byl vyrobeny stejne jako ty prodavany s coprocesorem akorat byl hardwarove vypnuty koprocesor tedy dnestu FPU!!!!!. No a tim te donutili koupit si takzvany koprocesor (FPU) coz nebylo nic jineho nez normalni cpu ktery jsi uz v pocitaci mel akorat zase na nem bezelo akorat FPU a nic jineho. Takže klasicky ojeb na zakazniky.

+1
0
-1
Je komentář přínosný?

To ze je GPU nekolikanasobne vykonejsi nez CPU je jasny, jenze CPU je zase podstatne univerzalnejsi. Kazdej specializovanej chip je vykonejsi nez univerzalni. Ale jak sem rek, pocitat fyziku na karte ktera uz ted nestiha pocitat grafiku ... .

Vykon CPU je omezujici predevsim v nizsich rozlisenich, ale v nizsich rozlisenich mate vetsinou dost FPS na to aby ste poznali ze jich bude o 10 vic. Jakej je rozdil mezi tim, estli mate v 800x600 80 nebo 100fps ? Zadnej. No a ve vyssich rozlisenich (1600x1200) pro zmenu nestiha grafarna => jaksi uz nema dalsi vykon na fyziku, ceka na ni CPU.

Tudiz pridate fyzikalni kartu a CPU se namisto vypoctu fyziky muze venovat AI. Vykon samotnyho zobrazovani (fps) se nezmeni, ale muze se podstatne zlepsit fyzika i AI.

+1
0
-1
Je komentář přínosný?

J: Ty snad ani nechceš pochopit, že fyzikální výpočty by byly de facto prováděny v okamžicích, kdy GPU neprovádí rendering, protože čeká na výsledky CPU. Pokusil jsem se o hodně zjednodušený schéma (nebo spíš časovou přímku :-)
http://img456.imageshack.us/img456/9821/gppu3qq.png
Doufám, že je z něj dostatečně jasný, že fyzikální výpočty neuberou GPU prostředky, které by mohly být použity pro rendering, ale naopak budou realizovány v okamžiku, kdy GPU pouze čekalo.

+1
+1
-1
Je komentář přínosný?

No-X: ten obrázek je hezkej a názornej. Ale co když bude hra vytěžovat grafiku na 100%? To co se tady donekonečna opakuje je to, že dnešní karty se prakticky flákají... Čemuž já nevěřím, protože když si vezmu Athlon 64 4000+, 2GB paměti a co já vím (prostě šíleně nabitej stroj) a dám mu řekněme ATI X600 nebo i nižší a zapnu rozlišení na 1600x1200 s AA a bůhvíčím ještě tak i karta jako X600 bude mít místo na to aby počítala fyziku??? 
Aneb co tím chci říct? Chci tím říct to, že vždycky budou karty u kterých budu muset dělat kompromis mezi grafikou a fyzikou a nebo budu muset mít to nejlepší co na trhu. Proto se mi zdá lepší řešení speciální hardware ala PhisicX, kterej ulehčí procesoru, tudíž bude moct procesor více pouštět jak grafické kartě tak fyzické a tím pádem bude daleko efektivnější si koupit lacinější grafiku, kterou maximálně využiju a nebude v ní mařen výkon prostoji díky nedostatečnému zásobování daty z procesoru. Tak jako tak nechápu proč se dneska dělá SLI a Crossfire (kromě získání prvenství), když podle toho co tu říkáte se grafiky flákaj.
A ještě dotaz. Dokáže mi někdo dneska říct jakou grafickou kartu bych musel mít ze současných modelů včetně těch již starých aby byla maximálně vytížená s Athlonem 64 4000+??? Jenom doufám, že mi neřeknete že GeForce 2GTS... 

+1
0
-1
Je komentář přínosný?

Jsou zkratka lide kteri ti nikdy nepochopi (protoze nechteji)
Fan>> zkus se jeste jednou podivat na ten obrazek, ale poradne! A zamyslet se.. Nikdo nerek, ze se grafiky flakaji porad.. .. rozumeji nepretrzite..

+1
-1
-1
Je komentář přínosný?

Fan: Dobře, ještě jinak... Řekněme, že máme dvě hry. Jedna má velmi náročný fyzikální model a tudíž ji v současné době limituje CPU (např. HalfLife2). Druhá nemá tak náročný fyzikální model a limituje ji výkon grafické karty (plácnu F.E.A.R.). Tak.

Nejdřív vezmeme v úvahu ten HalfLife. Kvůli složitým fyzikálním výpočtům čeká grafika na CPU a jde přesně o tu situaci, kterou jsem znázornil na obrázku - tzn. když grafika bude místo prostojů počítat fyziku sama, povede to k navýšení výkonu.

Opačná situace je F.E.A.R. Grafická stránka je oproti fyzikálním výpočtům mnohem náročnější, takže limitem je výkon GPU. CPU můžeme použít 3000+ nebo 4500+, s FPS to nehne. Co to znamená? :-) Pouze to, že nemá smysl otázku akcelerace fyziky v téhle hře řešit, protože co je potřeba lépe akcelerovat není fyzika, ale grafika. A i kdyby se v tomhle případě použil samostatný fyzikální akcelerátor, nijak to nehne s výsledným FPS, protože brzda je jinde.

Když to shrneme, dostaneme se ke světobornému závěru: Fyzikální výpočty má smysl akcelerovat pouze když je to třeba :-))) Zní to sice naprosto samozřejmě, ale kdyby sis to uvědomil hned, nemohl bys dojít k závěru, že bude nutné dělat kompromisy mezi grafikou a fyzikou.

Takže naposled: když bude limitujícím faktorem fyzika a její výpočty se přesunou na GPU, zvýší se framerate (příklad halflife). Když bude limitujícím faktorem grafika, nemá cenu se vůbec o akceleraci fyziky pokoušet, protože by to vlastně byla magořina (asi jako kupovat si lepší zvukovou kartu, když chci, aby mi počítač rychleji komprimoval video)

Mě se taky nejdřív zdálo, že akcelerace fyziky na GPU bude konkurovat renderingu, ale když se nad tím trochu zamyslíš, tak skutečně nemusí. Bude ale třeba, aby to bylo dobře softwarově vyřešeno.

+1
0
-1
Je komentář přínosný?

Ano, já to chápu už od začátku. Jenže Ty pořád vycházíš ze stavu buď fyzika nebo grafika... Pokud se začne řešit nějaký nový režim ve hrách, kde hra bude závislá na fyzice (něco jako red faction), kde se bez fyziky nepohneš dál a bude to chtít i dobrou grafiku a za předpokladu že procesor sotva stíhá dodávat tak co udělá? Omezí grafiku na úkor fyziky, s tím, že to nepůjde hrát nebo na opak omezí grafiku (omezí rozumněj bude počítat sám, protože to karta prostě nebude stíhat)? Prostě si myslím, že specializovanej hardware na jedno a na druhý je lepší než dva v jednom. Tvůj názor je správnej dneska, protože to popisuješ na současných technologiích, kdy ve hrách se fyzika řeší jen málo (není počítána voda, laviny a co já vím co všechno). V současnosti si dokážu představit, že to grafika zvládne, ale v budoucnu, kdy by ve hrách měla být komplexní fyzika, která třeba bude větrem rozhýbávat palmy ve FarCry 7 a zároveň bude vítr pohánět mraky, které budou z částicových systémů a co já vím co všechno tak prostě to stíhat nebude. A nebo mám úplně zcestnej názor, že výpočty reálné fyziky jsou úplně banální ve srovnání s grafikou. Až bude grafika a fyzika zastoupena 1:1 tak si myslím, že druhej čip jen na fyziku (grafickej nebo Ageia nebo další jádra procesoru) bude nutnost. A myslete si o mě že jsem ignorant, ale tohle mi nikdo nevymluví. Každopádně s tím výkonem v současných hrách souhlasím, zvládne to i grafika...

+1
-2
-1
Je komentář přínosný?

Koukněte se na tohle, vyjádření Ageia...
http://games.tiscali.cz/news/news.asp?id=15827

+1
-1
-1
Je komentář přínosný?

PhysX je paradoxně až zbytečně výkonný. Dnešní fyzika nepotřebuje až takový výpočetní výkon (řekněme, že by stačil jednociferný násobek výkonu dnešních CPU) a co bude za pár let, nemůže nikdo tušit.

+1
-1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.