Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k ATI demonstrovala počítání zvukových efektů pomocí GPU

Počítání zvukových efektů vidím reálně zejména po nasazení unifikovaných shaderů. Myslím že toho bude mnohem víc, co půjde počítat efektivněji na streamové architektuře než na univerzálním CPU. Mimochodem celkem zajímavá spojitost s přechodem DDR->DDR2. DDR2 je výhodnější zejména pro streamované výpočty pomocí SSE. Tyto výpočty jdou(a půjdou ještě lépe po příchodu unifikovaných shaderů) přesunout na GPU. Na CPU tak zůstanou zejména aplikace, které mají mnohem náhodnější přístup k paměti a jsou tedy citlivé na latence. Na druhou strane zase nové architektury Core2 a K8L budou mít mnohem výkonější SSE, takže se nechám ještě překvapit.

+1
0
-1
Je komentář přínosný?

To už se zase rovnou může spojit zvuk.+graf. karta na jednu kartu co bude zajišťovat grafico hudební (zvukové) operace.

+1
0
-1
Je komentář přínosný?

hmmm, ako tak citam, to G v GPU uz teda asi ani neznamena graphic :) btw, budem moct vyuzit DSP vo svojej zvukovke vyuzit na pocitanie shaderov ci fyziky? keby sa v tom case grafika nudila, moze si vypocitat nejaky ten reverb...

+1
0
-1
Je komentář přínosný?

gashatan: GPU bude časem jenom historický označení pro steamovací koprocesor :)

+1
0
-1
Je komentář přínosný?

bych to nazval Game Processing Unit a je to :o))

+1
0
-1
Je komentář přínosný?

Heh, nebyl bych z toho az tak unesenej, si vemte ze sposuta games je v soucasnoti napsana tak prasecky, ze s maximalnim nastavenim si je nezahrajete ani na nejvykonejsim HW pristi generace. Takze kdyz tomu vykonu jeste uberete pocitanim zvuku ....

+1
0
-1
Je komentář přínosný?

J: nebral by som to tak negativne, onedlho aj sietove karty zvladnu akceleraciu zvukovych efektov a este aj grafike dopomozu, pokial nebudes hrat online :)

+1
0
-1
Je komentář přínosný?

jo! dnesni dychavicne, nevykonne a vubec jinak retardovane procesory potrebujou vyuzivat jako filtr typu ekvalizer GPU, pak konecne bude hra DOOM plynula...

+1
0
-1
Je komentář přínosný?

MildaIV  >> graficke a zvukove udaje maju charakter streamovaneho materialu? Teda jasne ze hej, ale je aj datovy tok v pocitaci takeho chrakteru? Ked uz vsade ten stream spominas. BTW s SSE to je fakt zaujimave, ale asi sa vobec neoplati presuvat tieto instrukcie mimo CPU, pretoze CORE2 bude schopne vykonat jednu takuto instrukciu v jednom takte a ak CPU bezi na 2500MHz, je to oproti 700MHz GPU kua rozdiel.

+1
0
-1
Je komentář přínosný?

Igi: GPU s 64 unifikovanými shadery udělá (v ideálním případě) 64 SSE instrukcí v jednom taktě. Myslím, že Core2 Duo udělá 4. To by muselo běžet na 16*700MHz, tedy na 11.2 GHz.

+1
0
-1
Je komentář přínosný?

re: MildaIV
Nepocitaju shadery u sucasnych GPU s presnostou 32bit? Conroe zvladne v s 32bit presnostou spracovat v jednom cykle 4hodnoty v kazdej SSE jednotke, taketo jednotky ma 3, to je 12 za takt a ked uvazis ze TOP verzia ma bezat na frekvencii(3,3GHz) 5x vyssej ako HI-END grafiky tak tak si skoro na tych istych cislach ako dosiahnes s GPU, ale pri tom mas polovicnu spotrebu energie.

+1
0
-1
Je komentář přínosný?

ASD: Také musí být s čím počítat a propustnost pamětí na grafice je výrazně větší než na CPU a jen tak se to nezmění. CPU je od pamětí moc daleko. Takže i při stejném výkonu vlastního CPU a GPU, bude pravděpodobně GPU celkově výkonější.

+1
0
-1
Je komentář přínosný?

Universal audio uz dlouhodobe "tezi" vykon ze stary graficky karty a behaj na tom jedny z momentalne nejlepsich DSP procesu... no akorat uz je to x let stary a prestoze to staci, tak by to uz chtelo trochu vic vykonu. Viz. www.uaudio.com

+1
0
-1
Je komentář přínosný?

ASD: A proč vůbec máme grafický karty? vždyť většina dnešních her je limitovaná právě grafikou. Když je podle tebe CPU5x výkonnější, tak by na něm musel jet v poodě doom3 s 200fps

+1
0
-1
Je komentář přínosný?

Pravdu ohledně výkonnosti CPU a GPU máte všichni, ale jen tak napůl. CPU má větší výkon v jednovláknových operacích, tj. těch které není možné provádět paralelně. Dnešní GPU obsahují několik desítek výpočetních jednotek (shaderů), díky kterým celkový výkon GPU (i přes to že má nižší takt) je daleko vyšší než u CPU. GPU jsou také optimalizovány pro provádění složitých operací s obrazem.

+1
0
-1
Je komentář přínosný?

2Jimmy
Ale tu nejde o to, ze by som chcel GPU nahradzat CPU, ale o to ze nechat grafickej karte pocitat SIMD vypocty urcene pre CPU nie je az tak idealne, aj ked je GPU o nieco rychlejsia, musel by si casto pristupovat do RAM(nie do tej na karte) a casto komunikovat s CPU, dalsie vec je, ze SSE jednotky na Conroe naplno vytazil len sinteticky test, realne aplykacie ich na plno nevyuzili.

+1
0
-1
Je komentář přínosný?

re: pavel
Doporucujem ti este raz si prejst prvu triedu, aby ta uz konecne naucili citat a ak sa im to podari tak si skus este raz precitat moj prispevok a prispevok na ktory som ragoval.

+1
0
-1
Je komentář přínosný?

ASD: Jeden shader udela jednou instrukci 4 32bitovy operace stejne jako SSE jednotka v CPU. Nektery shadery udelaji navic paraelne jeste jednu skalarni 32 bitovu operaci, takze dohromady jich udelaji 5.

+1
0
-1
Je komentář přínosný?

ASD: No stejně, psal si, že se výkon bude skoro rovnat GPU. Což je blbost. Výkon GPU ve floating point operacích je prostě řádově vyšší než CPU. Zatímco výkon GPU se počítá ve stovkách Gflops, výkon CPU nedosahuje obvykle ani tý jedný desítky. A ani to vyhypovaný Conroe nebude tak drasticky výkonnější.

+1
0
-1
Je komentář přínosný?

2MildaIV&pavel
Cela moja argumentacia je bezpredmetna(pozabudol som na fakt, ze GPU pocita s desatinnou ciarkou a aj na to, ze na kazdom shaderi sa roby vypocet pre 4 32b zlozky), lebo Conroe dosahuje najvysii vykon pre SIMD s celimi cislami, s floating point to az taky zazrak nie je. Ale aj tak vyuzitie SIMD u desktopovych aplykacii nie je ani zdaleka na takej urovni, aby sa oplatio presuvat vupocet na GPU.

+1
0
-1
Je komentář přínosný?

ASD: No a jde o to, že pro zvuk se nejlíp hodí právě desetinná čárka. Dá se počítat i celočíselně, ale mam za to, že to neni tak obvyklý případ.

+1
0
-1
Je komentář přínosný?

matous: na www.uaudio.com som nenasiel ani zmienku o tom, ze by vyuzivali GPU grafickej karty... co si fajcil?

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.