Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Počítání fyziky až příští rok, tvrdí ATI

"Nemá smysl uvádět na trh něco, co není stoprocentně stabilní a neposkytuje maximální dosažitelný výkon." To musi byt opravdu clovek, ktery presne vi, co se v ATI deje. Staci se napr. podivat uz jenom na jejich "stabilni a odlazeny" MMC (Multimedialni Centrum pro jejich tv tunnery). No proste k tyhle vete neni co dodat ...

+1
0
-1
Je komentář přínosný?

2Golem - moje řeč, to co mi doma předvádí MMC 9.13 je fialový hnus. už jenom ta debilita trvalého nahrávání bez možnosti vypnutí (ale zvítězil jsem, už mi to nenahrává), ale stejně to poletí pryč, stejně jako debilní control centrum - zlatý control panel, ještě, že tam jde nainstalovat z pětkové řady. A to nechcu vidět až to začne počítat fyzikální modely místo výpočtu osvětlení scény, na to bude asi další karta :-))

+1
0
-1
Je komentář přínosný?

Panove, je zasadni rozdil mezi zivotnim a vyvojovym cyklem SW a HW, zatimco oprava chyby v SW vyjde na "par" dolaru, chyba v HW muze vyjit na "par milionu" dolaru ... predpokladam, ze dotycny mluvil o HW ...

+1
0
-1
Je komentář přínosný?

Řekl bych že mají potíže, žeby při interleave výpočtech fyziky vykreslování grafiky tak nějak trhalo ? není možná :o) Stejně fyzika přez gafárnu řeší jenom kolize a to jenom na úrovní kvadrování prostoru, neřeší fine kolize které zase musí spočítat procesor a neřeší fyzikální simulace které jsou výpočetně nejnáročnějsí.

+1
0
-1
Je komentář přínosný?

2 Maglev: Vše co tu uvádíš že GPU z fyzikálních výpočtů neumí bude umět a ten rok na to prostě potřebují, aby vše implementovatoli. Jinak co se týče CPU vs. GPU ve srovnání výpočetního výkonu pro fyzikální výpočty, tak jsi na velkém omylu ... GPU je mnohonásobně rychlejší (masivní paralelysmus dělá přímo zázraky u těchto výpočtů!!!). Existují projekty pro využití dnešních GPU pro databázové nasazení, pro výpočet superPI, atp. a ve všem je GPU brutálně výkonější nežli nejlepší CPU od Intelu a AMD.

+1
0
-1
Je komentář přínosný?

ATI tudiz prenechava trh dominanci firmy Ageia nebot vetsina titulu s podporou PhysX je ohlasena na Q1-Q3 2007 ... cim dal tim vic si preji, aby par lidi z ATI letelo na dlazbu za jejich nesmyslna rozhodnuti

+1
0
-1
Je komentář přínosný?

Skutečně si myslíš, že Ageia bude něčemu dominovat? Akcelerace fyziky v současné podobě prostě nenabídne uživateli vyšší výkon a mírně zvýšená kvalita obrazu na úkor výrazného propadu výkonu v několika hrách není to pravé ořechové, za co by většina lidí byla ochotna dát přes 6000Kč. PhysX nemusí být hardwarově špatný (může/nemusí, to zatím nevíme), ale i v přípapdě, že by měl PhysX ještě výpočetní rezervy a nejel naplno, ho bude limitovat výkon CPU při nižším rozlišení/detailech a výkon grafické karty při vyšším rozlišení a detailech.

Současná situace rozhodně nevypadá na to, že by Ageia hodlala PhysX zlevnit na třetinu až čtvrtinu ceny, což by odpovídalo částce, kterou by byla většina uživatelů za kus hardwaru se zmíněnou mírou využitelnosti dát. Ageia má dobrý marketing, ale když každá další recenze jejich produkt znovu a znovu strhá, tak je to pak těžký.

+1
0
-1
Je komentář přínosný?

Chlapi nic proti inovacím HW. Akorát ty hry jsou čím dál víc o ničem, kdysi před 4 lety člověk neměl ani ½ titulů co dnes ale dobře se pobavil u skoro každé hry. Dnes jako by všichni dobří ?dramaturgové? umřeli a bavím se tak s bídou u jedné hry za rok. Zbytek je nudný tok děje, stereotyp a pár nových efektů to nevytrhne. Fabrika na technologické dema kde se akorát měří fps.

+1
0
-1
Je komentář přínosný?

No LOL??? Co trebas Oblivion? Ja zatim u toho stravil 102 hodin cisteho casu,a dalsi stovku stravim,podle me to je presne pripad skvele hry s pribehem a hratelnosti,ale zaroven brutalne narocne na HW.Mam Athlon 64/3700 a gf7900GT a pri 1280/1024 mi to mistama pada na 15fps...A pokud by takhle dobra hra mela podporu pro tuto kartu,klidne si ji koupim.....Nemyslim si,ze dnes nejsou dobre hry...spise je vice tech spatnych nez kdysi,clovek si musi vice vybirat,a to je cele

+1
0
-1
Je komentář přínosný?

----Macros @ 62.44.5.18 - včera, 30. června 2006, 10:01
2 Maglev: Vše co tu uvádíš že GPU z fyzikálních výpočtů neumí bude umět a ten rok na to prostě potřebují, aby vše implementovatoli. Jinak co se týče CPU vs. GPU ve srovnání výpočetního výkonu pro fyzikální výpočty, tak jsi na velkém omylu ... GPU je mnohonásobně rychlejší (masivní paralelysmus dělá přímo zázraky u těchto výpočtů!!!). Existují projekty pro využití dnešních GPU pro databázové nasazení, pro výpočet superPI, atp. a ve všem je GPU brutálně výkonější nežli nejlepší CPU od Intelu a AMD.----
Nebude umět, zjevně nevíš co jsou to fine výpočty. To jsou výpočty kolize s přesností která je potřeba u členitých objektů, toto prostě GPU dělat nebude, na postavičku vojáka by byla potřeba 3D bitová texelová mapa kolem 20000x20000x20000 pixelů tuto 3D mapu bys musel matematicky pomocí shaderů porovnat (zjištujěš kolizi) s mapou třeba druhého vojáčka, asi by celá GPU nedělala nic jiného než kolizi vojáčka ale ty potřebuješ aby počítala kolize všecho na scéně simulovala vykreslovala grafiku stínovala a já nevím co ještě. GPU je efektivní jenom pro zjišťování kvadrantové kolize na velkých prostrastvích ve velice hrubém rozlišení prostoru - rozděleného na čtverečky. Smiř se s tím, je to prostě vizuální procesor a vše je tomu podřízeno. Po velkém haló od managementu (který asi objevil a ihned "zneužil" nějaký experimentální projekt) asi někdo přišel od inženýrů a zjistilo jak se věci mají. Podle mě to dopadne tak že vyčkají Direct Fyziku a pak implementují co pude, ale moc toho nebude to si pište. GPU prostě není navrženo na výpočty s potřebnou přesností. Ani ten paralelní výkon není takový zázrak. Pro realistické rozlití kyble s vodou je potřeba kolem milionu komplexně simulovaných častic (jedna částice koliduje třeba s 500 sousedních a ty s dalšími.. za použití komplexní navier-stokesovy rovnice) když každá částice bude kvadrována dvěma pixely dostáváme mřížku 2x2x2mega=8mega + milion částic x 500 a to všechno prohnat složitou rovnicí minimálně 60x za sekundu. Pomocí GPU nenasimulujete věrně ani kýbl vody.

+1
0
-1
Je komentář přínosný?

to co vravis kludne moze byt pravda, ze to teraz v praxi nejde
ale chlapikom od ati ide skor o princip , lebo ta kolizia tych panakov sa tak ci tak musi zobrazit na grafike a nechapem naco by bola super phyxs karta zo zdvojenymi datami a nekonecnymi presunmi z a , ci vlastne ma napada ze nemam nic proti agei len sa moze ukazat ze ak by bol ten svab priamo na grafike pripadne sa cast jadra gpu upravi aby tomalo taky vykon tak nevidim dovod. ale samozrejme nehovorim tu o dacom co je pouzitelne teraz za rok abo za dva , skor je to hudba buducnosti

+1
0
-1
Je komentář přínosný?

Ti říkám že princip je hezká věc ale aby to bylo na grafice plnohodnotný vyžadovalo by to zásadní přepracování toho jak GPU funguje, prakticky by se pak jednalo o jiný HW, o fyzikální akcelerátor který by jen tam mimochodem uměl i grafiku. Fyzikální simulace jsou mimořádně náročnější na výpočetní sílu než prostá vizualizace nebo jednoduché hrátky s vrcholy a pixely. Problémem je přesnost výpočtu a množství vzájemných interakcí, potřebná výpočetní síla je někde úplně jinde. Ageia taky podporuje omezenou množinu simulací a počty částí, vše se bude vylepšovat s časem, pokud teda nezajde. Ale rozhodně si nemyslím že by cesta vedla wrapováním fyz. úloh na grafickou kartu. Omezená množina ?efektů? půjde přes GPU počítat o tom jsem už mluvil ale to bude všechno, pokud teda nedojde k zásadnímu přepracování hardware GPU (nepravděpodobné). Na druhou stranu si myslím že jakýkoliv počítatelný ?efekt? bude pořádně využit na HYPE fyziky na GPU pro zvýšení prodejů toho kterého výrobce a směrování prodeje na dražší modely GPU.

Zdvojená data ? Ano je to tak, jinak to nejde, při výpočtu například 3D zvukového pole taky dochází k vytváření dalších dat pro zvukovou kartu, jinak to totiž nejde. Než dostane grafická karta data k vykreslení nebo jinému zpracování taky musí hlavni procesor (CPU) nejdřív připravit ?nadbytečná? data. Jinak to zatím a ještě dlouho nepude. Tenhle způsob práce totiž přímo vyplývá z architektury PC Že se data z fuzikální karty ?vrací? zpět do ?procesu? je čistě z principu. To se děje i pokud fyziku počítá GPU viz dokumentace engine HAVOK.

+1
0
-1
Je komentář přínosný?

2 Maglev: ach jo ... ty jsi mě nepochopil. Neřešil jsem nějaké finepricision kolize, ale to, že v dnešní době je CPU na tento druh výpočtů mnohonásobně pomalejší nežli dnešní GPU. To je sice hezké, jak nám to tu popisuješ, ale nějak Ti unikla podstata diskuse: "malý výkon dnešních CPU oproti GPU".
Navíc jsi ani nepochopil princip těch fyzikálních výpočtů v podání ATI. To nebude vše dělat jedna karta, ale 1 až 2 karty s GPU budou dělat jenom grafiku a další jedna karta bude čistě jenom na fyzikální výpočty, takže v podání X1900XTX bude fyzikální engine disponovat brutální výpočetní silou, která je vůči dnešním CPU nesrovnatelně výkonnější. Takže jestli se někdy dočkáš té tvé finecollision tak mi věř, že to nepojede na CPU, ale na GPU nebo jiném speciálním čipu.

+1
0
-1
Je komentář přínosný?

Přečti si moje příspěvky ještě jednou a pomalu pak ti možná dojdou souvislosti, fine koleze MUSÍŠ počítat jinak by se jako kolize vyhodnotilo i to že jsou pajduláci půl metru od sebe, tato debata nemá smysl máte brainwashované hlavy ATI hypem, nemám vám to zazlý. (a že většina bude mít 2 a víc grafáren je taky dobrá sranda, hlavně pro výroce, ten musí blahem uchcávat) Jak jsem už dole naznačil jsou tady principiální rozpory že GPU může počítat jenom něco takže stejně potřebuješ pomalé CPU na tyto ?ostatní? výpočty (většinu). Dál jsem naznačil že výkon GPU není tak oslnivý jak se zdá a jak si kdekdo myslí a vyláme si zuby i na blbém kýblu s vodou. Ale je pravda že když se ?fyzika? přes GPU náležitě ?podá? dav to slupne a bude si chrochtat jak za stávající úrovně fyzikální (ne)detailnosti vše běží svižně. OMG

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.