Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Ageia uvolnila RealityMark

ja len tak:som zvedavy,dokedy to budeme mat ako samostatnu kartu(tak ako kedysi 3dfx 3d akcelerator) a kedy to uz bude beznou sucastou grafiky...
Mozno nas AMD&ATI group prekvapi.

+1
0
-1
Je komentář přínosný?

pokud se nemylim, tak uz i na czech netu byl test tohodle "akceleratoru" :-) dopadlo to tusim katastrofalne..bylo to jeste pomalejsi nez normal

+1
0
-1
Je komentář přínosný?

neo29: njn, když tím zasekají celou PCI sběrnici.. :-) LOL!

+1
0
-1
Je komentář přínosný?

neo029 - pomalejsi to bylo protoze PhysX vykreslovala mnohonasobne vetsi pocet polygonu a kolizi nez bezna graficka karta. To je jako bys porovnaval hru pri rozliseni 640x480 bez AntiAliasingu a 2048x1536 s AntiAliasingem - rozdil v rychlosti bude jasnej, ale kvalita uplne nekde jinde...

+1
0
-1
Je komentář přínosný?

Pote co Alan Wake predvedl krasnou fyziku na 2 a 4 jadrovych CPU (kde se 1(2) jadra pouzila dle nutnosti jen pro ni) ...
to vypada ze Ageia svoji sanci tezce prosvihla ...predrazeny produkt na zastarele sbernici s minimalni uzitnou podporou ...

+1
0
-1
Je komentář přínosný?

kolik zere ageia a kolik to ctyrjadro ? a dodava alenek k tomu ctyrjadru i SDK pro fyziku ?

+1
0
-1
Je komentář přínosný?

jimmy_cr: PhysX polygony nevykresluje, to je stále věcí grafické karty...

+1
0
-1
Je komentář přínosný?

"1,5GHz P4/Celeron nebo Athlon XP 2400+"
to jako jsou srovnatelné CPU, jo?

+1
0
-1
Je komentář přínosný?

no-X: ty si pako, tak uplne polopate - s Ageiou ta hra ma na scene vic polygonu protoze jsou v te hre zapnute efekty ktere tam bez Agei jinak vubec nejsou a za druhe, Ageia pocita kolize a dalsi propocty daleko presneji nez se vubec da prez procesor nebo grafarnu, to se projevi treba na tom ze kdyz strelis pajdulka a ten spadne nema hlavu napul ve stene.

+1
0
-1
Je komentář přínosný?

a na to si prisel kde :) ...
ta karta mi to to spocita uplne stejne jako GPU nebo CPU kdyz pouziji stejne API :) ...
PR recicky o rychlosti jsou jedna vec realita druha ... dale jde o cenu karty samotne a jeji rozsireni na trhu, navic nestastne pouhe PCI atd ...

+1
0
-1
Je komentář přínosný?

když benchmark vyrábí tatáž společnost jaká vyrábí i hardware který testuje, je na tom cosi podezřelého :-) ... ani zdaleka se to neblíží ve své důvěryhodnosti stavu který panuje na poli grafických karet kde jsou 3 relativně samostatné subjekty (kde dva si konkurují ve vývoji grafických karet a třetí jim dělá rozhodčího 3D markem)

+1
0
-1
Je komentář přínosný?

n: Než napíšeš další podobný nesmysl, zkus si o problematice zjistit něco víc, než co ti do hlavy natlouklo marketingové oddělení Ageii :-)

+1
0
-1
Je komentář přínosný?

n : To bylo dobry co jsi napsal no-xiovi.. Kdyz to vezmu tak ze je to clovek kterej tomu moc a moc rozumi a kazdy ho moc uznava.... a k tomu ze je tam vic polygonu je pekne.. ale stejne je porad a porad musi zobrazit GRAFICKA KARTA!!!! Takze Shame on YOU and have a nice DIE

+1
0
-1
Je komentář přínosný?

4 Dwarden > "ta karta mi to to spocita uplne stejne jako GPU nebo CPU kdyz pouziji stejne API"

Ještě jednou se nad tím raději zamysli. "API" je "rozhraní". Rozhraní pouze propojuje něco s něčím, řekněme například.... aplikaci kterou píšeš s nějakým rendererem. Ten může být softwarový, může to být grafický čip starý 8 let, může to být hypermoderní GPU se spoustou rolniček. Copak to asi znamená? Voila - to že použiješ stejné API nezaručuje, že to bude stejně rychlé a/nebo stejně kvalitní.

V případě fyziky to samozřejmě může být stejně. Pokud (vůbec) bude existovat dostupné jednotné api do různých míst vhodných k výpočtům, pak to zdaleka neznamená, že výsledky budou vždy stejné. Bude-li API jednou napojeno na hardwarový fyzikální akcelerátor a jednou na softwarovou emulaci, pak samozřejmě výsledky nemohu být stejné. Ano, možná někdo napíše modul, který to pojede v nevyužitém jádru CPU, nebo v GPU. Nebo také nenapíše, jsou to spekulace.

+1
0
-1
Je komentář přínosný?

4 from_CZ > Kecy. Já si -třeba- mohu klidně myslet, že tomu až tak moc nerozumí a rozhodně ho neuznávám. Co tak vidím, tak se v prvním příspěvku chytil podružné informace a v druhém už jen nesmyslně zaútočil, věcná argumentace = 0. Mimochodem, tvoje cool a in slogany jsou úsměvné. Stejně jako to, že jsi vůbec nepochopil, o čem psal "jimmy_cr" a "n".

Zkusme to tedy znovu. TEORETICKY (já neřeším konkrétně Ageiu) je možné dosáhnout pomocí vhodného fyzikálního akcelerátoru (až již jakkoli realizovaného) výrazný nárůst výkonu v oblasti výpočtů kolizí, interakcí objektů, možná třeba přírodních fenomén (sníh, déšť...), kdoví čeho všeho. Pokud tam ten akcelerátor nebude, bude to muset vypočítat CPU. Zcela logicky, pokud to samozřejmě nebude blokováno něčím jiným (velké transfery z a do akcelerátoru a pod.), bude schopen akcelerátor připravit výrazně kvalitnější podklady pro další zpracování a ... to bys neřekl ... pro vykreslení na grafické kartě. Příklad - vysypeme 50000 gumových kuliček na schodiště a budeme simulovat jejich pohyb, odrazy od schodů, stěn, sebe vzájemně. Pokud to budeme počítat méně výkonným "modulem", budou výsledná data o momentálních polohách zcela jiná, než v případě, že použijeme výkonnější fyzikální "modul". Všimni si, že se vyhýbám určení, co je rychlejší. Pokud tedy vykreslíme snímek v obou případech ve stejném okamžiku (např. pátá sekunda), budeme mít jiné obrazy. Pohyb na výkonnějším "fyzikálním akcelerátoru" ?? bude reálnější. Nic více, nic méně.

Pokud budeš trošku studovat teorii komplexity, velmi rychle se přesvědčíš, že simulace v oblasti mechaniky, chemických reakcí, nebo třeba i biologie vážně nejsou žádná legrace. Jde o tak komplexní problematiku, že výpočty běžným lineárním způsobem pomocí klasického CPU jsou naprosto mimo realitu.

+1
0
-1
Je komentář přínosný?

from_CZ: No vsak prave proto ze to musi nakonec zobrazit grafarna je to pomalejsi, to da rozum, kdyz je tam s tema efektama vic polygonu. boha jeho

+1
0
-1
Je komentář přínosný?

-pao-:To nevemou, dokud se sami nezacnou zajimat o to jak to doopravdy funguje, me by naprikad zajimalo jak treba takovej havok simuluje, protoze tusim ze nekolikrat konveruje data tak aby se mohla provadet na GPU (minimalne jedna konverze mezi api, jedna do dat pro gpu dalsi zpet a zase api tzn 4x zongling ktery celkove ubira systemove zdroje (na slabsich grafarnach tato fyz. simulace dle pozorovani solidne ubira vykon)) existuje nekde nejakej objektivni test ? (stejna uloha [treba to mracno kulicek na schodech] akorat jako FPU+CPUxy+GPU / GPUxy+CPU

+1
0
-1
Je komentář přínosný?

-pao-: To, co ty nazýváš podružnou informací, je základ. Ze strany marketingového oddělení Ageii proudí to, čemu se slušně říká informační asymetrie a v tomhle případě je účelově tlačena opravdu na úplnou hranu, kterou obyčejný uživatel není schopen rozeznat a informaci si už vyloží špatně - výhodně pro Ageiu. Krom toho, že pak šíří mylnou informaci, ještě dělá Ageie reklamu. Dokud si uživatelé neuvědomí, že PhysX žádným způsobem grafické kartě neulehčí a ta (ať s PhysXem nebo bez něj) dělá stále totéž, tak se nebudeme bavit o reálném přínosu, ale jen o marketingu. Fyzikální akcelerace v současné době postrádá smysl. Pokud vezmeme stejnou herní scénu zpracovanou s použitím PhysX a bez něj, tak nám to nepřináší žádné výhody, protože největší zátěž zůstává na CPU (generuje vertexy, pracuje s objekty, AI...) s tímhle PhysX nijak nepomůže, jen dojde k vyššímu zatížení systémové sběrnice. Rozdíl ve výkonu je mizivý, fyzika není to, co by CPU vytěžovalo nejvíce. Pokud zvolíme druhou možnost - tedy tu, kterou vybrala Ageia (při použití PhysXu je objektů více - Ageia díky tomu může argumentovat tím, že ačkoli nejde výkon nahoru, tak kvalita obrazu ano), zvyšujeme tím nároky na CPU, protože to musí generovat více vertexů, vzroste i množství objektů, tím se ještě více zatěžují systémové sběrnice, výkon jde dolů. PhysX (pokud budeme věřit Ageie, co se týká jeho výkonu) je ovšem prakticky nevytížený, protože čeká na CPU a na druhé straně na GPU, které musí vykreslit i tyto objekty navíc, což znamená nižší výkon. Současný systém CPU->GPU není vůbec vhodný pro akceleraci fyziky na nějaké další přídavné kartě, která spíš naruší tok dat mezi nimi. Současný PhysX není nic, než módní výstřelek. Akcelerace zajisté smysl má, ale pod slovem akcelerace by si člocěk představoval vyšší výkon a to jaksi karta do PCI (z uvedných důvodů) přinést nemůže a ani nepřináší (pár dem zasponzorovaných Ageiou neberu). Smysl by mělo, kdyby byl fyzikální akcelerátor integrovaný buďto v CPU, nebo v GPU, aby odpadla alespoň polovina přenosů po sběrnici a především, aby byla celková SW/HW integrace na lepší úrovni, protože takhle to spíš narušuje celý proces vzniku 3D scény... btw. zajímalo by mě, jak to bude fungovat, až se začne GPU používat ke generování vertexů, což už by mělo být možné v SM4.0. Jak bude PhysX počítat kolize objektů, jejichž tvar nezná? Nebo se vygenerovaný vrchol pošle z GPU přes PEG-16x přes NB přes SB přes PCI po PhysXu, který provede detekci kolize s jiným objektem, a pak se data pošlou zpět, tedy PhysX->PCI->SB->NB->PEG->GPU? No, nevím... PhysX za rok své existence nedokázal, že by byl skutečným přínosem a pokud si člověk radši vynaložené peníze přidá na CPU nebo GPU, bude to mít větší přínos.

Pokud jsi očekával technologickou diskuzi, pak se omlouvám za ztracený čas, ale podle mě je zbytečné pitvat detaily něčeho, co je už z principu nepoužitelné.

+1
0
-1
Je komentář přínosný?

no-X:A jak si myslíš že to s tím "spomalováním" systému funguje s havokem který je akcelerovaný přez GPU ? úplně stejně ps:že je PCI vytěžována FPU vůbec nevadí, většina lidí v PCI slotech stejně nic nemá (možná až na zvukovku ale ta nevyžaduje široké pásmo).

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.