Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Nvidia ohlásila PhysX pro Xbox One. Co to vlastně znamená?

za chvili se tu objevi Samancz a vysvětli ti, jak to s tím physX vlastně je a jak se krutě mýlíš :)

+1
0
-1
Je komentář přínosný?

No tak ono je to vcelku jednoduché a zůstane to stejně jako tomu bylo dodnes čili nemáš gpu nvidie = nemáš gpu akceleraci physx. Samozřejmě v nových konzolích tepe uberbrutalhypervýkonné amdéčko, které dává physx levou zadní přes cpu, né? :)

+1
0
-1
Je komentář přínosný?

Vždyť PhysX byl využíván i v XBoxu 360, jen k výpočtům byl použit procesor. Proč by tomu teď mělo být jinak?

+1
0
-1
Je komentář přínosný?

a co bych jako komu mel vysvetlovat, to ze se PhysX predelaval pod jine API aby mohl bezet vpodstate na cemkoliv je celkem stara zprava

no-X z toho dela jen z kontextu vytrzenej gulas, micha dohromady GPU-PhysX s CPU-PhysX, respektive vubec je nerozlisuje, a jeste napise takovou uzasnou hovadinu jako ze Bullet patri k dobrym fyzikam, zatrest bych mu naordinoval pobyt v mistnosti s PC na kterem by musel resit problemy s Bulletem a dokud by nevyresil alespon zakladni problemy, tak by nesmel ven, myslym ze by ho hodne rychle preslo nekde psat jak je Bullet dobrou fyzikou :)) typuju to na max tyden a pak sebevrazdu

+1
0
-1
Je komentář přínosný?

až na to, že ten článek psal David Ježek :)

+1
+2
-1
Je komentář přínosný?

ajo, tak to se timto no-X omlouvam

z faktyckeho hlediska v tom clanku neni nic zajimaveho a spise bych to vydal jako nazor autora nekde na blogu :)

+1
0
-1
Je komentář přínosný?

Nebyl to no-X, ale Ježkovi oči ;)

+1
0
-1
Je komentář přínosný?

PhysX, NoX, však ono se to plete :o)

+1
0
-1
Je komentář přínosný?

A to ani nehovorím o tom, že zatiaľ posledný oficiálny release Bulletu je pomalší ako PhysX SDK 2.8.

http://www.codercorner.com/blog/?p=748

+1
0
-1
Je komentář přínosný?

Pričom táto verzia PhysXu je stará pár rokov a je to práve tá, na ktorú sa zniesla spŕška kritiky za nepoužívanie SSE inštrukcií a zlej optimalizácii na CPU. Nikoho vtedy nenapadlo ho porovnať s ostatnými fyzikálnymi API u ktorých sa dobrý performance predpokladal autoamticky. :-)

+1
0
-1
Je komentář přínosný?
+1
0
-1
Je komentář přínosný?

Co vim tak nvidia nikdyz nezastirala ze physx bezi na vsech cpu. Pokud by tvrdila opak tak by nikdy nedonutila vyvojare to pouzivat (kdo by se dobrovolne pripravil o polovinu potencionalnich zakazniku). Pak zalezi kolik vykonu cpu zbyde po tom co se spotrebuje cast na physx. Ale o tom zprava nic nerika, ta jen oznamuje znamou vec, takze je to jen tiskova zprava o nicem.

+1
0
-1
Je komentář přínosný?

Já bych jen připomenul, že Ageia PPU mělo smysl někdy v době, kdy bylo uvedeno (tehdy byl průměrný PC AMD Athlon XP okolo 1,4GHz nebo první Pentium4 procesory (pokud mě pamět neklame) a grafiky fungovaly ještě na AGP a rozhodně se nejednalo o karty schopné takových výpočtů.

Na druhou stranu, optimalizované (herní) fyzikální výpočty zvládaly už tehdy CPU lépe, a to bez zátěže/latence PCI sběrnice (viz třeba HL2). Takže už tehdy se PPU profilovala jako reálný fyzikální engine - problém byl v tom, že zbytek PC na to nebyl připraven. A dnes, když už zbytek PC tyhle "reálfyzické" výpočty podporovat může, tak už jsou k dispozici řádově výkonnější počítačové komponenty.

+1
0
-1
Je komentář přínosný?

Tak fyziku zvládala pokud vím i stařičká 9700pro ;-) a Ageia se objevila pokud vím později, respektive reálný produkt v podobě karty... takže schopný HW na to byl (ta 9700pro), jen je pravda že na to neměl výkon ;-))

+1
0
-1
Je komentář přínosný?

Nemuzu si pomoct, ale kdyz vidim "Xbox One" premyslim co o te prvni konzole zase pisou, kdyz na trh ma prijit verze treti. Xbox-720 je mnohem vystiznejsi.

+1
0
-1
Je komentář přínosný?

Pořád je to o chlup lepší, než ta novodobá manýra vydat hafonáctý produkt z určité série a po pravidelném značení čísly, rokem nebo podtitulem, onen nový kousek neznačit nijak, jen základním názvem.

+1
0
-1
Je komentář přínosný?

"...PhysX byl, je a bude používán jako součást marketingové strategie, tedy že bude uměle degradován tam, kde Nvidia neprodala žádný čip (PC sestavy s Radeony), ale tam, kde je pro Nvidii výhodné jej prosazovat (PS3), tento problém nebude."

U PS3 to bylo tak, že nV vydala speciální SDK pro Cell (nikoliv pro G70 based GPU), která Cell využívala do jisté míry podobně jako Agaiu (PPU > vyčleněná pipeline do SPU v Cellu).

Toliko k "lhavé" nVidii, která by v roce 2010 něco podobného nevypustila z úst (vypustila to totiž mnohem dříve).

+1
0
-1
Je komentář přínosný?

Ještě doplním link http://techreport.com/news/9619/ageia-to-ship-cell-optimized-physx-sdk-f...

Troufnu si tvrdit, že je to stejné i u toho Nintenda (ale nechce se mi to hledat, to by snad mohl udělat pan redaktor Ježek a článek aktualizovat ;)

+1
0
-1
Je komentář přínosný?

A ještě si dovolím poznámku k poslednímu odstavci (nVidia to chytla za špatný konec, slepá větev apod. výlevy): PhysX je podle všeho nejrozšířenější fyzikální prostředí, používá jej nejvíce her a zařízení. To jsou paradoxy, co?

+1
0
-1
Je komentář přínosný?

Hodils tam link do roku 2006. V té době to nemělo s nVidia moc společného. Nvidia SDK pro PS3 "znovu vydala" až v roce 2009 (i s těmi bláboly okolo). Že se jednalo o sdk pro cpu a nikoliv pro gpu je snad jasné (G70 - neunifikované shadery)

+1
0
-1
Je komentář přínosný?

Agaia Vopajšlíková :)

+1
0
-1
Je komentář přínosný?

PhysX je jen marketingová značka. Vždy kdyby Nvidia chtěla mohla jet na všech kartách.
Kdyby nvidia netrvala na divné exklusivitě, mohla v případě PC u dx11 karet zavést obecnou podporu skrze Compute Shaders tzn model 5.0.
Stejně tak není problém aby PhysX jela pomocí openCL.
Jenže NVIDIA tlačila cudu, tak vlastně obešla výpočetní část DX11 a SM 5,0 , aby zachovala tlak na využívání CUDA. Nebo se alespoň o to opticky snažila i když PhysX akcelerovanou pomocí compute shaders dávno měla hotovou.
Ani na konzolích nových se nebude hodit CPU na různe fyzikální partikolové hrátky. Na to je vždy lepší PPU. Většina efektů co je kvidění u PhysX jde namastit i pomocí shaderů SM3.0 je to pracnější a i krkolomější ale jde to - hlavně díky malým rozdílům v implementaci na AMD vs NVIDIA.
Na druhou stranu herní funkční fyziku je lepší řešit vždy na CPU. Zatím určitě, protože CPU stále doláže zacílit výkon lépe a efektivněji. Cele PPU ve hrách je vlastně jen brutální plejtvání výkonem GPU. Prostě výkon tam je tak šup tam s ním.

+1
0
-1
Je komentář přínosný?

No tak zase na druhou stranu je vidět, že si je i AMD vědoma fyzikálního potenciálu (TressFX), ale že by na tom optimalizace byla v případě OpenCL lépe se rozhodně říct nedá

+1
0
-1
Je komentář přínosný?

Tak jak to vypadá a jak to žere to je vyloženě PR featura. Nevím jak je to s optimalizací pro openCL ale objektivně není důvod aby to nejelo stejně. Ať se to udělá v openCL, CUDA + PhysX, nebo compute shaders.
Obrovská kvanta kuliček propojenejch do vlasů, kolidujících mezi sebou a objekty z okolí + nějaký externí vlivy jako větřík. Aby to vypadalo reálně, tak by jich tam muselo být 50x tolik, ale to by ta karta nedělala nic jinýho a ještě by to nestačilo.
To nic proti TressFX, prostě dobrej pokus, ale určitě je to víc PR než technologie. U těch her je to vždy těžký rozeznat. PR u her je vždy velkohubý.

+1
0
-1
Je komentář přínosný?

Jj, klasika - PhysX sux protože nVidie a když vylezlo TressFX tak najednou, zcela jistě omylem, nVidie nedostala kód pro optimalizaci. Ve finále jedna chlupatá tykev = 30% výkonu dolu, ale protože to nebyl jen PR tak si nikdo z diitu nedovolil kritizovat (natožpak tak jako v dobách batmana).

Pokud mě paměť neklame tak pár testů PhysX vs OpenCL se objevilo, ale stejně byla CUDA rychlejší. Úplně stejně to dopadlo i v porovnání PhysX vs Bullet, který (jako napotvoru) vycházel nejpomaleji. Ostatně na physxinfo.com se dají ty testy zcela jistě dohledat ;)

+1
0
-1
Je komentář přínosný?

No ještě aby bylo CUDA pomalejší než OpenCl, když má nativní přístup k HW :)

PS: TressFx byl napsán pod DC a nikoliv pod OpenCl.

+1
0
-1
Je komentář přínosný?

Co si tu stěžujete na to, že nVidia nedostala kód k optimalizaci, když Radeonům i GeForce zapnutí TressFX ubírá na výkonu v podstatě stejně. Spíše jsou na tom Radeony o trošičku hůř.

http://diit.cz/clanek/tressfx-vlasy-pro-tomb-raider-2013-potrebny-vykon

Zapnutí TressFX a prodpad FPS na GeForce: medián 28% (průměr 29,59%).
Zapnutí TressFX a prodpad FPS na Radeonu: medián 33% (průměr 32,94%).

Pořád brečíte na tím, že to je jen PR ze strany AMD, tak co jsou potom uzavřené technologie od nVidie?
TressFX, které vytvořilo AMD lze spustit na všem co podporuje DC. Takže i na té vaší ukřivděné nVidii nebo i Intelu.

+1
0
-1
Je komentář přínosný?

http://www.hardocp.com/news/2013/03/05/nvidia_gpu_performance_issues_in_...
http://www.neogaf.com/forum/showpost.php?p=49051185&postcount=927
https://forums.geforce.com/default/topic/533493/geforce-drivers/nvidia-p...

Ad brečení: Právě, že v dobách příchodu PhysX brečeli majitelé AMD karet. V podstatě jakákoliv hra se samolepkou PhysX byla označena za PR nVidie, každá byla automaticky schválně zmršená aby běhala na AMD kartách pomalu, každý objekt v rámci PhysX byl zbytečný, ošklivý, nereálný až přímo škodlivý. Mě osobně fyzika nijak neomezila, v prvních hrách (Mirrors Edge) jsem o tom prakticky ani nevěděl, hra supr, ale podle diskutérů uměle zmršená. Batman to samý, ovšem z "jenom lítacích papírků" se vyklubalo na první pohled znatelné vylepšení particle efektů. Teď třeba v Hawkenu už je to znát hodně - nedivil bych se kdyby si úlomky od střel hardcore hráči vypínali podobně jako třeba textury u Quaka - shodou okolností zrovna při nástupu textur bylo nutné řádně kartu zaplatit (Voodoo, Matroxy, S3, Intely - nV a ATI radši vynechám :) a že by se hromadně pomlouvala ta či ona značka kvůli tomu, že chtěla Glide nebo DX jsem vážně nezaznamenal. Teď když je v nástupu fyzika a má přístup na net každý druhý pako aby se člověk bál říct že se mu líbí SHIFT (cpu physx) :(

O "mojí" nVidii vůbec nejde, počítačů mám vícero včetně AMD ;)

+1
0
-1
Je komentář přínosný?

Mícháte hrušky a jablka.

Ty uvedené odkazy vám nikdo nebere. Ale nVidia si v nich stěžuje jak stará Blažková. Sama se chovala o mnoho hůř a bylo velmi mnoho her, na kterých nVidia spolupracovala se studii a Ati je viděla v podstatě až po vydání a potom minimálně tři měsíce a více tvořila ovladače. Některé hry byly natolik "zprasené", že se Ati highend ani po půl roce nechytal na mainstream nVidie.
A vámi uvedený příklad Mirrors Edge, byl krásný příklad protěžování PhysX. Viz dvě citace z jednoho známého českého webu:

"Věci se začnou dít, až rozšířenou fyziku pomocí PhysX On zapnete. Jakákoli grafická karta, která nemůže akcelerovat PhysX, se dostane pod hranici plynulosti, procesor komplexní PhysX prostě nestíhá. Nejde o pomalost Radeonu (viz výsledek přetaktované GeForce GTX 260 s vypnutou GPU PhysX v ovladačích), ale o to, že PhysX je záležitostí karet nVidia GeForce."

"Graf potvrzuje, že v místech s nejnáročnější PhysX vás z bryndy nevytáhne ani na 3,6 GHz (či na 3,78 GHz, uvážíme-li Turbo Boost) přetaktovaný procesor Core i7. Kdyby PhysX dokázala využívat více než jedno jádro CPU, určitě by to bylo lepší, zda však na úrovni naprosté plynulosti jako s GPU, to nevím (dle minima spíše ne)."

Takže PhysX běžel POUZE na nVidiích. (Ani i7 ho nestíhala. Jak dobře/špatně byl PhysX pro CPU optimalizován je otázkou. Dohadů i rozborů je z té doby na netu dost).
Teď bude dle prohlášení nVidie na lowendovém úsporném procesoru (Jaguar) běhat PhysX jak zpraku. (Samozřejmě beru v potaz, že velkou část udělá optimalizace pro konkrétní 8C Jaguar). Ale v dobách Mirrors Edge asi ta optimalizace PhysX pro CPU opravdu nebyla optimální :)) Tehdejší i7 výkonnostně určitě s přehledem zašlape dnešní Jaguar do země.

A těď přichází ten velký rozdíl mezi nVidií a AMD. TressFX běhá na VŠEM co podporuje DirectCompute. Už chápete, proč srovnáváte hrušky a jablka? A proč v případě TressFX je srovnání s PhysX mimo mísu?

+1
0
-1
Je komentář přínosný?

"Teď bude dle prohlášení nVidie na lowendovém úsporném procesoru (Jaguar) běhat PhysX jak zpraku."

Nesmysl. Stejne behala i na PS3 a X360. Samozrejme pouze nepatrna cast moznych efektu, predevsim kolize a zakladni destrukce, apex a pod. Jestli si nekdo mysli, ze na PS4 budou fyzikalni efekty stejne mocne jako na hw physx, jen kvuli vicejadrovemu cpu, ktere melo ps3 davno, tak je naprosty blazen. Nic se nezmeni, bude to vypadat stejne jako doposud, jen o maly evolucni krok lepe.

Co se tyce physx pres opencl nebo computeshaders, kazdy kdo v tom dela ti potvrdi, ze vzhledem k rozdilu architektur amd a nvidie nelze napsat univerzalne vykonny kod. Cili nvidia by vyvijela physx rovnou dvakrat. Za svy prachy by se zbavila konkurencni vyhody. Jen kvuli amd fanum. Tak jiste :))) ,.I.. if u know what i mean.

+1
0
-1
Je komentář přínosný?

Nepochopil jste můj komentář. Přečtěte si ho laskavě ještě jednou v kontextu celého vlákna. Nikde jsem netvrdil, že výpočty PhysX CPU jsou stejně náročné jako PhysX GPU.

"Teď bude dle prohlášení nVidie na lowendovém úsporném procesoru (Jaguar) běhat PhysX jak zpraku." Bylo to vztaženo na 8C Jaguar vs i7 (takže prosím nevytrhávat z kontextu). Nebyla zde totiž žádná volba "méně náročný PhysX jen pro CPU". Ke všemu PhysX využívalo je jedno procesorové jádro i když ostatní jádra nebyla vytížena. Buď jste měl odpovídající grafiku od nV a vše vám běhalo naplno nebo jste musel PhysX vypnout.

Richmond zde tvrdil, že AMD využívá TressFX jako PR nástroj, stejně jako nVidia PhysX v době Mirros Edge a Batman.
S tím jsem nesouhlasil. Je zde zásadní rozdíl, že TressFX spustíte na VŠEM co podporuje DirecCompute, takže i na strojích s grafikou od konkurence.

Proto tvrdím, že TressFX není používáno jako PR nástroj jako bylo používáno PhysX.

+1
0
-1
Je komentář přínosný?

Zkusme to trochu jinak.

TressFX = VŠECHNO, překlad: omezeno na VŠEM CO PODPORUJE DC
- PC

PhysX = VŠECHNO, překlad: omezeno, GPU nVidie VÝHODOU
- PC
- Mac
- XBOX
- Playstation

Mrkni na physxinfo.com a podívej se kolik té fyziky dostaneš na cpu a kolik na gpu. Možná budeš překvapen, že drtivou většinu tvoří fyzika přes cpu. Troufám si proto tvrdit, že physx využívá majoritní většina hráčů bez toho aby měla grafiku od nvidie.

Opravdu není hlásání TressFX na "všech" kartách PR? Co na to říkají všichni co mají jakékoliv CPU, ale zároveň nemají graf. kartu?

+1
0
-1
Je komentář přínosný?

To co jste předvedl tímto příspěvkem je jen odbíhání od tématu. Takže nic zkoušet jinak nebudu. Váš příspěvek (Richmond 24.05.2013 - 13:48) mluví jasně:

"Jj, klasika - PhysX sux protože nVidie a když vylezlo TressFX tak najednou, zcela jistě omylem, nVidie nedostala kód pro optimalizaci. Ve finále jedna chlupatá tykev = 30% výkonu dolu, ale protože to nebyl jen PR tak si nikdo z diitu nedovolil kritizovat (natožpak tak jako v dobách batmana)."

Optimalizace - odpověděl jsem vám a váš názor vyvrátil (menší propady u nV).
Kritika diit jako v dobách Batmana - nesmyl v kontextu vašeho příspěvku, když TressFX běhá i na konkurenčních řešeních.

"Opravdu není hlásání TressFX na "všech" kartách PR? Co na to říkají všichni co mají jakékoliv CPU, ale zároveň nemají graf. kartu?"

Co si pod tím mám představit? Počítač s grafickou kartou bez DC, na kterém by jste chtěl spustit TressFX? Karty bez DC by si výkonnostně ani neškrtli. Tady jde o výkon. A to výkon grafické karty (a ne o příslušnost čipu k té či oné značce). Když máte dostatečný výkon, tak už i máte grafickou kartu, která podporuje požadované standardy Microsoftu.
A nemá cenu předpokládat, že by to utáhl procesor, když mnohem, ale mnohem výkonnějším grafikám to způsobí 30% pokles FPS.

+1
0
-1
Je komentář přínosný?

Tak jo, použiju vaší větu...
Počítač s grafickou kartou bez CUDA, na kterém by jste chtěl spustit PhysX? Karty bez CUDA by si výkonnostně ani neškrtli.

Už to chápete? Snažíte se tu celou dobu vyvolat dojem jak je TressFX univerzální a ono to ve finále běží jen na pc s adekvátně vybavenou vga a ještě to uzemníte hláškou jak tu najednou jde o výkon, výkon grafické karty. No teď už tu chybí jenom napsat jak je ta rychlá karta od AMD protože na titanu je propad na brutálních 14fps. Jako hloupej honza z plzně :D

+1
0
-1
Je komentář přínosný?

Jste ztracený případ.

Nikde jsem neuvedl, že je TressFX univerzální a ani jsem nepoukazoval na to, že by mohl jet na něčem jiném než současném grafickém highendu od obou výrobců grafický čipů.

V každém příspěvku jsem uvedl, že to podporují grafiky s DirectCompute, což není standard ani AMD ani nV, ale Microsoftu.

Až spustíte bez nějaké speciální úpravy na Radeonech PhysX GPU, tak jak jde TressFX na GeForce od nV (sice s krvavými nároky, to nepopírám), tak se vraťte diskutovat. Možná potom pochopíte pointu.

+1
0
-1
Je komentář přínosný?

Jak to že ne? Vždyť stále vychvalujete jak TressFX jede i na nVidiích.

O to se nepřu, chraň bůh. Ono je taky krásně vidět jak se ten MS "standart" nedá rozběhat na Xboxu :)

Nechápu proč bych měl chtít physx na AMD, ještě k tomu na starém physx (staré ovladače jdou na radeony nainstalovat). To je logika jako kdybych si na odvoz suti koupil kabriolet. Jasně, něco odvezu, sice málo, zasviním to, zabiju s tím x krát víc času, ale tak hlavně, že to nějak odvezu. Nejlíp ještě zkratkou - je to sice horší, ale o to delší cesta, že?

+1
0
-1
Je komentář přínosný?

"Nechápu proč bych měl chtít physx na AMD, ještě k tomu na starém physx (staré ovladače jdou na radeony nainstalovat)."

To je ten důvod! Na rozdíl od TressFX to s PhysX GPU ani oficiálně nejde!

U TressFX nemusíte dělat žádné obcházení umělých restrikcí ze strany jednoho výrobce. NV dokonce v novějších verzích ovladačů blokuje záměrně PhysX, když zjistí že je v systému Radeon pro obraz a Geforce pro PhysX.

Dělá vám tohle AMD u Geforce v Tomb Raidru?? Ne! Jen jim klesne výkon stejně jako klesne výkon Radonům. Oběma to vezme kolem 30%.

+1
0
-1
Je komentář přínosný?

Ježiš ty jedeš jak kolovrátek :D

"Jen jim klesne výkon stejně jako klesne výkon Radonům." Tak to pěkně kecáš! Říkám ti to asi potřetí a dolu jsem ti házel i link. Jenomže to né, to zas pojedeš tu svojí...

+1
0
-1
Je komentář přínosný?

Vypadl tam jeden odkaz. Takže tady je jeho doplnění.

http://www.pcgameshardware.de/screenshots/original/2013/03/Tomb-Raider-G...

+1
0
-1
Je komentář přínosný?

"opencl nebo computeshaders, kazdy kdo v tom dela ti potvrdi, ze vzhledem k rozdilu architektur amd a nvidie nelze napsat univerzalne vykonny kod."

Jak to myslíte? HW AMD i NVIDIA byl rozdilnej vzdycky, to jak co frčelo bylo vždy otázkou úrovně podpory ovladačů pro dané specifikace. Co s tím má co společného vývojář? Pokud ovladače podporují openCL nebo DX11 CS, není třeba nic optimalizovat pro AMD nebo NVIDIA. Specifikace je jasná, pokud je dobře vyřešená v ovladačích. Musí to jet tam i tam. Pokud je ta karta na výkonově +- podobná, musí ten +- stejně na AMD nebo NVIDIA. Je to né nepodobné s klasickejma shaderama. Ty karty nasazují výrobci proti sobě, tuhle někde zaostává tehle druh výpočtu, tuhle zase něco jinýho. Ale není důvod proč něco optimalizovat pro to či pro to.

Tzn podle mého názoru, kdyby byla PhysX řešena pomoci obecné specifikace DX11 CS, tak to musí +- stejně fachat tam i tam.
Problém je asi jen opravdu v marketingu. Máme tu pro Win PC společnou specifikaci DX11. Tak proč pořád řešit další a další rozdílnosti.
Pokud nevyhovuje DX11 , tak ať sjednotí specifikaci openGL a k tomu nějakou početní extenzi třeba openCL a jede se. Takhle to je jen bordel.
Tzn pokud vyvájam pro WIN PC Directx11, tak na počítání použiju CS. To by papírově mělo jet na všem a pokud nejede, je to chyba výrobce karet, kterej podporu těhle specifikací deklaruje.
Tím, že každej tlačí svoji "technologii" , je v tom bordel. Tzn ideál jedna specifikace pro kreslení a druhá pro počítání. Podpora pro win, OS, Linux, konzole a je to. To pak škálovat podle dostupnýho početního a kreslícího výkonu a dostupného prostoru. A může fungovat jeden engine na všem.
Je to jen na výrobcích HW a operačních systému. Podle mého názoru neexistuje objektivní důvod krom PR aby například, DX11, CS, openGL, openCL, nejelo pod vším.

+1
0
-1
Je komentář přínosný?

Pokiaľ je to iba vecou špecifikácií prečo potom TressFX na NV grafikách išiel zo začiatku tak zle? Ak by vývojári napísali univerzálny kód, mal by predsa od začiatku fungovať rovnako pre každého. To isté platí aj o samotnej hre. Prečo potrebujú NV alebo AMD k dispozícii nejaké zdrojáky, aby to na ich kartách išlo čo najlepšie? Čoho sa potom
optimalizácie, ktoré robia týkajú? Veď predsa univerzálne by to malo všetkým funovať rovnako. Mali by mať rovnaké chyby alebo problémy. A nie špecifické v závislosti od výrobcu čipu.

+1
0
-1
Je komentář přínosný?

a) Může být blbbě napsanej ten originál a z vlastní zkušenosti vím, že AMD toho zkousne více.
b) Může být blbě specifikace implementovaná u výrobce v obladačích,
c) V zájmu výrobců čipů je aby exponovanej produkt, ať hra či nějaká featura jela na jejich HW co nejlépe. Tzn producent software vychází vždy ze specifikace. A výrobce mu pak pro jeho program vytvoří v driverech profil, ve kterým zohlední lowlevel nastavení ovladačů pro jeho produkt.
Ale k tomu nepotřebují zdrojáky, ale jen si to pustí na svejch analytickejch kompech se speciálníma ovladačema a software a vyjedou jim logy, co a jak applikace používá a udělaj podle toho profil v ovladačích, nebo pošlou report co dělá ten soft blbě a daj doporučení.
Různé formy těhle analytickejch nástrojů a support knim výrobci dávaj vývojářů k dispozici. Tzn si to každej může proměřit sám.

d)Jo přímá podpora ze stran výrobců funguje. Tzn například se inženýři z NVIDIA podílejí na implementaci nějakejch featur. Ale to je zase je i v jejich zájmu. Je potenciál že si ten produkt koupí hodně lidí, tak to tam chtěj protlačit. A tahle podpora se vykonává u produktů. který podle výrobce za to stojej. Tzn tahle podpora je hodně omezená.

Většina produktů vniká na základě specifikací, případně na dostupné knowledge base tvořené vývojáři a výrobcem kde jsou informace o problémech a řešení, pokud existují. Tzn se jí žádný přímé podpory nedostává a řídí se jen specifikaci. A i tak by to mělo fungovat, a často funguje.

+1
0
-1
Je komentář přínosný?

Prej profil :)) Covece samboushi ty si to predstavujes jak hurvinek valku. To neni jen nejaky profil, to jsou cele prekompilovane runtime knihovny, kernel mikrokody a dalsi bordel, pro kazdou podporovanou architekturu zvlast, proc myslis ze maj dneska ty drivery pres 200mega. Profil, svata prostato.. To neni jako kdyz si na 8bit jednocipech na skolnim pripravku musis dat pozor na pomaly deleni :)

+1
0
-1
Je komentář přínosný?

Na tohle reagovat neumím:-) Pleteš všechno dohromady.
Leda, že před 10 lety měly ty drivery 3x méně protože v nich bylo 3x méně věci. Tzn méně implementovanejch a méně rozsáhlejch specifikací.

+1
0
-1
Je komentář přínosný?

Nikoliv. Drivery obsahuji modifikovane klony sveho runtime prostredi pro kazdou hru nebo engine, pro kterou se provedla optimalizace. Nasobeno poctem podporovanych platforem. To nema co delat se specifikacemi, ty zustavaji nemenne. Nechapu jak o tom muzes debatovat bez takto vseobecne proflaklych znalosti. Tohle vi kazdy.

+1
+1
-1
Je komentář přínosný?

Ano v ovladačích vznikaj další části a k nim nová nastavení, jak vznikaj update podle potřeb, ale i specifikace openGL je stále ve vývoji. Stejně tak i DX, a na ty změny reagují výrobci čipů ovladači. Vyrobci karet taky dávaj nějaký podněty, hlavně ti s nereferenčním řešením.

+1
0
-1
Je komentář přínosný?

Thanks, cpt. Obvious.

+1
0
-1
Je komentář přínosný?

člověk nesmí zapomínat, že diskutuje s nevývojářem bez praktickejch zkušeností. Nebo se pletu?

+1
-1
-1
Je komentář přínosný?

"Pokud ovladače podporují openCL nebo DX11 CS, není třeba nic optimalizovat pro AMD nebo NVIDIA. Specifikace je jasná, pokud je dobře vyřešená v ovladačích. Musí to jet tam i tam. Pokud je ta karta na výkonově +- podobná, musí ten +- stejně na AMD nebo NVIDIA"

Zjevne vubec nevis o cem mluvis. Nemuzes se vice mylit. Dokonce ti ani nedochazi i vseobecne znamy a laicky zjevny rozdil mezi vykonem v DP nvidie a amd. Uz to ti mohlo napovedet, ze realita je slozitejsi. Shaderove jednotky maji u obou vyrobcu rozdilnou strukturu, cache, pristup k pameti a miilion dalsich rozdilu, ktere zasadne meni vykon stejneho kodu.

+1
0
-1
Je komentář přínosný?

:) bavíme se stále o paralelních výpočtech. Jo každej čip výrobce má jinak poskládaný tranzistory, trochu jinak pořešený adresování. Rozdílnou nativní instrukční sadu atd atd.
Ale to je boj výrobce jak si navrhl svůj čip. Je i jeho boj jak implementoval specifikaci podporované technologie do ovladáčů.
Vývojář napíše kód, což z pricipu paralelních výpočtů není žádnej macek. A ten se pustí Nkrát podle počtu využitech početních jednotek nad nějakým balíkem dat. A tak to pokračuje dál a dál.
Tzn výkon je dán propustností RAM, cachováním, výkonem početních jednotek v různejch typech operací, šířkou zběrnice a sadou nativních funkcí. Tzn například operace který nejsou přímo podporovány, se nahradí sekvencí operací který nahradí tu požadovanou nativně nepodporovanou , tzn mění se nutný počet taktů k řešení operace. Nebo pokud nativně podporuje jen nějakou maximální šířku informace, tak to rozdělí na operace dvě, taky se mění počet taktů kolik požere ta operace. Atd atd.

Ale nic z toho se netýká vývojáře, kterej napíše ten prvotní paralelní kod. Jak by mohlo. Jeho kód schroupne kompiler a to jak si to ovladač přechroupne a co stím v kartě udělá je dáno zas jen výrobcem. Ten vývojář prostě jede podle specifikace.
A těch co mastí něco přímo pro specifickej čip mimo ovladače, tzn nějakým vlastním nativním přístupem k HW moc nebude, aurčitě ne u většiny vývojářu na PC kde těch karet je od každýho výrobce habaděj.

Tzn nekompatibilita je většinou způsobena špatným uchopením problematiky samotným vývojářem v rámci specifikace, nebo implementací specifikací u výrobce v ovladačích, většinou se to týká nějakých hraničních možností tý specifikace vs ovladače a HW.
se samotným HW se toho už moc krom biosu udělat nedá.

+1
0
-1
Je komentář přínosný?

Diky ze jsi mi dal za pravdu. Jak pises, jak autor kodu, tak vyrobce hw musi (spolup)racovat pri optimalizacich. Jinak by to vsechno behalo tak ruzne. Nu a o tom to je, nvidia by physx musela prepsat, aby bezel slusne i na jine architekture, o spolupraci s amd nemluve. Aby si chuda amddecka zahrala s physx. Ja rikam na*rat jim :) Kdo chce plnej physx at si koupi nvidii :)

+1
0
-1
Je komentář přínosný?

ALe prdlajz, většina vývojářů nepřijde se supportem nikdy do styku. Spolupracujou tehdy, pokud někde nastane nějakej problém. A ten by u valaděných ovladačů a správně použité specifikace měl nastávat minimálně.

+1
0
-1
Je komentář přínosný?

"Co se tyce physx pres opencl nebo computeshaders, kazdy kdo v tom dela ti potvrdi, ze vzhledem k rozdilu architektur amd a nvidie nelze napsat univerzalne vykonny kod. Cili nvidia by vyvijela physx rovnou dvakrat."

Čoho sa tieto rozdielnosti v kóde týkajú. Môžeš dať nejaký príklad (stačí opis, netreba zdrojový kód)?

+1
0
-1
Je komentář přínosný?

Nemluvim o rozdilech v kodu ale v architekture gpu. Nikdo zde myslim nebude tvrdit ze gcn a kepler jsou na urovni hw stejne, ze :) Pouze rozdilnymi metodami dosahuji pomoci ovladacu podobne funkcnosti v nejakem API, treba directx :)

+1
0
-1
Je komentář přínosný?

Keď si teda zoberieme rozhranie pre DC, volanie rovnakých funkcií sa bude vykonávať rôzne podľa architektúry daného čipu hej? A keďže ovládače pre daný čip pokrývajú tieto rozdiely, dá sa cezne ladiť výkon lepšie lebo sa zameriavajú na konkrétny typ HW? Tým pádom by musela NV naozaj písať HW PhysX v OpenCL pre seba aj trebárs AMD zvlášť, aby bol optimálny pre všetky GPU (Intel sem zatial nerátam). Je to takto?

+1
0
-1
Je komentář přínosný?

Ano, a musela by to delat pro kazdou architekturu zvlast a to vcetne tech vlastnich. Jsem si jist, ze physx je i nyni programovano kompromisne tak, aby chodilo vyrovnane napric podporovanymi platformami nvidie a nebude to asi zadna sranda. Na(ne)stesti se physx pouziva jen minimalne, vetsinou jen dva tri efekty (cloth, particles, fluids - snad nikde vse najednou).

+1
0
-1
Je komentář přínosný?

Co to má za logiku stěžovat si, že nejde/jde pomalu něco na kartě, která nemá CUDA? To je jako bych si stěžoval, že mi nejde Quick Sync na AMD procesoru... Druhý citát to samé - prostě když to nemá hw akceleraci tak ti nepomůže ani svěcená voda.

i7 není ekvivalent nVidiího GPU, stejně tak nejsou GPU v ARMech ekvivalentem grafik v x86 počítačích a úplně běžně se stává, že několikanásobně rychlejší grafika v pc s nainstalovaným Androidem se trhá jak kalendář nebo nejde vůbec ikdyž parametrově je diametrálně jinde.

Nj, ale ono se to dost těžko porovnává, když AMD nemá japka a nVidie má japka a hrušky. Pokud bych tedy bral japka a japka tak mě, ať se vám to líbí nebo ne, má nV náskok v podobě SDK pro všechny platformy počínaje tablety a posledními konzolemi konče plus teda ty hrušky jakožto gpu akceleraci pro pc a mac. AMD má TressFX s tím, že má na pc rychlejší SSAO na kartách. Rozhodně nechci nějak AMD křivdit tak mě kdyžtak opravte, ale prostě nV v tomhle náskok má - 450 her, byť třeba z 75% debilních nebo jinak nevyhovujících, neakceptovatelných proti jedné hře s TressFX, která běží i na nV mě jako "vracení úderu" nepřijde.

Hry využívající jiné fyzikální API hraju, hrál jsem a nejspíš hrát i budu, stejně tak se nebudu štítit nebo bezdůvodně pomolouvat/dehonestovat hry se samolepkou AMD. Ostatně StarCraft, Warhammer a i ten TR mě bavil primárně z jiného důvodu než kvůli vlasům. Naopak jsem rád za každou íčovinku navíc.

+1
0
-1
Je komentář přínosný?

@ Razee | 26.05.2013 - 21:57

+1
0
-1
Je komentář přínosný?

Promiňte, že to tak říkám, ale vy nechcete chápat.

Richmond
| 24.05.2013 - 13:48: "Jj, klasika - PhysX sux protože nVidie a když vylezlo TressFX tak najednou, zcela jistě omylem, nVidie nedostala kód pro optimalizaci. Ve finále jedna chlupatá tykev = 30% výkonu dolu, ale protože to nebyl jen PR tak si nikdo z diitu nedovolil kritizovat (natožpak tak jako v dobách batmana)."

Co má za logiku, že si stěžujete na TressFX, které běhá i na nVidii. Vy si snad chcete, aby AMD udělalo TressFX jen pro Radeony, aby se potom mohlo říkat, že teď jsou stejní jako nVidia v dobách Batmana a Mirros Edge.

Jen jsem vám ukázal, že nVidia má menší propady při zapnutí TressFX než Radeony (toliko k optimalizaci). A dále jsem tu z dobových článků dokázal, že PhysX byl udělán stylem "buď máte nVidii nebo si trhněte". V těch hrách nebyl (troufám si říct, že záměrně) PhysX pro CPU, aby se marketingově zvýraznil PhysX pro GPU.

Takže kritizovat zdejší redaktory za to, že nestrhali TressFX stejně jako PhysX v dobách Batmana, by bylo opravdu míchání hrušek s jablkama. Tady nejde o pokročilost nebo rozšířenost technologií. Jde tu o to, zda tuto technologii spustíte i na konkurenčním řešení.

Pro vás speciálně tedy opakuji ještě jednou, že TressFX běhá na VŠEM co podporuje DirectCompoute. Takže nejenom na Radeonech, ale i na nVidiích příp. Intelu.

+1
0
-1
Je komentář přínosný?

Pouze TressFX rozhodně nevyměním za AMD exkluzitvitu. Pokud bychom se bavili o něčem na úrovni CUDA (přes kterou se počítá video, rendering a v neposlední řadě PhysX) tak proč ne? Když jsem hrál ME tak mě fakt kecy o pomalosti nezajímaly - mě to šlo ok, PhysX a CUDU jsem dostal jako bonus a proto jsem si taky pořizoval nV a ne AMD.

Děkuji za poukázání, na oplátku bych doporučil http://www.firingsquad.com/hardware/mirrors_edge_physx_performance/page6... Podotýkám, že jsou 30% propady srovnatelné s propady u TressFX (ale to najednou problém není, že?). Teorie nějakého pisálka, který si myslí, že mu pomůže přetaktovat cpu k vyššímu výkonu něčeho co s cpu vůbec nesouvisí bych nechal koňovi ;)

Myslím, že "VŠEM" už jsme rozebrali. Teď zkusme tedy rozebrat "běhá" a zároveň "optimalizaci" http://i52.fastpic.ru/big/2013/0306/02/b74b13f3c8b2d429982652b1e9e13d02.png Wow, ani jedna jedno čipová zelená karta nemá proti červené šanci, dvoučipová v min fps taky ne. No není to náhodička, že tak univerzální featura pro "všechny" je i pro Titana problém, ikdyž v kterékoliv jiné hře R7970 proti němu nemá šanci?

+1
-1
-1
Je komentář přínosný?

"Pouze TressFX rozhodně nevyměním za AMD exkluzitvitu."

Ani nemusíte! Tvrdím zde pořád, že TressFX narozdíl od PhysX z doby her Batman a Mirros Edge exkluzivní není!!! Mužete mít grafiku od nVidie a přesto to spustíte.

V době Batmana a Mirrors Edge to s PhysX na Radeonech spustit nešlo. To je ten rozdíl, který stále dokola ignorujete a teď už jsem přesvědčen o tom, že schválně.

+1
0
-1
Je komentář přínosný?

No vždyť super, takhle si užiju jak PhysX tak TressFX. Já to říkám pořád, že inteligent si blbě vybrat nemůže ;)

Vy neustále ignorujete fakt, že hru sice spustím, ale výkon bude degradován na nVidii na stejně nehratelnou úroveň jako u batmana na cpu physx, který tu furt dokola a asi taky schválně předhazujete. Jako pro mě není problém zmáčknout čudlík source na monitoru a spustit si TR na radeonu, problém by mě to ovšem dělalo v situaci kdy bych měl jenom jeden počítač kde bych nemohl hrát hawken s physx, musel bych používat jeden nebo dva programy na střih, čekat rok než se amd dokope k zprovoznění akcelerace premiery, pluginů v ní, ps (ač ho používám jen na pc), nemluvě o 3dsmax nebo sketchupu s indigem. Argument o univerzálnosti TressFX je pro mě prostě omezen na jednu jedinou hru, která mě nepřesvědčí abych měnil nVidii za AMD byť je AMD levnější a rychlejší. V momentě kdy budu hrát jen a pouze TR se samozřejmě situace obrátí o 180 stupňů protože mě nebude zajímat nic jiného a navíc budu mít větší šanci na to, že budu mít lepší support "kdyby něco"

+1
0
-1
Je komentář přínosný?

"Vy neustále ignorujete fakt, že hru sice spustím, ale výkon bude degradován na nVidii na stejně nehratelnou úroveň jako u batmana na cpu physx, který tu furt dokola a asi taky schválně předhazujete."

V tomhle se šeredně mýlíte. Když jste zapnuli physX na sestavě s Radeonem, tak vám neklesl výkon o 30% (jako GeForce s TressFX), ale na 30% a minimální FPS vám klesli pod 10% původních hodnot.

Mirros Edge:
PhysX off Radeon HD 4780...........83,5 (51) FPS
PhysX on Radeon HD 4780...........25,5 (5) FPS

Dále je TressFX uděláno na DC od MS. Standard, který dle specifikací podporují oba výrbci (případně i Intel, který ale nemá dostatečný výkon). Proto zde tvrdím, že AMD nevyužívá TressFX stejným způsobem jako to dělala nVidia v době Mirrors Edge a Batmana. A přístup obou výrobců k sestavám s konkurenčním řešením je neporovnatelný.

+1
0
-1
Je komentář přínosný?

Jj, máš pravdu. nV je svině, AMD je anděl, výkon nedegraduje protože titan je v dc pomalejší než 7970, tr je optimalizovaný, problém nikdy nebyl a když už ano tak za to mohla nvidie.

(bláznům se má kývat)

+1
0
-1
Je komentář přínosný?

Napadlo vás v tom vašem zeleném mozku, že ne za všech situací je Titan rychlejší než 7970 a není to dáno jen kódem a ovladači, ale i rozdílnou architekturou....? Na některé výpočty jsou prostě Radeony vhodnější.

http://www.extremetech.com/computing/153467-amd-destroys-nvidia-bitcoin-...

To co jste předvedl v předchozím příspěvku o mluví za vše....
A já vám tedy kývám.

+1
0
-1
Je komentář přínosný?

A že to je zrovinka ta jedna chlupatá hlava, to je náhodička!

+1
0
-1
Je komentář přínosný?

http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Tomb-Raid...

Titan/GeForce nejsou ani zdaleka, tak penalizované ztrátou FPS jak byly Radeony třeba v Mirror´s Edge.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.