Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Portace PhysX na GPU nVidia téměř hotova

Tak jak to vlastne je? Intel se chvasta jak skvele umi zpracovavat graficke ulohy na svych procesorech (raytracing) a nVidia zase umi negraficke ulohy resit 10x lepe nez CPU... Ted konecne vim, proc je muj pocitac tak pomaly, mam to totiz spatne pripojene! Jdu si prohodit GPU a CPU...

+1
-2
-1
Je komentář přínosný?

2 lop: Diky za pobaveni. U me mas za 1

+1
-1
-1
Je komentář přínosný?

To LOP
 
moc jsem se pobavil, diky :-D

+1
0
-1
Je komentář přínosný?

:D Moc zajimavé... už se těším, až to příjde :) V GPGPU je budoucnost !

+1
-1
-1
Je komentář přínosný?

Celé je to o tom, že 99,99% negrafických úloh poběží velmi zoufale pomaleji na GPU a CPU bude s přehledm rychlejší, i když se loudá. Architektura GPU je velmi nevhodná pro výpočty, není na to vůbec stavěna. Nehledě vůbec na náklady na vývoj - napsat tentýž algoritmus na CPU je otázkou chvilky, zatímco u GPU klidně můžete vyvíjet 1000x déle abyste dostali rozumnou rychlost.

Takže nvidia prostě vybrala algoritmus, který náhodou byl vhodný pro GPU architekturu, věnovala mu třeba sto tisíc dolarů jako vývojové náklady aby ho naprogramala na GPU architekturu (ačkoli náklady na totéž vyvinout pro CPU, nebo DSP jsou o několik řádů níže) a to proto, aby se mohla chlubit výsledkem. Že další milióny algoritmů poběží na GPU nic moc, a velmi pomalu, asi tak jako na starém ZX Spectru, nvidia samozřejmě prezentovat nebude.

Druhá věc je, zda PhysX integrace do nvidií pomůže - asi ano. Ale zaniká tím možnost použít PhysX pokud nemám nvidia kartu - a tu nemám proč mít.

+1
-2
-1
Je komentář přínosný?

Mimochodem, teď jsem se seznámil s dalšími asm instrukcemi Intel procesorů a jejich architekturou a zjistil jsem, že v pohodě mohu něchat své výpočty zrychlit mnohonásobně. Protože procesory zase obsahují další zvýšení paralelizace výpočtů, dokáží realizovat několikanásobek matematických operací za jeden takt oproti tomu co se dnes běžně používá a pomalu polehoučku procesory míří k tomu, že smazávají i výhodu GPU - obrovskou paralelizaci výpočtu.

Rozdíl mezi cpu a gpu je ten, že zatímco na procesoru jste schopní efektivně paralelizovat každý výpočet a každý algoritmus, který se paralelizovat dá - a to dokonce bez režie přetahávání dat mezi pamětí a grafickou pamětí. Tak na gpu většinu algoritmů paralelizovat nejde, protože prostředky gpu jsou značně omezené oproti cpu - navíc s režií přetahávání dat mezi pamětí a gpu.

Náklady na vývoj naprogramování paralelního algoritmu na procesoru jsou nízké - jsou k dispozici hotové nástroje, programovací jazyky, a i v assembleru je to velmi rychlé a přímočaré, vývoj je levný, výsledek rychlý. Zatímco na gpu moc nástrojů na vývoj není, vývoj je drahý a většina algoritmů oproti cpu zpomalí.

Podle mého - a hlavně po zkušenosti programování na gpu - jsem došel k závěru, že výpočty na gpu jsou jen zoufalým pokusem firmy nvidia vydělat peníze - a že brzy po tom neštěkne ani pes.

+1
-2
-1
Je komentář přínosný?

lop rulezzz.

+1
-1
-1
Je komentář přínosný?

to Miloslav Ponkrác:

No já si myslím totéž. GPU jsou neefektivní nenažrané kalkulačky s naprosto příšerným poměrem výkonu na watt. Velmi se těším na Intel larabee a další rozvoj Raytraycingu

+1
+1
-1
Je komentář přínosný?

JKK: haha, dobre sme sa nasmiali :)

+1
+1
-1
Je komentář přínosný?

Prosím Vás pěkně, kde je link na ty demo ukázky simulace oděvu ? THX

+1
0
-1
Je komentář přínosný?

jojo2:

Tak až se dosměješ, hezky nám tady řekni, co kromě aritmetických operací nad trojúhleníky GPU umí?

+1
0
-1
Je komentář přínosný?

2JKK:
Masivne paralelni vypocty s vektory ti prijdou malo???

+1
+1
-1
Je komentář přínosný?
+1
+2
-1
Je komentář přínosný?

GPU je sice vykone ale zato hloupe, stejnou praci jako GPU zastane skoro kazde DSPcko - coz vlastne GPU je a pokud clovek potrebuje neco extra rychleho tak to stejne nadrti do FPGAcka (treba nejaky Xilinx)

+1
-2
-1
Je komentář přínosný?

Jinak přiznivce počítání výpočtů nad GPU poprosím aby zodpověděli na základní otázku:

Kde se to kdy v praxi použilo? Kromě ukázek ala nvidia show.

diehard> No právě že cpu obsahuje také paralelní vektorové operace a v každém dalším modelu procesoru jsou rychlejší a efektivnější.

+1
-1
-1
Je komentář přínosný?

No pokud vím tak AMD prodávalo draho speciální výpočetní přídavné karty za tisíce USD pro nějaké - ovšem speciální - úlohy. Defgakto to byly X1950 s jiným biosem. A svěřené úlohy zvládali o hodně rychleji a levněji, než PC servery, které používali dříve. Ano bylo to hodně specifické použití, ale žádné dostupné CPU se v této úloze nechytalo.

+1
-2
-1
Je komentář přínosný?

A když je tak jednoduché počítat grafiku pomocí CPU, proč to tu jižz není? Proč se už raytracing nepoužíva? Asi proto, zže dnešní CPU jako core 2 quad dokáže takhle zobrazit hru ala Quake 3. Hmm až budou CPU umět Crysis, tak grafiky budou zase dále.

+1
-2
-1
Je komentář přínosný?

diehard:

Samozřejmě, že je to žalostně málo. Existuje jen velmi velmi velmi velmi omezena skupina aplikaci, která tyto výpočty potřebuje, a dá se s jistotou říci, že vy nebo vám podobní nepotřebujete ani jednu. Tak k čemu vám to je?

Samostatnou kapitolou jsou pak počítačové hry, kde tyto karty potřebujete, ale jen proto, že jsou hry takto napsane. 3D scéna lze počítat mnoha způsoby, ale jelikož je v herním segmentu tolik peněz, nikdo zevnitř to měnit nebude. Proč by se AMD nebo nVidia namáhaly přijít s efektivnějším řešením, když vám můžou prodávat dnešní GPU? Nejen že by ztratili část kompatibility, ale museli by udělat složitý vývoj a do toho vám nepůjdou, takže z konceptu GPU budou ždímat co to jde. Z tohoto pohledu je Larabee od Intelu velmi zajímavý počin a uvidíme kam to dospěje.... Zkuste si sepsat, jaké typy aplikací asi tak můžou využít GPU, a pak si zkuste počítat, v kolika případech to ne z matematického hlediska nejefektivnější cesta... Dostanete se na mizivý podíl...

+1
-2
-1
Je komentář přínosný?

to jfb:

Protože ktomu je třeba mnohojádrové CPU-like řešení. A jediný kdo ho vyvíjí je Intel. A i kdyby to bylo na trhu, musel by pro to někdo psát aplikace, a to bude přes silnou lobby AMD a nVidia těžké....

Jen taková perlička. Více než před rokem Intel ukázal 80jádrový chip podobný x86 se spotřebou cca 50W a výkonem vyšším než dva Radeony HD2900XT!

+1
-1
-1
Je komentář přínosný?

Problém vůbec není v tom, že by dnešní CPU byly nějak slabé (i když i tohle hraje svou roli, jak jinak).

Problém je v tom, že obraz renderovaný pomocí CPU je prostě renderovaný na špatné straně sběrnice.
Není problém něco renderovat na CPU, ale je problém to následně protlačit přes celý počítač až do výstupu na monitor - na tom taky až doposud veškeré snahy Intelu o "zničení" grafických akcelerátorů ztroskotaly.

+1
-2
-1
Je komentář přínosný?

To JKK - ano, ovšem těch 80 jednotek bylo velmi jednoduchých, defakto mi to připomíná spíše konstrukci dnešních GPU než CPU :-)

To Melar - to si nemyslím, dnes spolu komunikuje pro výpočet scénu CPU+GPU+RAM přes FSB či HT a PCI-Express. Pokud scénu bude počítat CPU tak bude IMHO situace z hlediska +- stejná.

+1
-2
-1
Je komentář přínosný?

to jfb:

Jednoduchých možná, ale rozhodně nepřipomínaly GPU :), a co je hlavní, měly minimálně 8x nižší spotřebu na 1 Tflop než ATI!

+1
-1
-1
Je komentář přínosný?

To JKK - a jaký byl vlastně rozdíl od dnešních grafik? Sice se možná mýlím, ale já to vidím tak, že dnešní GPU je sposta hloupých procesůrků, které umí jednu věc, ale zatraceně rychle. No a CPU, je jeden složitý procesor, co počítá pomaleji, ale umí spoustu věcí.

+1
-2
-1
Je komentář přínosný?

jfb: Netvrdím, že je to problém dnes, na straně druhé, v minulosti to problém byl - a hodně velký.

Krom toho, vždy bude rychlejší schéma, kdy do akcelerátoru jdou jen dílčí data, ten pak vypočítá a vykreslí do své paměti kompletní obraz, který je následně bez jakéhokoli omezení poslán do výstupního zařízení, než když je do výstupní jednotky tlačen komplet vypočítaný obraz.

Na straně druhé, toto schéma není zrovna nejúspornější (je nutno krmit separátní grafickou jednotku se separátní pamětí) a má mnohá funkční omezení.
Uvidíme, s čím se Intel "vytasí" tentokrát, ale neměli bychom zapomínat, že zrovna v oblasti vykreslování 3D pomocí CPU si už Intel "rozbil hubu" v minulosti tolikrát, že nelze na jeho prohlášení hledět jinak než s jistou dávkou zdravé skepse.

+1
+2
-1
Je komentář přínosný?

JKK
Intel sa ale nechvalil jednou dolezitou vecou a to, ze tie jadra boli len velmi jendnoduche 16bit ALU, ket to nahradis 32bit FPU tak spotreba bude razom niekde inde, aj ked nepochybujem, ze Intel ma naskok vo vyrobnych technologiach, ale aj tak ta spotreba nebude az tak pekna ako uvadza.

+1
0
-1
Je komentář přínosný?

jfb: raytracing se samozřejmě používá, u specifických metod vykreslování, stejně jako se používají ještě náročnější metody, např. radiosity. "Herní" vykreslovací algoritmy vypadají skvěle, jsou násobně rychlejší, ale nejsou univerzální, každá hra má "optimalizovaný" herní engine, který umí např. dobře zobrazovat jistý typ scén. Navíc většina her používá např. Distance fog, tedy onu známou "mlhu", kterou "optimalizuje" výkonnostní nároky.

+1
-1
-1
Je komentář přínosný?

Ad. Intel a raytracing : jo, kdysi taky sliboval 20Ghz CPU, pak se ale nějak zjistilo, že tudy cesta nevede. Samozřejmě, že proti CPU jsou dnešní GPU docele hloupé, jakýkoliv program kde je nějaké větvení jde celkem do kytek s výkonem, na druhou stranu GPU se rozvíjí naprosto šílenou rychlostí. Výkon GPU stoupá mnohem rychleji než CPU, protože s sebou nemusí vláčet tu šílenou komaptibilitu s vývojem milionů aplikací. Napíšou si novej ovladač, kterej podporuje jenom nová hra a papa. Kde byly grafiky před 10ti rokama ? Descent 2 ? Sotva začátky 3D akcelerace... Co dneska u Crysis ?
Co uměly první pixel shadery ? Sotva se hodily na bump mapping, max. počet instrukcí spočetně na jedné ruce. Jak je možné vidět v nVidia techdemu, s dnešením GPU není problém simulovat miliony particlů nebo počítat dynamiku tekutiny v celkem solidním rozlišení v reálném čase, brzy příjde i fyzika. S příchodem CUDA a CloseToMetal nebude podle mě časem problém napsat srovnatelně rychle aplikace pro GPU. A hlavně, GPU se neuvěřitelně rychle rozvíjí (nVidia tomu říká moorův zákon na druhou, samozřejmě s rezervou). Kde dneska nepotřebuju paralelismus ? Všechno, co má do budoucna smysl bude muset být paralelní. A když bude za pár generací GPU dostatečně chytré na slušné programování, proč ne ? CPU samozřejmě bude pořád nezbytné, ale proč GPU nevyužít jako mnohem obecnější akcelerátor ?
Už se starou GeForce FX šlo například 20x urychlit třídění velkého počtu položek v databázi, jaký byl poměr cena/watt oproti CPU netřeba dodávat. Nevidím důvod, proč by pomocí GPU nešlo třeba zipovat archivy, kompletně zpracovávat video, sw renderovat složité scény apd...

Nejsem žádnej nVidiot ani fanATIk, jenom si myslím, že s GPU se to někam dotáhne :)

+1
0
-1
Je komentář přínosný?

jfb>"A když je tak jednoduché počítat grafiku pomocí CPU, proč to tu jižz není? Proč se už raytracing nepoužíva? Asi proto, zže dnešní CPU jako core 2 quad dokáže takhle zobrazit hru ala Quake 3. Hmm až budou CPU umět Crysis, tak grafiky budou zase dále."

Protože GPU je speciální hw pro grafiku a jenom pro grafiku. Ale ne na matematické, nebo vědecké výpočty. Je jasné, že procesor tu není od toho, aby nahradil grafickou kartu - ale na druhé straně směšné snahy nvidie, aby GPU nahradila procesor jsou taky ptákovina.

Jinak GPU je specializovaná na zobrazování grafiky, pokud chcete třeba statický obrázek - třeba dobře udělaný plakát s vysokou přesností a raytracingem, tak GPU tu žalostně selže. Toto se právě počítá na procesoru, který to dokáže daleko lépe a přesněji.

Problém je, že nikdo nechce nahradit specializovaný grafický čip. Ať GPU dělá co umí nejlépe, zobrazuje a dělá drobné výpočty k tomu potřebné. Nicméně nvidia se snaží z GPU udělat grafiku, procesor, DSP, a další - což znamená, že to bude jenom žrát nechutně proudu, bude to složité, příprava programů pro GPU bude drahá jako prase, a užitek pramalý až záporný.

Trochu jste to nepochopil pane jfb, GPU tu nikdo nenapadá ani nenahrazuje v tom pro co jsou dělané.

+1
+1
-1
Je komentář přínosný?

melar>"Problém je v tom, že obraz renderovaný pomocí CPU je prostě renderovaný na špatné straně sběrnice. ... - na tom taky až doposud veškeré snahy Intelu o "zničení" grafických akcelerátorů ztroskotaly."

Problém je v tom, že si žádná strana nemá co vyčítat. Nvidia se snaží o kreténinu hrubého zrna - "na špatné straně sběrnice dělat vědecké výpočty" - což musí stejně v krátkém čase prohrát. A Intel se snaží "na špatné straně sběrnice zničit grafický akcelerátor". Oba pánové jsou mimo, ale nvidia už asi tak 100x tolik.

Problém je, že Intel zničit grafický akcelerátor v pohodě - a to integrací grafického čipu do procesoru - což je podle mě naprosto správná cesta. Stejně tak jako dnes většině lidí stačí integrovaná zvukovka, a externí si kupují jenom fajnšmekři, tak většině lidí bude stači a stačí integrovaná grafická karta. A grafika bude čím dál víc věcí luxusu.

Nvidia se tento vývoj - pro nvidii nepříznivý (P.S.: všichni uživatelé PC nepotřebují hrát Crysis, abych předem předešel blbým připomínkám) snaží zvrátit tím, že z GPU udělá nezbytný přívažek k procesoru. Problém je, že zatím se prakticky nic takového nepodařilo, přes všechny řeči ala "Baron Prášil" z úst a předváděček nvidie. Jednoduše vývoj spěje k tomu, že čím dál méně lidí si prostě externí grafickou kartu bude kupovat - a to je to kam míří Intel.

Třeba já osobně jedu na integrovaných grafikách mnoho let a jsem plně a zcela spokojen. Nikdy jsem nepocítil potřebu lepší grafiky.

+1
-1
-1
Je komentář přínosný?

Vie mi niekto zosumarizovat nejake fakticke informacie z tejto diskusie, nemam naladu citat cely flamewar.

+1
-3
-1
Je komentář přínosný?

>> jojo2:
Když ses tak hezky zúčastnil v samotných základech, tak si to hezky přelouskej :).

+1
-2
-1
Je komentář přínosný?

jojo2 >> precitaj si iba uplne prvy prispevok, ten jediny je spravny.

+1
0
-1
Je komentář přínosný?

Miloslav Ponkrác: Neberte to nějak špatně, ale zřejmě jste nikdy nepotřeboval nic opravdu rychle renderovat v OpenGL. 3D akcelerace je dnes potřebná i pro spousty "seriózních" programů... a tam tedy integrované grafiky (až na pár čestných non-Intel výjimek) nestačí s dechem... jakkoli nevylučuji, že za několik let se toto změní i pro mne (viz dále).

Mám za to, že výpočetní výmysly Nvidie a ATi/AMD jsou z valné části inspirované prostým faktem, že "závody ve zbrojení" se u grafických adaptérů vymkly jakékoli kontrole a že oběma výrobcům akcelerátorů začíná situace připadat poněkud neudržitelná a tak se zoufale snaží najít další využití pro svá monstra (s rostoucím výkonem a spotřebou zcela zákonitě klesá počet lidí, kteří jsou něco podobného ochotni bez mrknutí oka koupit, už dnes můžu existovat s grafikou z lepšího low endu, byť ještě stále ji musím mít dedikovanou s vlastní pamětí, zatímco před pár lety jsem potřeboval veškerý dostupný grafický výkon za jakoukoli cenu, dnes daleko častěji narážím na omezení ze strany CPU).

Mimochodem, zrovna letos bude jedno pěkné výročí, 10 let od uvedení grafické karty i740... to nám to utíká ... :-)

Co se zvukovek týče... tam je problém hlavně v tom, že CL se chovají tak jak se chovají (viz nedávná aféra s ovladači a další) a tak se celý trh zcela zákonitě zhroutil do sebe...

+1
+1
-1
Je komentář přínosný?

Aha, uz viem o com to tu bolo... ale kto sa pytal co sa s GPU da robit, tak napriklad FFT a podobne veci. Ked spustim FFT analyzu skromneho obvodu tak to trva napriklad polhodinu a vygeneruje to 500MB subor ktory nez mi zobrazi trva zase minutu-dve. Prave na to sa genialne hodi napriklad ATI HD3870 - vypocetny vykon je dostatocny a ma priamo integrovane funkcie zobrazenia, takze je mozny priamo aj antialiasing v tom zobrazeni a ziadne natahovanie 500MB z disku aby mi zobrazil jeden pohlad na vec, a pri dalsom zoome znova preluska celych 500MB vygenerovanych dat za minutu-dve.

Pokial si spominam tak GPU je aj idealny audioprocesor, este an starej 7800-ke nejaky poliak napisal zaverecnu pracu kde bola renderovana velka miestnost so stlpmi a zvuk bol tiez "renderovany" v realnom case podla odrazov od stien a prostredia. Az niekto bude mat schopnost, cas a peniaze na to aby napisal EAX 1,2,3,4,5...11 interpreter pre GPU tak bude priamo v GPU a Creative nebude potrebny. Tieto veci sa daju lahko robit na GPU a asi sa aj budu, ale v sucasnosti API na pouzivanie ATI kariet na vypocty je len vo verzii 0.9beta, ale uz je vypustene a videl som uz nejakych nasincos sa stym hrat pri vyvoji nejakych aplikacii.

Okrem toho tusim Kasperski ma verziu antiviraku pre HD 2900XT grafiku, spracuvajucu 1Gbit linku priamo :)

+1
+2
-1
Je komentář přínosný?

Mě to scestné nepřipadá, grafiky jsou optimalizovány na násobení vektorů a matic a najde se plno úloh, které potřebují řešit stejný problém, tak proč grafiku nezapřáhnout. Rozhodně je to lepší, než nějaký jednoúčelový akcelerátor fyziky.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.