Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k CPU raytracing u Intelu: alternativa klasických GPU?

To je fantastické! Začátek konce 3D akcelerátorů?

+1
-1
-1
Je komentář přínosný?

Jak jiz bylo psano, je to jina metoda vypoctu sceny. Neni to konec 3D akceleratoru, ale spis smer jakym by se aspon cast z nich mohla ubirat. Ja tomu osobne fandim.

+1
-1
-1
Je komentář přínosný?

Intel právě objevil obrovský komerční herní potenciál znuděných správců serverů.  Dva čtyřjádrové zíony jsou běžné, hlavně jim Quake pošlape i na tý podělaný integrovaný ATI RageXL.

+1
0
-1
Je komentář přínosný?

nemusi jit o konec gpu, ale mozna o zmenu jejich funkcnosti smerem k raytracingu. uz dnes je mozne klasicke gpu vyuzit k vypoctu raytracingu diky jejich obrovskemu vykonu, ale je to samozrejme trochu oklikou, gpu je vyuzito logicky jen castecne.
jinak v raytracingu je imho jasna budoucnost, protoze jak bylo receno, efekty, ktere umoznuje, vychazi primo z podstaty jeho vypoctu (prakticky simuluje fyzikalni pochody naseho videni). kazdy novy efekt pomoci shaderu je vetsinou velmi hrubou aproximaci, treba zakladni efekty jako jsou zrcadleni nebo stiny jsou pocitany velmi neprirozenym zpusobem pomoci ruznych obrzlicek narozdil od RT.
skalovatelnost je taky vyborna vec, predstavte si, ze vam hra bezi pomalu, u RT staci omezit hloubku stromu vicenasobnych odrazu nebo proste snizit rozliseni a temer linearne roste rychlost.

+1
-1
-1
Je komentář přínosný?

no ja mam problem s tim, ze vsechny ty obrazky co ukazoujou se mi nelibej, neco je na nich spatne... ale treba (urcite) kdyz to dostane do ruky nekdo s "vkusem", tak z toho teprv vypadnou pekny veci

+1
0
-1
Je komentář přínosný?

Hmmm, velmi zajimavé, trochu mě to dostalo v dnešní době G8 a spol... Když se ale podíváte na to, jak rychle roste výkon grafik a CPU http://laplace.physics.ubc.ca/People/msnajdr/OTHER/NV_GPU_scaling.jpg (brát nicméně s rezervou), tak jde jasně vidět, že GPU má do budoucna mnohem větší potenicál, alespoň pro teď (nVidia tomu říká Moorův zákon^2). Myslím si, že právě GPU je dobré na to, aby dělalo spoustu elementárních výpočtů najednou, viz paralelismus, který se v grafických čipech objevuje... podle mě by stačilo třeba jenom vylepšit repertorát příkazů GPU pro podmínky (případně architekturu upravit tak, aby tak drasticky neztrácela výkon při podmíněných příkazech), popř. jiné, relativně drobné úpravy a CPU nemá výkonostně sebemenší šanci... I když je CPU vs GPU jak srovnávat jabka s hruškama, modernější čipy s čím dál větším potenciálem pro obecné výpočty mají podle mě velkou šanci CPU v tomhle vydrtit...

+1
0
-1
Je komentář přínosný?

A je to tu zase. Vzpomínám si, že jsem sem podobný příspěvek už kdysi psal a to ve spojení s konzolami. Pro nějakou náročnou aplikaci se cpu stane nedostatečně výkonné, tak se pro to vymyslí nějaký speciální procesor. Časem stoupne výkon cpu, tak je zde zase snaha to dělat pomocí cpu, než opět přestane stíhat a s velkou slávou se opět vymyslí nějaký speciální procesor. A tak pořád dokola. Já osobně, jako člověk postiženy Linuxem se domnívám, že správná je ta cesta specializovaných procesorů, kdy každý dělá to svoje, na co je dobrý. Tudíž snahu Intelu z marketingového pohledu chápu, ale jinak, ať si to strčí za klobouk, takle bloudíme pořád v kruhu.

+1
0
-1
Je komentář přínosný?
+1
-1
-1
Je komentář přínosný?

chápu intel, proč třeba pro visty používat specíální grafickou kartu, když ten word v 3D v pohodě zobrazí procesor. Ano, tady si to dovedu plně představit.

+1
0
-1
Je komentář přínosný?

Corwin78 >> Tak prave na RT je asi najvhodnejsi specializovany cip, nieco podobne i386 architekture alebo Aplha.

A intelova implementacia pomocou rozsekania i386 instrukcnej sady na uOps je jeho optimalizacia cipu aby rychlo vykonaval i386 kod.

+1
+1
-1
Je komentář přínosný?

Myslím že raytracing se časem dočká nasazení i pro realtime rendering. Před lety to byla docela neuvěřitelná představa... vzhledem k tomu že před 15-lety se jedna obrazovka renderovala na Amigách při větší složitosti i několik desítek hodin (i když existoval specialní HW, který to již tehdy výrazně urychloval a filmová studia to používala). A teď to bude za 1/50 sec. nebo ještě za kratší čas...
A docela mi to dává smysl i u AMD, kde budou integrovat GPU do CPU. Takže vidím potenciál že to není výstřelek, nýbrž realistický směr vývoje.
Respektive GPU se integruje i do CPU, rozšíří se jeho použitelnost i na velmi obecné výpočty a kromě nějakých DX(xy) se konečně naučí něco pořádného.
O tom že ray-trace je lepší způsob vizualizace, tak o tom není sporu. Jen se tvůrci scén nesmí příliš nadchnout pro odrazivost a průhlednost a dávat je i tam kde nepatří, nebo jim zvyšovat neúměrně koeficenty.

+1
0
-1
Je komentář přínosný?

fantastický ojev...
"rozložení dílčích částí výpočtů mezi GPGPU/3D a klasická CPU"
 
a neb AMD Fusion ...
v CPU bude k výpočtům ALU, AGU a "GPU"

+1
+1
-1
Je komentář přínosný?

Měli by si vzít příklad z lidského mozku - jak to tam vlastně funguje? Je to jen cpu nebo cpu s gpu... Možná je současný koncept placatých čtverečků slepá ulička...

+1
0
-1
Je komentář přínosný?

A co na to Ladik45? :-D

+1
0
-1
Je komentář přínosný?

na paralelni vypocty, a tedy i na raytracing bude larrabee uzasna zalezitost. Realtime RT na GPU je pry stale problem, zejmena diky rekurzivni povaze a blbe resitelnym stackem, nejlepsi je dneska udajne cell... no a modri uz vedi, ze kdyz vylepsi ideu cellu a daji mu poradnou cache, tak budou slusne atakovat trh s GPGPU. A realtime raytracing, tam intel jiste smeruje, kouknete na Siggraph 2005, s tematem realime raytracing tam vystupuje chlapek z intelu s hintama, jak to optimalizovat: threadovat(ale klidne hodne, ne jen na pocet procesoru), pouzit sse, proste jestli si to lidi vzali k srdci a udelali si engine, ktery jim ted bezi na intelu 8fps, tak s larrabee pojedou realtime bez velkych zasahu. Byt amd&nvidia tak vyresim ten stack sakra rychle...

+1
0
-1
Je komentář přínosný?

2DES: to je krasna myslenka, raytraced-word... jen aby se to dalo s tema odleskama a pruhlednosti jeste precist. No ale obavam se, to uz nebude real-time... je vubec nejaky HW, kde usofti veci jsou real-time :))?

+1
-1
-1
Je komentář přínosný?

vaseo: Přesně tak, naprostý souhlas.

+1
0
-1
Je komentář přínosný?

Federmann: zkus se tu trochu porozhlédnout, zjistíš, že o Fusion jsme toho napsali už hodně. Asi jsi tu větu v článku ne zcela pochopil ;-)

+1
0
-1
Je komentář přínosný?

to bender:  ... jeste toho trochu do baraku ... privolavat čárkovej mor

+1
+2
-1
Je komentář přínosný?

to Bender a Fry, Ládík neví o čem je řeč, tak rači mlčí

+1
0
-1
Je komentář přínosný?

To video s Q4 není tedy nijak zvlášť přesvědčivé, ale je jasné, že do budoucna je výpočet herní scény pomocí RT významným krokem k reálnějšímu zobrazení. Bojím se říct, že je to revoluční přístup, ale bude tomu zřejmě tak. :) Pořád mi vrtalo hlavou, proč z těch GPU leze takový divný obraz i přes všechna ta vylepšení z posledních let a brutální nárůsty výkonů a už je mi to jasné. :) Slepá ulička..

+1
+1
-1
Je komentář přínosný?

Hehehehe, za pár let budou osmijádrové procesory normální a nejmodernější 3D pecku půjde hrát i na 2D PCI grafárně s 1MB paměti... ale kvůli Win Vista budeme potřebovat minimálně DX10 akcelerovanou grafárnu se 128MB paměti :o)))

+1
0
-1
Je komentář přínosný?

Myslim, že 1 MB ne, jelikož jeden obrázek v 2048x1536 a 32 bitových barvách má asi 13 MB :)

+1
0
-1
Je komentář přínosný?

Hnedka v prvni vete clanku je chyba - "raytracing" neni "vypocet paprsku k pozorovateli", ale obracene: "vypocet paprsku od pozorovatele do sceny a jejich interakce". Od sceny k pozorovateli se to jmenuje "ray casting" a je dost neefektivni, protoze hodne paprsku proste k pozorovateli nakonec vubec nedorazi.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.