Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k R600 těší výrobce IC substrátů

ono to ma jit za chvilku na pulty a jeste o tom pomalu nikdo nic nevi, jak je to rychly, jaky to ma parametry, nic...

+1
0
-1
Je komentář přínosný?

2 Tomcat: Ale to snad nemyslíš vážně. Ví se už opravdu víc než hodně. Už padli i skutečné reálné hodnoty (např. výpočetních jednotek nebude 120 ani 96, ale 64). Ví se, že ikdyž má Radeon "jen" 64 výpočetních jednotek a nVidia 128, tak je radeon +- o 10% rychlejší (v některých hrách i o více ... např. Oblivion). Ví se že u všech 64 výpočetních jednotek je Radeon schopen 4 výpočtů za takt (tj. 64*4=256), zatímco nVidia se svojí zastaralou architekturou chipu umí jenom 1 výpočet na takt (tj. 128*1=128), atp. Technologicky vypadá nový Radeon oproti nVidii naprosto úžasně. No ostatně, mrkni třeba sem: http://www.pctuning.cz/index.php?option=com_content&task=view&id...

+1
0
-1
Je komentář přínosný?

2 Macros: Nezlob se na me ale tvuj prispevek je opravdu ukazkou (1) neznalosti a (2) naivity. Add (1) - kdes prisel na to ze architektura cipu G80 je zastarala? To vyvozujes z toho ze umi jen jednu operaci za takt? :) Kdybys o tom neco vedel tak bys takovou hloupost nikdy nenapsal, ta architektura neni zastarala, naopak je pokrokova, akorat ze tys evidentne nepochopil rozdil mezi SKALARNI a VEKTOROVOU jednotkou. Vektorove jednotky pouzivaly ATI i NVIDIA uz drive, jenze jejich efektivni vyuziti je naproste scifi, naproti tomu efektivni vyuziti skalarnich jednotech je velmi snadno dosazitelne. Tj. cip G80 muze byt vyuzit na 100% temer kdykoliv, R600 ne protoze - proste nejaka cast jednotky se bude flakat, pricemz napajena bude stale (treba i minimalne), takze je defacto neefektivni.

Add (2) - tu informace na ktere ukazujes jsou ciste spekulace, je mozne ze na nich neco pravdy je, ale povazovat je za duveryhodne je docela odvaha. Davas sem odkaz na testy, ktere zpochybnil snad kazdy, kdo tomu trochu rozumi (ne z toho ze by nebylo mozne, aby novy radeon dosahoval takovych vysledku, ale spis kvuli tomu, jak podezrele byly vysledky prezentovany a taky kde byly prezentovany)

Priste nez zacnes poucovat nekoho v diskusi tak bys mel vzit v uvahu fakta a sve vedomosti.

PS: Netvrdim ze je R600 spatny cip, ale nemam rad vsechny tyhle spekulacni teorie, ktere jen prinasi chaos do veci. Az bude R600 oficialne predstaven tak ma cenu se bavit o tom jak moc je dobry|spatny. Do te doby proste NENI a tecka.

+1
0
-1
Je komentář přínosný?

Tom 001: tvůj příspěvek se jeví jako druhý extrém. Nevím, podle čeho usuzuješ, že vektorová výpočetní jednotka je neefektivní. Pokud podle teoreticky 100% využitelnosti, pak dovol, abych ti připomněl jednu zásadní věc - G80 i R600 mají zhruba stejné množství tranzistorů, cca 700 milionů +/- pár desítek. Pokud je nVidia do 700MT čipu dokáže "nacpat" 128 1D jednotek. ATi 64 (zřejmě) 5D jednotek. Na první pohled z toho vyplývá, že 5 1D jednotek a 1 5D jednotka se neskládají ze stejného množství tranzistorů. Což je i logické. U 5D jednotky není nutné některé části ALU implementovat 5x jako u pěti 1D jednotek, ale stačí jednou, což vede k poměrně silné úspoře v počtu tranzistorů. Když si to srovnáš, tak jediná 5D jednotka R600 spotřebuje jen tolik tranzistorů, co dvě 1D jednotky G80. Takže i kdyby ti vycházela poloviční efektivita na výpočetní jednotku, tak je pořád výhodnější koncept ATi, protože se stejným počtem tranzistorů do čipu nacpeš těchto jednotek 2,5x víc.
 
Jenže ano ta efektivita není poloviční - pokud ATi dokáže se 64 5D jednotkami na 800MHz dosáhnout o 10% vyššího výkonu než nVidia se 128 1D jednotkami na 1350MHz, tak tím neefektivním čipem není R600. Oba čipy mají zhruba stejný počet tranzistorů - liší se tedy jen uspořádáním. Pokud by oba běžely na stejné frekvenci, který bude rychlejší (a tím tedy i efektivnější?). Ano, je sice pěkný, že nVidia používá čistě skalární výpočetní jednotky, ale pokud pro jejich implementaci spotřebovala 2,5x více tranzistorů a jejich výkon je takový, že musí běžet na frekvenci o 70% vyšší, než konkurenční řešení, aby se mu vůbec vyrovnaly, pak si nejsem jistý, jestli to byla ideální cesta, nebo spíš zda byla jejich implementace provedena nejvhodnějším možným způsobem.
 
Samozřejmě, zatím jsou to spekulace - ale o to zajímavější bude, až budou zveřejněny jisté oficiální specifikace R600 ;-)

+1
0
-1
Je komentář přínosný?

2 No-X: Mozna si to dost dobre nepochopil, efektivita spociva ve vyuziti, ne v poctu tranzistoru. Skalarni jednotky muzes vyuzit vzdy na 100%, to je ta zcela zasadni vec. Je logicke, ze provadet vsechny operace pres skalarni jednotky je narocnejsi na kremik, protoze operace se musi skladat (tahle rezie si bere dost v navrhu logiky), nicmene toto reseni je vice obecne a tedy lepsi z hlediska nejake budouci perspektivy. Cip s takovymi jednoduchymi a snadno rizenymi jednotkami je snadno pouzitelny pro obecne vypocty, napr. je snazsi implementovat vetveni, protoze nevznikaji zavislosti v aktualnim vypocetnim kanalu.

Je jasne, ze vektorova jednotka je pouzitelnejsi na bezne vektorove operace (napr. nasobeni matic apod.), protoze je na to proste specializovana, nicmene kdyz na tom budes delat obecne vypocty tak zjistis, ze ztracis vykon, protoze ty jednotky najednou pracuji treba jen s polovicnim vytizenim.

Muj predchozi prispevek sem napsal hlavne jako reakci na puvodniho pisatele, ktery tady z vody varil dobrou polivcicku a snazil se nas tu krmit. Pritom jeho znalosti byly povrchni (viz domnenka ze skalarni architektura je stara - pritom je to opacne).

Mimochodem uvidis ze i ATI v budoucnu prejde na skalarni jednotky :) Je to nevyhnutelne, tenhle krok je logicky stejne jako dnesni CPU postupne presli na RISC architekturu (nebo pseudo RISC abych byl presny), stejne jako ze shadery presli z oddelenych na unifikovane, vsecko dnes speje k tomu aby vse byly tvoreno obecne a efektivne, ten kdo se tomu nepodridi bude znicen, protoze jeho produkty nebudou mit takove vyuziti. A mimochodem NVIDIA ma ke skalarni architekture dobry duvod - pokud chce totiz udelat CPU a GPU on-chip pak musi postupne jednotky zobecnovat ... no a protoze tohle je asi budoucnost tak se musi snazit, protoze jestli se ji to nepovede tak by mohla skoncit a to oni si moc dobre uvedomuji.

+1
0
-1
Je komentář přínosný?

Jestlize je R600 tak pokrokova, proc je jeji PCB jeste vetsi nez cca pul roku stara G80??? Pokud tedy maji obe architektury +- stejne tranzistoru (jak tady bylo nekde receno), potom by nova R600 mela byt mensi!? Verim, ze az nVidia pouzije GDDR4, tak naskok R600 nebude az tak markantni (a je moc divne, ze AMD nevydalo R600 s GDDR3). Ale v kazdem pripade bude konkurence k 8800 rade a cena pujde dolu.

+1
0
-1
Je komentář přínosný?

2 ljelinek : R600 velká? Asi myslíš tu speciální OEM edici s větrákem na konci karty (to není PCB, ale větrák, tak více jak 1/4 karty :-) ).
Současně testované R600 samozřejmě mají GDD3 nikoliv GDD4 a ty testy jsou provedeny na kartě s GDD3.

+1
0
-1
Je komentář přínosný?

2 Tom 001: sice možná nejsem technicky natolik vzdělaný jako Ty, ale z mého hlediska skalární jednotky v podání nVidie nejsou nic high-tech, a o jejich rozhodně ne moderní integraci sběrnice radši nebudu mluvit. Co ti připadá jako velký potenciál do budoucna ve skalárních jednotkách nVidie, když právě u nových her jako je Oblivion je skoro 40% propad 8800XTX vůči R600 se stejnými GDD3 paměťmi?! Z mé obyčejné selské logiky prostě je optimalizovaná architektura čipu R600 a především jeho prstencová sběrnice mnohem pokrokovější nežli cokoliv co kdy nVidia vymyslela.

+1
0
-1
Je komentář přínosný?

2 Macros:

Opravdu velmi vtipne :) Kdybys tusil jak velky prinos pro CG NVIDIA znamenala tak bys nepsal takove veci. To ze ATI pouziva ring bus je super, nicmene pokud si myslis ze ho snad vymysleli, tak to se mylis. Tohle jsou myslenky starsi nez ja (a pravdepodobne i ty). Pro me ATI neznamena zadneho velkeho leadera na poli CG (snad az na 3DC, coz by nemusela byt spatna komprese, ale jejimu sireni brani tak trochu sama ATI). NVIDIA je na tom trochu lepe (minimalne o shadery se zaslouzili a to je velmi vyznamny krok). Nicmene nejlepe hodnocenou v tomto smeru je 3DFX a to uz nikdo nikdy nezmeni - to je jedina firma o ktere lze rict, ze byla opravdovym technologickycm leaderem na poli CG pro PC.

Mimochodem to ze ma G80 o 40% mensi vykon nez R600 je sice pekne, ale bohuzel je to potvrzene pouze jednim jedinym grafem na celem svete a to je sakra malo na to aby se tomu dala verit. Az prijde oficialni test na nejakem verohodnem webu tak se o tom da tako mluvit, do te doby ale bude platit to ze ATI nema zadnou kartu na trhu a tedy nema nic (rozumej nejlepsi kartu). Vse ostatni jsou jen spekulace fanousku ATI.

Pokud by to takhle delal kazdy tak si treba ja muzu zalozit firmu na vyrobu GPU, vytvorit si web s nejakym zvucnym jmenem, dat tam nejake fake grafy a tvrdit celemu svetu ze je to test noveho GPU ktery bude mit vyssi vykon nez cokoliv na trhu ... otazka zni ... Veril by si tomu? Asi ne ze? Tak vidis :)

+1
0
-1
Je komentář přínosný?

.. a to mi panove reknete, kdo mi vcera vypil to pivo z lednice

+1
0
-1
Je komentář přínosný?

2 Tom 001: OK, musím s tebou plně souhlasit, že má tvrzení podkládám neoficiálním testem, který je navíc více jak měsíc starý. Ale ten test se mi zdá věrohodný, protože jsem přesně takovéto výsledky očekával (tušil jsem, že v DX9 bude R600 +- stejná jako 8800XTX a také jsem na základě toho jak se chová Xenos a co chtěla AMD-ATI oproti Xenosu vylepšit pro R600 tušil, že v DX10 a high-tech dnešních hrách bude o hodně lepší nežli 8800XTX).
Kdo se zasloužil o shadery to netuším. Ale já osobně za revoluci v modedrní době GPU považuji čip R300 a ten byl oproti nVidii impozantní. R450 a R500 se bohužel z neznámých důvodů velmi opozdili a díky tomu tratili na svém lesku, který by jinak sklidili. S R600 to zatím vypadá nadějně a to i přesto, že nVidia na poli DX10 má už kartu skoro 3 měsíce.
Myslím, že naše teorie potvrdí/vyvrátí až datum 8/3/2007 do té doby můžeme zcela klidně spát :-).

+1
0
-1
Je komentář přínosný?

Tom 001: tvůj způsob porovnání efektivity je ale poněkud samoúčelný, ne-li zcestný. Vůbec netvrdím, že skalární jednotky jsou špatné. Naopak. Jenže skalární čip v podání nVidie je všechno, jen ne efektivní. Nějakých teoretických 30% výkonu plynoucích ze skalární architektury je sice pěkné číslo, nicméně dokud tyto jednotky potřebují 2,5x více tranzistorů a musí běžet na frekvenci o 70% vyšší, aby se vyrovnaly konkurenčnímu řešení, nedá se o efektivitě mluvit. Tvrdit něco o efektivitě na výpočetní jednotku je nesmyslné - výpočetní jednotka se může skládat stejně tak z milionu tranzistorů, jako z deseti milionů. Můžeme porovnávat buďto výkon na tranzistor, výkon na frekvenci, nebo ideálně kombinaci obojího. A obávám se, že ani v jednom z těchto bodů neponese G80 prim. Výkon G80 nepramení z efektivní architektury, ale z frekvence výpočetních jednotek, která je dvojnásobná oproti předchozím generacím GPU...

+1
0
-1
Je komentář přínosný?

Koukám, že ATI fanklub se nám tu docela rozjel. Myslím, že nejlepším měřítkem efektivity je to, jaký poměr výkon/watt budou mít výsledné karty ve skutečných hrách. Frekvence, počty tranzistorů, počty jednotek a pod. to je jen teorie, důležitý je výsledek. GeForce 8800GTX je na tom dost blbě, i když líp, než jsem čekal. Uvidíme, co R600.

+1
0
-1
Je komentář přínosný?

2 no-X:

Tak jinak - kdyz by ti v zari lonskeho roku nekdo rekl ze G80 bude mit takovy vykon jaky ma - veril bys tomu? Ja teda ne, tenkrat se predpokladal mensi narust vykonu, po uverejneni prvnich testu se jim divila spousta lidi, kteri se v komunite kolem CG pohybuji. Takze z toho lze usuzovat ze skalarni jednotky v G80 nejsou zas tak spatne.

Dale - ty povazujes za efektivitu pomer vykonu a poctu tranzistoru, ale to je nesmysl. Efektivitou se mysli schopnost prace vzhledem k maximalnimu moznemu vykonu daneho cipu - o tom tady mluvim. To ze je na jednu skalarni jednotku potreba vice tranzistoru je logicke, to uz sem psal. Jenze toto je nutnost, moderni GPU maji slouzit nejen pro CG, ale take pro obecne vypocty jako jsou predevsim fyzikalni simulace a jine, defacto libovolne, narocne ulohy. V takovych ulohach je skalarni jednotka lepsi, protoze pracuje zcela automne. Kazda jednotka obsahuje svoje pomocne registry, svou logiku, a tedy muze pracovat lepe. To je taky duvod vetsiho mnozstvi tranzistoru. Naopak u vektorove jednotky jsou casto tyto parametry sdileny, nebo deleny na casti vektoru - vektorova jednotka tedy bezny program v C nedokaze vyresit tak efektivne jako skalarni. Samozrejme ze ve vektorovych operacich na tom bude lepe, ale vzhledem k tomu, ze ne kazda operace je vektorova a casem budou mit vektorove operace mensi pomer oproti skalarnim (ted se moc predikce v shaderech nevyuzivaji, casem se budou pouzivat mnohem vic, hlavne v GS), tak jsou skalarni jednotky dobra volba.

Vsak se staci podivat na NVIDIA CUDA a zjistis proc NVIDIA resila GPU tak jak to ted je. S tim co CUDA nabizi se z karty s G80 stava vypocetni nastroj, ktery jen tak nekde neuvidis.

Dalsi diskuse uz asi neni na miste, bude lepsi pockat az ATI vyda R600 a pak ma cenu rikat co je lepsi a co je horsi. Do te doby jsou vsechno ohledne R600 spekulace a pokud jim je nekdo schopen verit, pak by mel prijmout i fakt, ze mam doma prototyp cipu NVIDIA KILLER UFO20X, jehoz vykon je o 100% vyssi nez R600 :) (grafy v powerpointu pripadne na pozadani udelam :) )

+1
0
-1
Je komentář přínosný?

Tom 001
1) Shaderi boli v uz R100, ale na smolu pre ATI ich MS nepodporil. Takze tu by som prvenstvo NV urcite nedaval.
2) Skalarne vypocetne jednotky sice mozu zabezpecit vzdy 100% vyuzitie GPU, ale z pohladu poctu tranzistorov a spotreby energie su na tom horsie ako vektorove. Obvlast to plati pri GPU, kde jedna 4D jednotka vedela robit 1D+3D, alebo 2D+2D a tiez preto ze grafika su same maticove vypocty na 3, alebo 4 zlozkach a vypocty na jednej zlozke su minoritne. O tom ze vektorove vypoctne jednotky sa budu presadzovat svecia aj nove CPU kde bol prave na SSE kladeny velky doraz.
3) Co sa tika ring-busu neviem kdo a kedy ho vymyslel, ale ATI ho pouziva a NV nie je. A celkovo co sa tyka toho zavadzania novych veci NV ma sice skoro vsetko skor, ale vela veci nefunguje tak ako by sa patrilo a dotahuje sa to neskor(asi je to dobre z pohladu marketingu) ved aj dynamic branching bol na starsich NV kartach prakticky nepouzitelny a oproti tomu co predviedla ATI s UTDP to bol len velmi slaby pokus.
PS: Nie som zastanca ATI ani NV, bezim na Inteli, a ani sa nezivim programovanim 3D grafiky, ale nieco som uz s D3D skusal, takze istu predstavu o tom mam.

+1
0
-1
Je komentář přínosný?

Tom 001: argumentuješ tím, že takový výkon od G80 nikdo nečekal... jenže já znovu opakuju, že toho výkonu je dosaženo frekvencí 1350MHz a nikoli skalární architekturou. Pokud by G80 jako celek i se svými skalárními jednotkami běžela na 600MHz, nebyla by víc než o 20% rychlejší, než X1950XTX. A stejně tak - pokud by G71 nebo R580 běžely na 1350MHz, nebyly by pomalejší, než G80.

G80 je velmi zajímavý čip, ale rozhodně to není taková bomba, jak se při jejím vydání zdálo. Sekundární MUL v nedohlednu, CSAA v mnoha hrách nefunguje a jak je to ve skutečnosti s její unifikací, vědí snad jen v nVidii...

+1
0
-1
Je komentář přínosný?

2 ASD_

(1)
Programovatelne jednotky (tj. shadery) zavedla prvni NVIDIA, akorat se zpocatku nejmenovali shadery, ale byly to "register combiners" (tezko se mi hleda nejaky vhodny preklad). Ty byly dost tezkopadne a pouzitelne pouze v OGL a protoze MS nikdy nespi tak se dohodl na spolupraci s NVIDIA a vytvorili SM 1.0 specifikace pro DX.

(2)
Je videt ze si moc nepromyslel co je to vlastne dnesni GPU (na konci prispevku zminujes ze te 3D grafika nezivi, takze to lze chapat). Dnesni GPU je totiz naprosto brutalni multi-paralelni system (technicky receno zretezeny superskalarni system). Jde o to ze vse pracuje soubezne a zaroven zretezene. Tj. posles tam jeden trojuhelnik, on se transformuje, posle do PS a zaroven s PS uz bezi transformace dalsich vertexu ve VS ... to je snad jasne ne? A ted si predstav ze G80 i R600 maji unifikovane shadery (tj. jednotky se prideluji tam kde je zrovna potreba - do VS a PS), dale si predstav ze pribyl novy prvek - Geometry Shader (GS). Takze mas celkove tri mista kam se muzou jednotky pridelovat. No a ted si predstav ze treba v PS je typicka spousta operaci trislozkovych, zatimco v GS se hodne pracuje s predikcema, kde je potreba vetveni a staci skalarni hodnoty. Vezmu-li nejaky umely priklad tak v G80 se v PS zaberou 3 jednotky, v GS 1 a ve VS treba 4. Takhle se to muze pohodlne delit.

Co se ale stane v R600? V PS je potreba provest 3-slozkovou operaci a R600 tedy musi sahnout do nejakeho vektoru a vzit jen cast. Z toho vektoru zbydou 2 nebo 1 slozka. Kdyz zbyde jedna - kde ji pouzijes? Mozna v GS? A kdyz zbydou dve? Pak tu jednu nevyuzijes vubec. No a ted si predstav jak moc tezke je pro ten system rozdelovat optimalne jednotky - v realnem case to je nemozne. Pokud predpokladas ze vsechny jdnotky budou plne vytizene pak se muze stat ze ve spouste vektorovych jednotek bude jeden volny slot, ale nektera cast retezce bude pozadovat 2D operaci a tak bude muset cekat a nikdo s tim nic neudela, pritom treba v systemu bude 20 volnych slotu. U skalarnich jednotek se toto nikdy nestane, maximalni pocet nevyuzitych jednotek je 3 v pripade ze je pozadovana 4D operace a jsou pouze tri volne jednotky . To je vcelku akceptovatelny pripad. Prave z techto duvodu je vektorova architektura spatna, nabizi skvely vykon pro fixni pipelinu, ale v programovatelne a tak komplikovane zretezene pipeline nebudou jednotky dost dobre vyuzite (hodne se to muze projevit prave v DX10)

(3) Co se tyka ring-bus tak ta myslenka je znama uz ze SW pouziti, kde se takove veci obcas daji vyuzit. V HW GPU to je mozna novinka, ale myslenka je proste stejna s klasickym dispatcherem, coz je treba v oblasti sitovych prvku normalni vec. Je fakt ze implementace vetveni nebyla v pocatecnich kartach NVIDIA moc dobra, asi by mi to i vadilo, ale stesti pro NVIDIA bylo to ze v tu dobu se to stejne moc nepouzivalo, takze to nebylo zas tak potreba. Kdyby na to byl kladen vetsi duraz asi by to byl velky problem, ale vzhledem k tomu ze ATI dlouho SM3.0 neimplementovala tak defacto stejne vyvojari her nemohli brat SM3.0 vazne (aby neomezili svoje produkty jen na NVIDIA) a tak se to ani moc na vykonu her neprojevilo. Neco jineho byla oblast obecnych vypoctu na GPU, ale ta byla v te dobe jeste v plenkach.

PS: Taky nejsem zastancem zadne strany, mam sice NVIDIA kartu (a obecne mam NVIDIA radeji kvuli tomu ze sem na ni vyrostl), ale od ATI tvar neodvracim, nejsem ten co rika ze NVIDIA je dokonala a ATI nejhorsi (takovy jednostranny fanatismus nemam rad). Jen nemam rad kdyz se nekdo pusti do diskuse s argumenty, ktere jsou nepodlozene a se znalostmi, ktere nema - proto jsem se take vmisil do teto diskuse.

+1
0
-1
Je komentář přínosný?

2 no-X:

A jak myslis ze se dosahuje vysokych frekvenci v ramci cipu? :) Nenapadlo te naodou nekdy ze ty vysoke frekvence jsou umoznene prave tou skalarni architekturou a vyssim stupnem zretezeni? :)

Mylis se v tom ze G80 neni bomba, ono je to naopak. Spis se cekal propadak a i ty ses urcite tesil jak to ATI nanda NVIDIA ne? :) Jenze NVIDIA dlouho nic neprozrazovala, porad mlzila s tim ze shadery nebudou unifikovane apod. - no a najednou bum, G80 byla tady, vykon vynikajici, obraz take dobry a vsichni se najednou divili.

Navic sila G80 je hlavne ve vyuziti jako stream procesor - viz CUDA. Nedavno preci i AMD vydala svoji verzi karty se streamovacim procesorem, coz nebylo nic jineho nez predelany Radeon, a stala tusim nekolik tisic dolaru, oproti tomu je G80 docela levna hracka s mnohem vyssim vykonem, takze pokud ani toto pro tebe neni bomba tak uz opravdu nevim co chces :) Mozna R600 a radeony opet na vyslunni - ze? :) Tak si pockej do brezna az vyjde a pak se uvidi, do te doby nema cenu spekulovat nad bajnym R600 :)

+1
0
-1
Je komentář přínosný?

Tom 001
Vektorova vypocetna jednotka v GPU moze mat v najhorsom pripade efektivitu ako 2 skalarne(1D+1D, alebo 2D, NV dokonca vedela 2D+2D takze pri 2D by nebola ziadna strata). Pri tom spotrebou a zabranou plochou priblizne zodpoveda 2 skalarnym. Otazka ale je aky je pomer 1D:2D:3D:4D vypoctov v sucasnych hrach, pre 2D ma nenapada ziadne vyuzitie, pre 4D je jasne lepsia vektorova jednotka, v aplikacii ktoru som skusal pisat v D3D prevazovali 3D a 4D vypocty, takze ak v sucasnych hrach prevazuju 3D a 4D vypocty tak je to jasny prinis pre vektorove jednotky ale ak by prevazovali 1D a 2D tak je to sice vyhoda pre skalarne vypocetne jednotky ale aj tak by stacilo 64 vektorovych na dosiahnutie vykonu 128 skalarnych.

+1
0
-1
Je komentář přínosný?

2 ASD_

Vyuziti 2D jednotek lze najit napr. pri uprave tex. coordinatu a obecne v praci s texturovanim. Pak napr. pri extrakcich nejakych informaci napr. ze zkodovanych textur apod.

Podle aktualniho vyvoje je patrne, ze v budoucnu budou prevazovat hlavne 3D a 1D operace, precijen 3D se hojne vyuziva v PS, naopak 1D jsou ciste predikcni zalezitosti a jejich vyuziti bude predevsimv GS, kde se ocekava, ze GPU bude podle parametru nejak urcovat co zahodit, co zduplikovat, kde vytvaret novou geometrii - to jsou vsechno operace vetveni kde se 1D docela hodi.

Mimochodem podle zprav co jsem ted cetl se Intel hodla do 2 let dostat na trh se svymi vlastnimi GPU. Ty by mely byt postavene na podobne myslence supervykonnych malych jednotek jako jsou prave ty v G80, akorat u Intelu by to melo vychazet ze zkusenosti v oblasti CPU, resp. z projektu Tera-Scale kde se snazi tvorit procesor budoucnosti skladanim ze spousty malych a vykonnych jednotek, ktere budou specializovane na urcite vypocty. Predpokladam, ze z techto jednotek vyberou jednotky specializovane na grafiku a pouziji je jako zaklad pro svoje budouci GPU (je to jen spekulace, ale neni uplne nepravdepodobna).

+1
0
-1
Je komentář přínosný?

Tom 001
Ak prevladaju 3D a 1D tak vobec nevidim dovod preco skalarne jednotky, ved vektorova vie pocitat 3D+1D takze ak su ulohy dobre priradovane vypocetnym jednotkam tak vykon jednej 4D jednotky sa bude pribllizovat vykonu styroch 1D. V ziadnom pripade tu nemoze mat navrch architektura so skalarnimi jednotkami. Co sa Intelu tyka tak chcu GPU skladat z viacerych slabsych, ale nemyslim, ze by pouzili skalarna vypocetne jesnotky aj v CPU tlacia do popredia tie vektorove, lebo su efektivnjesie.

+1
0
-1
Je komentář přínosný?

Zajimave cteni, ale jsem rad, ze do toho nevidim. :-) Pro me osobne byly AMD (ATI) grafiky na hrani - sorry, ale v CAD opravdu rubbish. Vzdycky jsem mel tu smulu ze mi v praci nacpali do PC urcenem pro CAD karty od ATI a fakticky prace potom k vzteku, treba uplne bezne ty karty nezobrazi vybrane entity. nVidia je na serioznejsi praci asi lepsi (OpenGL). Ale to je muj nazor, mozna mi to nekdo teoreticky vyvrati, ale moje zkusenosti jsou jake jsou.

+1
0
-1
Je komentář přínosný?

Ijelinek: s tím OpenGL už to delší dobu není jednoznačný, zvlášť co se týká programování (shaderů). Celý problém je v tom, že nVidia drivery se chovají řekněme velmi benevolentně, co se týká korektnosti kódu, takže driver operaci provede prakticky vždy. Naproti tomu driver ATi je naprosto striktní a pokud kód přesně neodpovídá specifikacím, vyhodí chybu. Tohle si moho opengl programátorů "začátečníků" vykládá jako chybu driveru ("na GeForce mi to jede, na Radeonu ne = ATi má blbý OpenGL drivery......"), zatímco problém je ve skutečnosti mezi klávesnicí a židlí. Co se týká CADu, nevím, nemůžu sloužit :-)
 
Tom 001: znovu opakuju, že nekritizuju skalární výpočetní jendotky jako takové, ale kritizuju implementaci. Pokud má být skalární jednotka efektivnější, ale výsledný čip postavený na skalárních jednotkách má efektivitu nižší, pak je někde chyba.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.