Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Finální nVidia CUDA již příští měsíc

Jedna věc mi není jasná: GPU je optimalizováno pro rychlost. Při grafických výpočtech zas tak moc nevadí, když občas dojde k chybě - v obraze cosi problikne a v příštím snímku už to tam není. Ostatně mez snesitelného přetaktování se pozná podle toho, že těch obrazových chyb začne být větší než nepatrné množství. Ale při GPUGPU výpočtech záleží na každém bitu. Opravdu je spolehlivost a výpočtů na GPU srovnatelná s CPU?

+1
+1
-1
Je komentář přínosný?

No, ja myslim, ze GPU ma viac casti a v prvych fazach grafikych vypoctov k chybam nedochadza (transformacie a spol). Az v pred skladanim framov sa zvyknu nejake veci zanedbavat a "vypustat"

+1
+1
-1
Je komentář přínosný?

"...využívá řešení se třemi GPU s celkovým výkonem 705 GFLOPs a spotřebou 70 W..."
nechybi u te spotreby jedna nula?:)

+1
+1
-1
Je komentář přínosný?

samozrejme chybi, dobry postreh ;-)

+1
+1
-1
Je komentář přínosný?

To je sranda jak machrujou a přitom jsou v tomto oboru naprosto mimo místu. AMD/ATI X1900XTX už dávno má 0,554TFLOPS a dnešní HD2900XT ve verzi s 1GB GDDR má přes 1TFLOPS.
A např. takový Xbox360 už dávno má přes 1TFLOPS a PS III dokonce díky CPU CELL má 2,18TFLOPS!!!
Zase typický kalifornský žvásty.

+1
+1
-1
Je komentář přínosný?

No uz aby byl Folding@home pro HD2900, zatim to nefunguje...

+1
+1
-1
Je komentář přínosný?

Macros: a co jako? hazis tady pekny cisilka,ale zatim nikdo nezpristupnil (pokud ja vim) knihovny pro vyuziti techle hodneflopu, takze jsou tak na 2 veci a ne na pocitani.
tomografie pres gpu *thumbsup* to je mazec, kdyz se to takhle urychli. doufam,ze uz to bude brzo i pro 3dmax aspol a nebo pres to pujde pocitat h264 v lepsi kvalite nez kodovani videa pres avivo

+1
+1
-1
Je komentář přínosný?

2 DTSManiac: jsi mě asi špatně pochopil ... jenom jsem narážel na jejich žvásty, jak se vytahují s něčím, kde jsou nejvíce zaostalý.
Já osobně budu šťasten, když dokáží výrobci aspoň HDvideo akcelerovat s plným využítím těch jejich HW kousků a např. můj kolega zase bude štasten, až to bude u všech výrobců karet fungovat konečně důstojně i realtime náhledech při 3D modelování. Zatím se to uplatňuje skvěle pouze v projektech typu Folding@home.

+1
+1
-1
Je komentář přínosný?

Macros tu sice hazi pekna cisilka, to je pravda, jen jsou ty cisilka uplne mimo. HD 2900XT da ten 1TFLOP v crossfire a s 2 CPU z rady Barcelona (tj 2x karta + 2x quadcore CPU), Cell v PS3 ma "jen" 204 GFLOPS. Jak je na tom xbox netusim, ale za to vim ze teoreticky vykon 8800GTX je asi 518GFLOPS a 8800Ultra 576GFLOPS (neni tezke to spocitat ...), samozrejme v realu takoveho vykonu nejde na tech kartach dosahnout, protoze v praxi nikdy nejsou idealni podminky.

+1
+2
-1
Je komentář přínosný?

PJ má pravdu, pěkný čísílka, ale mimo mísu, i s těma číslama má pravdu, navíc v PS3 počítá jenom CELL, a XBOX je zatím jenom herní stroj, zatím není jasno jestli u něho bude počítat procesor, nebo grafika

+1
+1
-1
Je komentář přínosný?

2 PJ: Prosím Tě, proč tu píšeš takové lži?! Mrkni se nejdříve sem a pak něco piš: http://en.wikipedia.org/wiki/FLOPS
Je už nějaký ten rok známo, že stařičká X1900XTX měla přes 0,5TFLOPS, tak jak můžeš tvrdit, že 1x HD2900XT s 1GB má stejný výkon jako více jak rok stará řáda ATIM?!
Proč vůbec takové hlouposti šíříš? A od kdy má podle tebe CELL jenom 200GFLOPS?! Je mi Tě fakt líto.

+1
+1
-1
Je komentář přínosný?

2 PJ: Soráč, omlouvám se Ti, měl jsem špatné informace ohledně cellu. Mrknul jsem na IBM stránky a má teoretické maximum 204GFLOPS, takže máš pravdu.

+1
+1
-1
Je komentář přínosný?

re Macros: rovnou se mu omluv i za toho Radeona. HD2900XT má totiž teoretický výkon "jen" 475 GFlops. A co se týká X1950XTX, tak ta neměla čistý výkon shader jednotek 500GFlops, ale cca 425(a to jen pokud sečteme výkon primárních i sekundárních ps alu a k tomu přičteme výkon vs jednotek). Těch 500GFlops o kterých mluvíš je ještě čarovnější číslo, než tady tyto teoretické hodnoty, protože to někdo sedl a řekl si "jak bychom udělali velkou reklamu?" a přičetl k tomu i výkon dalších podružných jednoúčelových jednotek, které jsou pochopitelně programátorovi absolutně nepřístupné(něco jako bych při počítání teoretického výkonu procesoru připočítával práci, kterou vykoná predikční jednotka - samozřejmě že vykonává nějaké své vnitřní instrukce, ale k tomu se programátor nedostane).

+1
+1
-1
Je komentář přínosný?

Flopsi sem Flopsi tam není třeba se kvůli ním hádat ani omlouvat, důležité je jak nám půjdou gamesy. :-D

+1
+1
-1
Je komentář přínosný?

Este dulezitejsi bude vykon v realu pri GPGPU. Je totiz docela mozny, ze GF8800 ma vic jednodusich jednotek a hloupejsi planovac, takze klidne muze mit teraflopy dva a bude pomalejsi nez HD2900, nebo zase naopak bude HD2900 2x pomalejsi nez GF8800 protoze sice ma chytrejsi planovac a v realu vetsi potencial, ale nema na tu hrubou silu(predpokladam, ze HD2900 bude o trochu rychlejsi nez GF8800, protoze ATI ma vetsi zkusenosti a navrhuje svoje procesory vic jako univerzalni procesor a min jako GPU - je to videt na sbernicich, snaze o vnitrni optimalizaci behu ... Nvidia pouziva hrubou silu a ta se pri paralelizaci spatne ridi). Nu uvidime. 
Cell ma 200gflopu, ale jeho potencial nedokaze skoro nikdo vyuzit, protoze resit kazdou ulohu pomoci 8 vlaken veldle sebe je nesnadna(nemozna) vec. GPU jsou na tom mnohem mnohem hur.

+1
+1
-1
Je komentář přínosný?

Flopsy sem, flopsy tam, kdeže ty loňské watty jsou.

GPGPU zdar a Temelínu zvlášť. Váš ČEZ.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.