Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k nVidia chce pohánět nejrychlejší světové superpočítače

konečně někdo normální, GPU jsou mnohem efektivnější než pitomé CPU. Pak to vypadá jako z českou pitomou Amálkou, která obsahuje XX neefektivních CPU a počitá pitominy (typu jak bude vypadat cesta na mars -za +20let -  to že si jeji nynější pitomé vypočty si dá 10 let před startem prumnernej pocitac jako vedlejší aplikaci nikoho nezajímá). A ještě se s ni chluběj jako buhvíco - to, že to normální ITák sestaví za 1/4 ceny či že to má trapnej výkon 8xGTXnV asi nikoho nezajímá.. Alespon ted nVidia pochopila, že GPU (jako, ja s Lucinkou, která to bohužel neví) má budoucnost ohledně výkonných počítaču. Ne jako vesele si sčítající a odčítající Amálka, které to všechno prochází obvody, které jsou připraveny a očekávají i nějaké ty multimediální instruknce a speciální sady.. a vesele si to hezky bere spoustu proudu...

+1
0
-1
Je komentář přínosný?

to AZOR: Vo čem tady prudíš? Už to nehul,nedelá ti do dobře na mozek...

+1
0
-1
Je komentář přínosný?

jenze prave to pitome cpu umi vse, jenze priblble gpu uz z navrhu dela temer vse paralelne a dela jen to co umi , nic jineho neudela ani kdybyste se na hlavu postavil
 
kdyby to bylo tak primitivni, tak uz kazda fi jako ms , google , seznam, a podobny maji servery postany z par kusu grafik, misto tisicu cpu
 
nekde je asi zakopany pes :))

+1
0
-1
Je komentář přínosný?

Boze, boze, chlapi!

Zalezi na povaze ulohy. Napr. pro pocitani sha1hash je vyhodnejsi mit jeden cpu a par milionu "hloupych" jednotek, chrlicich hashe.

Pro paralelni beh _libovolneho_, znovu opakuji libovolneho, programu musi byt tento bud vlaknove/procesove navrzen, nebo specielne skompilovan a pak je treba aby vsechny CPU jednotky byly plnohodnotne.

Nekde mezi jsou vypocty typu seti-at-home, kde je treba delat FFT nebo pocitani proteinu. Tam opet staci chytry cpu a nekolik rychlych neplnohodnotnych cpu.

Zamerne nedefinuji co znamena plnohodnotny cpu.

+1
0
-1
Je komentář přínosný?

také nejspíše - Google GPU zkusí časem a Seznam to pak zase opráskne za pár let sprostě opráskne. Ano, nejsou to plnohodnotné ins. sady ale o tom to právě je, těžko se dá předokládat, že se při vědeckejch výpočtech bude vyoužívat DivX. A názor na nutné rozdění do threadů mi přijde zcestný - to je pochopilně na každém tomto systému...takže np, jen to bude vypadat trošku jinak

+1
0
-1
Je komentář přínosný?

Dokud je potreba scitat a nasobit, GPU se hodi. Ale jak je potreba vetveni nebo jsou po sobe jdouci instrukce zavisly na vystupu predchozich, jde GPU architektura do haje. Treba ulohy pod BOINC se deli dneska na CPU a GPU (+PS3/XBOX) joby, kdy tech CPU je neustale prebytek, takze se nakonec zase ceka na tech par instrukci, ktery umi jenom CPU. Pokud by nVidia chtela stavet superpocitac, na samotnych GPU ho nepostavi, protoze by vznikla jenom hodne rychla kalkulacka, nic vic.

+1
0
-1
Je komentář přínosný?

Ma to jednu chybicku. CPU + akcelerator uz dlho pouziva CRAY vo forme Opteron + akcelerator na hypertransporte. Takze to nie je nic nove. Za dalsie, NVIDIA je znama odflaknutim presnosti vypoctov a skracovanim si cesty vsade kde to je mozne. Toto nie je dovolene v ziadnom vedeckom vypocte a simulacii, pocitace v TOP500 vyzaduju 64-bitovu presnost vo FP operaciach.

Navyse KAZDA pocitacova architektura ma svoj dovod na existenciu a SVOJE pouzitie, vzdy tu budu pocitace roznych architektur pre ine ucely. Forschungcentrum Juelich ma ako IBM BG/P, tak aj CELL/BE cluster, ako aj mnoho inych typov superpocitacov ktore sa lepsie pouziju na ine veci. Amalka je standardny lacny cluster s Xeon procesormi. Velka vyhoda je v uplnej univerzalnosti matematickej presnosti (procesory intel dokazu pocitat 8-bitovu aritmetiku rychlejsie ako 16-bitovu, a tu rychlejsie ako 32-bit, na rozdiel od AMD kde je doraz na 64/80-bit FP a tam je stale rychlejsi ako Xeony Core2. (oblast TOP500).).

"Superpocitacove" aplikacie sa pisu pre graficke karty uz vela rokov a existuje aj niekolko frameworkov ako free, tak aj platenych (Google si pre vlastnu potrebu kupil jednu taku firmu). Kaspersky antivirus bezi na Radeon R600 grafike a stiha filtrovat gigabitovu sietovu linku za letu.

Nic nove pod slnkom, toto je oblast kde sa jeden kus grafiky preda za najvacsi peniaz a predat ich vela je plan ktory NVIDIA ma.

+1
0
-1
Je komentář přínosný?

trochu poctu
jestli ze 1CPU ma 2.8 a celkem jich je 213 000
pak pri 1GPU ktery ma 500 jich je potreba jenom 1193

coz znamena ze jedno 1 GPU=179 CPU
skoda ze jde "jen o boinc" vypocty

zajimava je i pripadna uspora elektriny 150W x (179x cca80=) 14320W

jen nevim k cemu ten salovej komp pouzivaj, myslim ze spis na monitoring telefonich hovoru v usa a po svete nez na hledani martanu

+1
0
-1
Je komentář přínosný?

Ten sálovej comp používají v Národní laboratoři Lawrence Livermora v Kalifornii a používají ho například pro simulaci stárnutí jaderných reaktorů. IBM BlueGene/L už ale má svého nástupce IBM BlueGene/P s výkonem přes 1 PFLOPS. A nVidia chce pohánět tři ze čtyř superpočítačů - jo já bych toho chtěl :-)) Pánové z nVidie si asi neuvědomují že IBM dělá léta svůj vlastní vývoj jak s GPU, tak vyvýjí svoje CPU - 32-jádrové Power5+, nebo dvouvrstvé dvoujádrové Power6 na 4,4GHz (5GHz) pro každé jádro. GPU je jistě pro některé výpočty (lámání kódů ..) daleko rychlejší než CPU, ale pořád záleží na povaze výpočtů - tří ze čtyř je moc - v realitě bych si tipnul že možná tak jeden, který bude určen přímo pro některé výpočty.

+1
0
-1
Je komentář přínosný?

problem je v tom,ze az G92 ma dvojnasobnu presnost(ak vobec)
http://www.hpcwire.com/hpc/1889153.html
podobne aj R600 ma dvojnasobnu presnost
http://ati.amd.com/products/streamprocessor/specs.html
http://www.amd.com//us-en/Corporate/VirtualPressRoom/0,,51_104_543~12177...

Matematický koprocesor případně numerický koprocesor, někdy zkráceně jen koprocesor (angl. numeric coprocessor, math coprocessor zkráceně MCP nebo floating-point unit zkráceně FPU) je koprocesor určený na vykonávání operácí s čísly s plovoucí desetinnou čárkou. Některé typy matematických koprocesorů jsou schopné vykonávání i složitějších matematických operácí. Matematický koprocesor může být implementovaný jako samostatná jednotka nebo může být součástí CPU.

Jednotka FPU pracuje se třemi formáty čísel s pohyblivou řádovou čárkou:

* single precision (32 bitů) ? podle standardu IEEE
* double precision (64 bitů) ? podle standardu IEEE
* extended precision (80 bitů) nestandardní formát Intelu
http://cs.wikipedia.org/wiki/Matematick%C3%BD_koprocesor

GPU dotrea pracovali s jednoducho presnostou, teda GFLOPS v GPU je ine ako GFLOPS v CPU/FPU....

+1
0
-1
Je komentář přínosný?

Drado: oni mysleli styri z prvej desiatky len, nie 75% vsetkych ;-)
Okrem ineho na najvacsom BG/L skusali cast neuronovych sieti malej plochy mozgu, dalej su dostupne vysledky turbulencii v jadre hviezd, bol tam simulovany cely blok horaku pre spalovacie turbiny, atd. Rozsiahla sprava o pouziti BG/L v praxi je napriklad tu http://www.research.ibm.com/journal/rd52-12.html

+1
0
-1
Je komentář přínosný?

jojo2: máte pravdu - počítá se první desítka - z článku to vyzní tak, že mezi čtyřmi (ne deseti) nejrychlejšími superpošítači budou tři nVidia. NVidia je velmi odvážná a to jí chválím, ale možná by si nejdřív, než začne vymýšlet spojení X desítek, stovek .. jader GPU, měla dořešit problémy ovladačů v grafikách, kde běží víc jak dvě jádra - SLI taky neni pravé ořechové. Ten Váš odkaz je velmi zajímavý a už je tam i zmínka o pokračování na BG/P

+1
0
-1
Je komentář přínosný?

Panove z Nvidie si z nas delaji sprtouchlata :-).

IBM je daleko pred Nvidii. Hlavne jde o to, ze GPU sice muze rychle pocitat, ale jen urcite vypocty a to dost jednoduche.
Zatimco CPU zvlada v pohode i velice slozite operace.
Navic PowerPC od IBM maji vektorovou jednotku Altivac, ktera dovede to same co GPU a rachlostne na stejne urovni. Navic pro IBM neni problem vyrabet CPU ktera maji nekolik techto jednotek. Viz napriklad CELL.

Proste Nvidia ma sanci, ale skutecne nepatrnou ;-).

+1
0
-1
Je komentář přínosný?

Drado: máš úplnou pravdu, že záleží na povaze výpočtů... a to je právě důvod proč GPU superpočítačím vcelku věřím, protože charakter výpočtů, které se na superpočítačích obvykle provádí je pro ně jako stvořený - tj. jednoduché algoritmy, které je s nadné masivně paralelizovat...

+1
0
-1
Je komentář přínosný?

2 Azazel: A jaký je charakter výpočtů a jaké jsou to ty výpočty které se obvykle na superpočítačích provádějí ?

+1
0
-1
Je komentář přínosný?

2 Grovik:

Snad AltiVec, ne ? :) A mimochodem, proti GPU nema sanci protoze odpovida zhruba jedne 4-cestne shader-unit. Takze napr. G92 je 32x rychlejsi na 1 takt ;).

+1
0
-1
Je komentář přínosný?

Azazel: tak znie teoria "Algoritmy ktere je snadne masivne paralelizovat", ale nie je to ziaden med lizat, k masivnej paralelizacii sa dostavame 30 rokov :). Altivec alebo teraz tusim Altivec2? - pekna vec. predtym tusim pod vazvom VMX, vektorova matematicka jednotka a zase, GPU to moze nahradit lacnejsie, ale VMX je 128-bitova. Neviem ako matematicke operacie, ci su len 64-bit FP, ale stale, vacsina GPU taku vec nepotrebuje a tym padom nema ziadnu nativnu podporu, a jedine tie predrazene GPU karty do pracovnych stanic to vedia tusim pouzit. (ma to aj 16-bit rendering na kanal, ale sirka ALU FPU sa nespomina.. ktovie)

Kazdopadne, v jednej studii boli opisane rozne typy architektur a vela dovodov preco jedna z nich nevyhladi vsetky ostatne (ked je teda taka dobra). Mne osobne by stacilo keby aspon nejaka varianta SPICE bola podporovana grafickou kartou, aj by som jej HD3850 na to kupil. Alebo aj X1950 ak by to bezalo na tej.

http://www.euroben.nl/reports/overview07.pdf

ten dokument je tu^^

Overview of recent supercomputers
Aad J. van der Steen
high-performance Computing Group
Utrecht University
P.O. Box 80195
3508 TD Utrecht
The Netherlands

+1
0
-1
Je komentář přínosný?

Pánové, zkuste si sami nějaký algoritmus nad GPU nvidie naprogramovat. Já osobně jsem na tento pokus zareagoval protažením obličeje obrovským zklamáním a pochopil jsem, že tohle díru nikam neudělá.

Možnosti GPU pro výpočty jsou tak minimální a ta architektura je tak špatná a nevhodná pro většinu výpočtů, že je prohlášení nvidie prakticky jen mlácení prázdné slámy. Omezení té architektury jsou tak obrovské, že na velnou většinu výpočtů bude cpu daleko daleko vhodnější a hlavně rychlejší.

Architektura GPU je dělaná na výpočty vhodné pro grafiku, tj. na rychlé velmi primitivňoučké nekomplikované operace s velmi malou přesností.

+1
0
-1
Je komentář přínosný?

Poen: většinou fyzikální simulace - počínaje počasím, přes chemii, biologii, atomové rektory a konče modelováním vesmíru a tak., pak asi nějaká ta kryptologická analýza, jinak mě teď nic nenapadá - každopádně vše to co jsem popsal splňuje podmínku jednoduchosti algoritmu (pozor neplést si s jednoduchostí samotné problematiky) a snadnosti masivní paralelizace.
Je pochopitelné, že grafické karty byly vyvinuty pro jednu konkrétní specifickou činnost a aby bylo možné z nich začít skládat superpočítače bude potřeba ještě hodně práce...

+1
0
-1
Je komentář přínosný?

Miroslav: presne tak, velmi pekne povedane. Zaroven ta jednoduchost a primitivnost im umoznuje velku hustotu integracie a vysoky vykon. Vysoky vykon za cenu jednoduchosti.

+1
0
-1
Je komentář přínosný?

2Azazel: To máš z nějaké čítanky ? Já se chci dozvědět něco konkrétního, když tvrdíš něco o algoritmech zajímají mě ty algoritmy.

Cituji:" a to je právě důvod proč GPU superpočítačím vcelku věřím, protože charakter výpočtů, které se na superpočítačích obvykle provádí je pro ně jako stvořený - tj. jednoduché algoritmy, které je s nadné masivně paralelizovat.."

2Miloslav Ponkrác: TESLA je trochu o něčem jiném. IMHO

+1
0
-1
Je komentář přínosný?

prdlacky. sila je v paralelizaci. dle verohodnejsich analyz nejvypocetnejsimi systemy se budou cim dal tim stavat sitovane herni konzole viz. to co uz predvadi par mesicu PS3

+1
0
-1
Je komentář přínosný?

Dělám diplomku genetický algoritmy na GeForce 8 a furt je to docela blbý, totálně to kolabuje tam, kde jsou potřeba nějaký podmínky nebo trochu chytřejší výpočet... nicméně vzhledem k tomu, že grafiky urazily se shaderema za posledních pár let slušnej kus cesty tomu dávám do budoucna dost šance :)
Nicméně na některý věci to jde už docela použít, třeba jako podpůrnej prostředek pro databázi http://www.gpgpu.org/cgi-bin/blosxom.cgi/Database/index.html apd...

+1
0
-1
Je komentář přínosný?

Poen: :) To se těžko vysvětluje člověku, který nemá programátorské zkušenosti (jestli je máš tak se omlouvám). Všechny úlohy které jsem jmenoval jsou matematické, tj. velké množství matematických operací a minimum podmínek - v tom spočívá ta jednoduchost. Dalším jejich atributem je, že se ty úlohy dají rozdělit na tisíce a milióny podúloh - tj. výpočet je lokální a změna hodnoty v jednom místě ovlivňuje přímo jen bezprostřední okolí a ne systém jako celek a to je právě ta nutná podmínka potřebná k paralelizaci. Když vezmu ty genetické algoritmy, o kterých tu psal PecaPospec, tak tam je v každé generaci každý jedinec nezávisle na ostatních podroben simulaci (nějaký výpočet) aby byl následně zabit, zmutován nebo zkřížen s jiným, máš-li 100 procesorů (nebo jader GPU) můžeš najednou vyhodnocovat 100 jedinců najednou... Ve fyzice je to to samé jenom s atomy/planetami/galaxiemi stejně tak v simulaci počasí a v další úlohách...
 
Lada123: superpočítače i grafické karty o ničem jiném než o paralelizaci nejsou ;) ale ty asi myslíš distribuované výpočty, že?

+1
0
-1
Je komentář přínosný?

2Azazel: Jo tak to jsem si přečetl v časopisech taky :) nyní můžeš zmínit konkrétní algoritmy, třeba ty využívající barvení :)

+1
0
-1
Je komentář přínosný?

Poen : a co chceš jako slyšet? to ti sem mám něco naprogramovat?
vyber si problém, trochu zagůgluj a určitě nějaký ten algoritmus najdeš...

+1
0
-1
Je komentář přínosný?

To neznáš ani jeden ? mohl jsi alespoň zagůglovat ;)

+1
0
-1
Je komentář přínosný?

Poen a Azazel: takze cely problem je na strane PC procesoru ktory vyraba tieto mikroulohy pre GPU, podobne ako pri folding@home CPU sa riadne nadrie na to aby vypotilo pre GPU dostatok nastrihanych malych uloh. Keby to islo same od seba tak by GPU ovladli svet uz zajtra, ale kedze programatori nerastu na stromoch tak sa superpocitace architektury typu Earth Simulator este nejaku dobu vyrabat budu :). (Viem, viem, su cenovo nevyhodne)

Inak.. programujem niekedy 8-bit a verte mi ze je to otrava robit 32- alebo 40-bit matematiku :) Tolko asi k porovnaniu GPU a velkych procesorov s vektorovymi jednotkami.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.