Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k x86 se otřásá v základech: Nvidia skutečně zaintegruje ARM do svých GPU

Vypadá to, že Microsoft s WinRT přišel právě včas.

+1
-1
-1
Je komentář přínosný?

Na tie superpočítače asi WinRT nepôjde.

+1
-1
-1
Je komentář přínosný?

Určitě ne v podobě, v jaké je na Surfacu. Ale je to koneckonců jádro Windows NT zkompilované pro ARM. Přidat podporu dalšího/většího/silnějšího HW nemůže být do budoucna problém.

Pokud pro to vyroste trh, tak nějaký WinRT Enterprise Server asi udělají.

+1
+2
-1
Je komentář přínosný?

Příliš si idealizujete efektivitu ARM procesorů proti x86 a to zejména proto, že srovnáváte procesory určené k něčemu úplně jinému (IB, Haswell).
Relevantní srovnání je s Atomem a tam je situace vyrovnaná - mobil s atomem je výkonnější, než cokoliv jiného (GPU má ale výrazně pomalejší než highend) a současně vydrží podobnou dobu na baterky. Přitom samotný Atom nemá výhodu ve výrobním procesu (je na 32nm). Ostatně porovnejte sami (jedná se sice o test iPhone 5, ale v grafech najdete Motorolu Razr i):
výkon:
http://www.anandtech.com/show/6330/the-iphone-5-review/10
výdrž:
http://www.anandtech.com/show/6330/the-iphone-5-review/13

+1
+1
-1
Je komentář přínosný?

O Atomech se říká, že jsou ve srovnání s ARMy při uživatelských testech línější (pomalejší odezva). To by se v těchto výkonových testech neprojevilo, ne?

+1
0
-1
Je komentář přínosný?

ARMy jsou strašně slabé. Jsou teď hodně in, ale ta blbá I3 má 10x takovej reálnej výkon a reálnou spotřebu méně jak 10x takovou a to o hodně. Má lepší výkon/watt než ARMy. Ty jsou vhodné tam kde neni potřeba téměř žádnej výkon. A o to dost možná u Tesly půjde. Jak jdou generace dále a dále, GPU jsou schopny počítat stále efektivněji a čím dál více rozmanitý kód, neni to jak u prvních generací kdy jejich možnosti byly poměrně omezené. Ale GPU samy nedovedou fungovat jako počítač, musí je něco řídit, musej na něčem sedět co má CPU, řídí prostředky, komunikuje se zbytkem sítě, atd. Kdyby měla ARM jádro v sobě, stala by se taková karta defakto nezávislou, kdyby se na ní integrovalo pár dalších švábů už by ani nepotřebovala zbytečnej drahej a žravej podvozek. A s pokrokem samotných GPU už si možná Dever dovede sám spočítat to co pro Keplera ještě musí dělat ten Opteron. A v taková situaci tam pak už bude jen stačit ten ARM na základní běh IO, OS, a komunikaci s ostatními. Takže tento stav a vývoj mi přichází čistě logický.

+1
-1
-1
Je komentář přínosný?

Záleží čím by to bylo způsobeno, spíše by se to projevilo. Myslím ale, že tady mícháš dohromady různé platformy (windows a android). O Atomech se to říká na desktopových OS (a je to pravda), protože mají relativně hodně slabý výkon na vlákno proti klasickým x86 a windows na to nejsou stavěné.
Na mobilech (tedy Android) je naopak Atom v té samé disciplíně králem a opravdu bych nečekal, že problém s odezvou bude i tady - spíše naopak. Co je ale možné, že dost aplikací ještě není přizpůsobena x86 na Androidu a v těch může být problém s výkonem, přestože je jinak Atom svižnější než současné ARMy.

+1
0
-1
Je komentář přínosný?

To že je Atom lepší jak ARMy jen dokazuje to jak strašně slabé ty ARMy jsou. Atom je rychlej +- jak Pentium 3 kolem 1Ghz a to ještě jak kde. Ve výpočetní farmě taky moc nejde o odezvu, tu má vždy mizernou protože musíš úlohu rozložit na stovky nezávislejch výpočetních clusterů. Ten arm tam bude sloužit k této komunikaci, k tomu neni potřeba prakticky žándnej výkon.

+1
+1
-1
Je komentář přínosný?

Zkus si rozebrat ten sranda test Ananda ip5 vs Razr i.

1. Jaký je rozdíl frekvencí u těchto cpu?
2. O kolik v průměru Atom vyhrál výkonem (většinou v single-thread testech)?
3. O kolik vyhrál iP5 ve spotřebě?

Závěr si udělej sám :-)

+1
+1
-1
Je komentář přínosný?

Panove, co to tady zvanite? Divali jste se na ty testy? Vzdyt ten Atom zvitezil leda tak nad slabouckym procesorem od Samsungu. Jinak dostal od ARM tvrdou lekci? A to ze je ten procesor jednojadrovy vubec nic neznamena, jak vite, kolik jader a jaky zpusobem bude Intel schopnej do toho Atomu implementovat? ARM uz dneska ma v podobe pripravovaneho MTK6599 8 jader a urcite to neni konecna. No jiste ze soutezit s x86 typu core i5 nebo core i7 to nebude, ale vykonem uz jsou nekde na urovni prvnich Core2Duo a spotreba je uplne nekde jinde!

+1
+1
-1
Je komentář přínosný?

presne tak

v Intelu i AMD moc dobre vedi ze ARM je prone dobudoucna hrozbou, a je uplne jedno jestli je ta budoucnost vzdalena 5 nebo 20 let :)

+1
+2
-1
Je komentář přínosný?

Ja mam Intel rad, x86 (x64) procesory urcite sve misto maji a za lidove penize neni nic co by je vykonem mohlo ohrozit. Problem Intelu podle meho je, ze pokud potrebuju vykon A a ten vykon mi da levnejsi a uspornejsi procesor od ARM, proc bych platil za vykon A+100%, ktery mi nabidne x86 procesor, takze ARM prebira Intelu cast trhu. Intelu se podarilo vyrobit k ARM konkurecni Atom, ale ten v soucasne dobe nad ARM nijak nedominuje, staci se mrknout do tech grafu AnandTechu. Je pekny, ze Intel tvrdi, ze dvoujadrovy Atom dominovat bude, ale nad soucasnymi 4jadrovymi ARM, jenze tou dobou klidne ARM muze mit 8jadra. Zatim teda Intel nijak nepresvedcil, ze ARM dokaze porazit.

Co se tyka AMD, tak tem to muze byt uplne jedno, maji zkusenosti, maji x86 CPU, maji GPU, nalicencujou ARM a klidne muzou byt za chvili lidry trhu, zalezi jen na nich.

+1
+1
-1
Je komentář přínosný?

Dnes je atom proste in a cool a frci ale realne to vykonovo fakt nieje trhac asfaltu a konkurent x86. A co sa tyka spotreby vykon na watt tiez si nemyslim ze to bude nejake terno. Skor armu sa podla mna momentalne dari vdaka ich licencnej politike, kde vyrobca si moze vybrat co chce a v akom rozsahu licencovat a potom si to este popripade upravit. To je oproti uzavretej platforme x86 obrovska vyhoda kde intel vlastne nedava ziadne moznosti upravy zakaznikom.
Co sa tyka kariet tak tam je to zatial fakt varenie z vody. Pokial nebudu chciet spravit dalsi produkt kde ta karta bude naozaj sebestacna a v podstate to bude taky SoB :-) ( single on board :-)) pocitac, budu stale potrebovat nejake to konvencne zelezo naokolo. Na druhu stranu ak z toho, gpu+arm, spravia naozaj samostany kus hw tak sa to bude docela tazko ntetrovat do nejakej workstation.

+1
+3
-1
Je komentář přínosný?

v Nvidii s takovim systemem jiz zkusenosti maji, kuprikladu Quadroplex nebo primo rackove 1U Tesly, a asi dobre vedi co jejich zakaznici pozaduji a co jim tedy dobudoucna chteji nabydnout za HW

jiz v minulosti naznacovali ze by radi prinesli vlastni HW system nezavisli na x86, a ARM jim k tomu znacne dopomaha

+1
0
-1
Je komentář přínosný?

No jo, a AMD sa snazi urobit nieco podobne-ide do ARM a pri tom zlaty poklad maju priamo pod nosom. Spominate si na projekt Fusion a na to, preco vlastne kupovali ATI? Fusion malo byt spojenie procesora plus grafiky ako koprocesora. Jednoducho spustite operacny system a svoju aplikaciu ktora je vypoctovo narocna. A bez toho, aby bola aplikacia nejako specialne naprogramovana vam to da vykon, o akom sa vam nesnivalo. Lenze po tolkych rokoch urobili chlapci z AMD z projektu Fusion obycajny paskvil. Gr. karta je na procesore iba ako obycajne zobrazovadlo a ked ju chcete vyuzit, tak musite mat specialne naprogramovanu aplikaciu. No, AMD malo oproti Nvidii minimalne 7 rokov naskok vo vyvoji a na trh nepriniesli z projektu Fusion nic. Nvidia sa teraz o to pokusa na ARM, AMD vraj asi tiez-aspon podla poslednych sprav. Lenze v AMD s tym na trh nepridu asi nikdy. V x86 architekture sa im to nepodarilo doteraz-graficka cast je obycajne zobrazovadlo a na ARM to podla mna dopadne podobne. A pri tom som im tak fandil, pretoze ta myslienka je proste genialna.

+1
+1
-1
Je komentář přínosný?

Dle mého ta myšlenka stále padá na tom co jsem kdysi tvrdil, ala že GPU je výpočetně silné, ale oproti klasické x87 strašně latentní + vyžaduje specifický kód. Nemůžeme tedy x87 instrukce poslat na spočítání do GPU pokud celej thread visí a čeká na to jak ten výpočet dopadne, a samotnej úkon neni moc náročnej ale je potřeba jej udělat co nejdřívě a pak bude následovat další, podobnej. Na tohle GPU zatim moc neni. Proč kdysi mělo Pentium lepší herní výsledky než Cyrix 6x86? Silnější ten CPU rozhodně nebyl, ale jeho FPU byla součástí pipeline a minimálně latentní. + U AMD tomu rozhodně nepomahá to, že jejich APU maj zatím vždy o generaci zastaralou architekturu GPU části než to co nabízej v desktop kartách...

+1
0
-1
Je komentář přínosný?

Takhle to ale nefunguje a nikdy ani fungovat nemělo!
X87 je zastaralá ISA a žádný GPU ji ani nepodporuje. Cpu nebude nikdy odesílat jednotlivou instrukci k výpočtu na gpu.
Stručně a zjednodušeně řečeno. Současné gpgpu aplikace jsou založeny na bázi host-kernel, kdy cpu jako host pouze poskytuje kernelům (programy/funkce běžící na gpu) data pro jejich výpočty. Tyto výpočty jsou díky sice pomalejším, zato početnějším výpočetním jednotkám na gpu, prováděny mnohem (násobně) rychleji nežli by je provedl cpu.
Tento princip se týká jak APU, tak i cpu s dgpu. Výhoda APU pak leží v tom, že data, která si mezi sebou cpu a gpu vyměňují, "netečou" přes pomalou a latentní pcie sběrnici.
Na tento princip pak navazuje AMD projektem FSA (dříve HSA) a celkem dramaticky ho vylepšuje.

+1
+1
-1
Je komentář přínosný?

No ja teda clanek pochopil tak, ze karty, ktere jsou urcene vyhradne pro vypocty (a ne pro hrani kvejka), budou mit i nejake jednoduche ARM jadro, ktere je bude plnit datama, aby tam nemuselo byt plnohodnotne CPU, ktere se bude 99% casu flakat .... pak jim bude stacit tohle vsechno pospojovat, zapojit do zasuvky a jedou ... nebudou potrebovat slozite zakladni desky s CPU, zbytecnyma konektrama atd .... proste to bude takova graficka karta pro vypocty ovladana pres raspberry pi:o)

+1
-1
-1
Je komentář přínosný?

Představ si to tak, že se jedná o klasické APU, které však má svoji cpu část založenou na ARM(v8) a nikoliv na x86.
Otázkou je, co dalšího a jaká bude vnitřní organizace tohoto "APU" :)

+1
+1
-1
Je komentář přínosný?

Dokola rovnake natahovacky.Jedni pridavaju k CPU graficku cast,druhy zase ku grafickej casti CPU.Odhliadnuc od nazvoslovia X86,GPGU,ARM atd vysledkom su len rozne preskupene tranzistory podla konkretnej potreby. Zbytok je marketing...

+1
+1
-1
Je komentář přínosný?

Jaj 9MW. Pokud to jede nepřetržitě tak to ročně zblajzne 9000*3kc*24h*365d přes 200mega jen za elektřinu, nechtěl bych to živit...

+1
0
-1
Je komentář přínosný?

Nechci ti brát iluze, ale skoro bych řekl, že stejně jako měli v Oak Ridge na Tesly K20 výhodnější cenu než my "běžní plebs", budou mít levněji i elektřinu. Určitě o dost levněji než za kolik jí zde dodává jistý takřka-monopolní výrobce/distributor.

+1
-1
-1
Je komentář přínosný?

No dyť já jim taky počítal "zvýhodněnou cenu" :0)) za "normální" u nás by se taky mohli dostat na půl miliardy za rok... Jinak mi začíná být jasné, proč si podobný superpočítač nemůže dovolit žádná instituce u nás. I kdyby sehnali peníze na počáteční investici z nějakého toho eu fondu, tak dojedou na výdaje za údržbu a provoz.

+1
-1
-1
Je komentář přínosný?

asi zapominas na par drobnosti

v takovemto objemu se elektrina nekupuje tak jak si myslis, ale je kupovana na energeticke burze, takze cena muze byt hooodne jina, a pokud by si nejaky takovito HPC mohla dovolit jakakoliv instituce u nas, tak by jiste pocitala i s cenou udrzby a provozu a take s tim, jak by takove HPC nasebe vydelalo odpovidajici sumu :)

+1
0
-1
Je komentář přínosný?

Obávám se že pořád to bude ve stamilionech a navíc zřejmě netušíš jak u nás v poslední době fungují vědecké/univerzitní organizace což je přesně to o čem jsem mluvil...

+1
-1
-1
Je komentář přínosný?

Na http://www.dailytech.com/Farm+Town+Upset+About+Microsoft+Data+Centers+Po... je článek o tom, jak po microsoftu chtěli pokutu, za to, že jeho datacentrum neodebralo nasmlouvané kWh. Pokuta byla 3x vyšší než cena za neodebranou energii :-). Zmiňujou tam ceny 2.5-3.8 cents za kWh, tzn 0,5-0,75 Kč/kWh.

+1
+2
-1
Je komentář přínosný?

To nezní moc reálně, když uvážíme, že i výrobní náklady v atomovce jsou vyšší :0)

+1
0
-1
Je komentář přínosný?

Kdybyste kliknul na ten odkaz a přečetl si pár prvních vět, zjistil byste, že ta cena se týká levné eletriky z hydroelektráren. Taky tam uvádí průměrnou cenu eletriky v USA - 6-7 cents/kilowatt-hour.

+1
-1
-1
Je komentář přínosný?

Peníze na počáteční investici už sehnali: http://www.ceskatelevize.cz/ct24/regiony/129849-v-ostrave-startuje-proje...
Jestli budou mít peníze na to občas to pustit se teprve uvidí.

+1
+1
-1
Je komentář přínosný?

Takhle to u nás ovšem nefunguje. Nejde si koupit elektriku z jedné konkrétní elektrárny. Navíc u nás třeba vodní elektrárny vyrobí naprosté minimum energie.

+1
-1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.