Vypadá to, že Microsoft s WinRT přišel právě včas.
+1
-1
-1
Je komentář přínosný?
Vypadá to, že Microsoft s
Jaroslav Houdek https://diit.cz/profil/elhocid
2. 11. 2012 - 12:04https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseVypadá to, že Microsoft s WinRT přišel právě včas.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636089
+
Určitě ne v podobě, v jaké je na Surfacu. Ale je to koneckonců jádro Windows NT zkompilované pro ARM. Přidat podporu dalšího/většího/silnějšího HW nemůže být do budoucna problém.
Pokud pro to vyroste trh, tak nějaký WinRT Enterprise Server asi udělají.
+1
+2
-1
Je komentář přínosný?
Určitě ne v podobě, v jaké je
Jaroslav Houdek https://diit.cz/profil/elhocid
2. 11. 2012 - 17:07https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseUrčitě ne v podobě, v jaké je na Surfacu. Ale je to koneckonců jádro Windows NT zkompilované pro ARM. Přidat podporu dalšího/většího/silnějšího HW nemůže být do budoucna problém.
Pokud pro to vyroste trh, tak nějaký WinRT Enterprise Server asi udělají.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636114
+
Příliš si idealizujete efektivitu ARM procesorů proti x86 a to zejména proto, že srovnáváte procesory určené k něčemu úplně jinému (IB, Haswell).
Relevantní srovnání je s Atomem a tam je situace vyrovnaná - mobil s atomem je výkonnější, než cokoliv jiného (GPU má ale výrazně pomalejší než highend) a současně vydrží podobnou dobu na baterky. Přitom samotný Atom nemá výhodu ve výrobním procesu (je na 32nm). Ostatně porovnejte sami (jedná se sice o test iPhone 5, ale v grafech najdete Motorolu Razr i):
výkon: http://www.anandtech.com/show/6330/the-iphone-5-review/10
výdrž: http://www.anandtech.com/show/6330/the-iphone-5-review/13
+1
+1
-1
Je komentář přínosný?
Příliš si idealizujete
ptipi https://diit.cz/profil/ptipi
2. 11. 2012 - 13:06https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskusePříliš si idealizujete efektivitu ARM procesorů proti x86 a to zejména proto, že srovnáváte procesory určené k něčemu úplně jinému (IB, Haswell).
Relevantní srovnání je s Atomem a tam je situace vyrovnaná - mobil s atomem je výkonnější, než cokoliv jiného (GPU má ale výrazně pomalejší než highend) a současně vydrží podobnou dobu na baterky. Přitom samotný Atom nemá výhodu ve výrobním procesu (je na 32nm). Ostatně porovnejte sami (jedná se sice o test iPhone 5, ale v grafech najdete Motorolu Razr i):
výkon:
http://www.anandtech.com/show/6330/the-iphone-5-review/10
výdrž:
http://www.anandtech.com/show/6330/the-iphone-5-review/13https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636092
+
O Atomech se říká, že jsou ve srovnání s ARMy při uživatelských testech línější (pomalejší odezva). To by se v těchto výkonových testech neprojevilo, ne?
+1
0
-1
Je komentář přínosný?
O Atomech se říká, že jsou ve
Radek Liška https://diit.cz/profil/blackfox
2. 11. 2012 - 13:16https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseO Atomech se říká, že jsou ve srovnání s ARMy při uživatelských testech línější (pomalejší odezva). To by se v těchto výkonových testech neprojevilo, ne?https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636094
+
ARMy jsou strašně slabé. Jsou teď hodně in, ale ta blbá I3 má 10x takovej reálnej výkon a reálnou spotřebu méně jak 10x takovou a to o hodně. Má lepší výkon/watt než ARMy. Ty jsou vhodné tam kde neni potřeba téměř žádnej výkon. A o to dost možná u Tesly půjde. Jak jdou generace dále a dále, GPU jsou schopny počítat stále efektivněji a čím dál více rozmanitý kód, neni to jak u prvních generací kdy jejich možnosti byly poměrně omezené. Ale GPU samy nedovedou fungovat jako počítač, musí je něco řídit, musej na něčem sedět co má CPU, řídí prostředky, komunikuje se zbytkem sítě, atd. Kdyby měla ARM jádro v sobě, stala by se taková karta defakto nezávislou, kdyby se na ní integrovalo pár dalších švábů už by ani nepotřebovala zbytečnej drahej a žravej podvozek. A s pokrokem samotných GPU už si možná Dever dovede sám spočítat to co pro Keplera ještě musí dělat ten Opteron. A v taková situaci tam pak už bude jen stačit ten ARM na základní běh IO, OS, a komunikaci s ostatními. Takže tento stav a vývoj mi přichází čistě logický.
+1
-1
-1
Je komentář přínosný?
ARMy jsou strašně slabé. Jsou
j j https://diit.cz/profil/doczenith
2. 11. 2012 - 13:42https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseARMy jsou strašně slabé. Jsou teď hodně in, ale ta blbá I3 má 10x takovej reálnej výkon a reálnou spotřebu méně jak 10x takovou a to o hodně. Má lepší výkon/watt než ARMy. Ty jsou vhodné tam kde neni potřeba téměř žádnej výkon. A o to dost možná u Tesly půjde. Jak jdou generace dále a dále, GPU jsou schopny počítat stále efektivněji a čím dál více rozmanitý kód, neni to jak u prvních generací kdy jejich možnosti byly poměrně omezené. Ale GPU samy nedovedou fungovat jako počítač, musí je něco řídit, musej na něčem sedět co má CPU, řídí prostředky, komunikuje se zbytkem sítě, atd. Kdyby měla ARM jádro v sobě, stala by se taková karta defakto nezávislou, kdyby se na ní integrovalo pár dalších švábů už by ani nepotřebovala zbytečnej drahej a žravej podvozek. A s pokrokem samotných GPU už si možná Dever dovede sám spočítat to co pro Keplera ještě musí dělat ten Opteron. A v taková situaci tam pak už bude jen stačit ten ARM na základní běh IO, OS, a komunikaci s ostatními. Takže tento stav a vývoj mi přichází čistě logický.
https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636095
+
Záleží čím by to bylo způsobeno, spíše by se to projevilo. Myslím ale, že tady mícháš dohromady různé platformy (windows a android). O Atomech se to říká na desktopových OS (a je to pravda), protože mají relativně hodně slabý výkon na vlákno proti klasickým x86 a windows na to nejsou stavěné.
Na mobilech (tedy Android) je naopak Atom v té samé disciplíně králem a opravdu bych nečekal, že problém s odezvou bude i tady - spíše naopak. Co je ale možné, že dost aplikací ještě není přizpůsobena x86 na Androidu a v těch může být problém s výkonem, přestože je jinak Atom svižnější než současné ARMy.
+1
0
-1
Je komentář přínosný?
Záleží čím by to bylo
ptipi https://diit.cz/profil/ptipi
2. 11. 2012 - 14:00https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseZáleží čím by to bylo způsobeno, spíše by se to projevilo. Myslím ale, že tady mícháš dohromady různé platformy (windows a android). O Atomech se to říká na desktopových OS (a je to pravda), protože mají relativně hodně slabý výkon na vlákno proti klasickým x86 a windows na to nejsou stavěné.
Na mobilech (tedy Android) je naopak Atom v té samé disciplíně králem a opravdu bych nečekal, že problém s odezvou bude i tady - spíše naopak. Co je ale možné, že dost aplikací ještě není přizpůsobena x86 na Androidu a v těch může být problém s výkonem, přestože je jinak Atom svižnější než současné ARMy.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636098
+
To že je Atom lepší jak ARMy jen dokazuje to jak strašně slabé ty ARMy jsou. Atom je rychlej +- jak Pentium 3 kolem 1Ghz a to ještě jak kde. Ve výpočetní farmě taky moc nejde o odezvu, tu má vždy mizernou protože musíš úlohu rozložit na stovky nezávislejch výpočetních clusterů. Ten arm tam bude sloužit k této komunikaci, k tomu neni potřeba prakticky žándnej výkon.
+1
+1
-1
Je komentář přínosný?
To že je Atom lepší jak ARMy
j j https://diit.cz/profil/doczenith
2. 11. 2012 - 17:37https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseTo že je Atom lepší jak ARMy jen dokazuje to jak strašně slabé ty ARMy jsou. Atom je rychlej +- jak Pentium 3 kolem 1Ghz a to ještě jak kde. Ve výpočetní farmě taky moc nejde o odezvu, tu má vždy mizernou protože musíš úlohu rozložit na stovky nezávislejch výpočetních clusterů. Ten arm tam bude sloužit k této komunikaci, k tomu neni potřeba prakticky žándnej výkon. https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636117
+
Zkus si rozebrat ten sranda test Ananda ip5 vs Razr i.
1. Jaký je rozdíl frekvencí u těchto cpu?
2. O kolik v průměru Atom vyhrál výkonem (většinou v single-thread testech)?
3. O kolik vyhrál iP5 ve spotřebě?
Závěr si udělej sám :-)
+1
+1
-1
Je komentář přínosný?
Zkus si rozebrat ten sranda
webwalker https://diit.cz/profil/webwalker
2. 11. 2012 - 21:48https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseZkus si rozebrat ten sranda test Ananda ip5 vs Razr i.
1. Jaký je rozdíl frekvencí u těchto cpu?
2. O kolik v průměru Atom vyhrál výkonem (většinou v single-thread testech)?
3. O kolik vyhrál iP5 ve spotřebě?
Závěr si udělej sám :-)https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636137
+
Panove, co to tady zvanite? Divali jste se na ty testy? Vzdyt ten Atom zvitezil leda tak nad slabouckym procesorem od Samsungu. Jinak dostal od ARM tvrdou lekci? A to ze je ten procesor jednojadrovy vubec nic neznamena, jak vite, kolik jader a jaky zpusobem bude Intel schopnej do toho Atomu implementovat? ARM uz dneska ma v podobe pripravovaneho MTK6599 8 jader a urcite to neni konecna. No jiste ze soutezit s x86 typu core i5 nebo core i7 to nebude, ale vykonem uz jsou nekde na urovni prvnich Core2Duo a spotreba je uplne nekde jinde!
+1
+1
-1
Je komentář přínosný?
Panove, co to tady zvanite?
RedMaX https://diit.cz/profil/redmarx
3. 11. 2012 - 03:29https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskusePanove, co to tady zvanite? Divali jste se na ty testy? Vzdyt ten Atom zvitezil leda tak nad slabouckym procesorem od Samsungu. Jinak dostal od ARM tvrdou lekci? A to ze je ten procesor jednojadrovy vubec nic neznamena, jak vite, kolik jader a jaky zpusobem bude Intel schopnej do toho Atomu implementovat? ARM uz dneska ma v podobe pripravovaneho MTK6599 8 jader a urcite to neni konecna. No jiste ze soutezit s x86 typu core i5 nebo core i7 to nebude, ale vykonem uz jsou nekde na urovni prvnich Core2Duo a spotreba je uplne nekde jinde!https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636145
+
v Intelu i AMD moc dobre vedi ze ARM je prone dobudoucna hrozbou, a je uplne jedno jestli je ta budoucnost vzdalena 5 nebo 20 let :)
+1
+2
-1
Je komentář přínosný?
presne tak
v Intelu i AMD moc
SamanCZ (neověřeno) https://diit.cz
3. 11. 2012 - 09:56https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskusepresne tak
v Intelu i AMD moc dobre vedi ze ARM je prone dobudoucna hrozbou, a je uplne jedno jestli je ta budoucnost vzdalena 5 nebo 20 let :)https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636150
+
Ja mam Intel rad, x86 (x64) procesory urcite sve misto maji a za lidove penize neni nic co by je vykonem mohlo ohrozit. Problem Intelu podle meho je, ze pokud potrebuju vykon A a ten vykon mi da levnejsi a uspornejsi procesor od ARM, proc bych platil za vykon A+100%, ktery mi nabidne x86 procesor, takze ARM prebira Intelu cast trhu. Intelu se podarilo vyrobit k ARM konkurecni Atom, ale ten v soucasne dobe nad ARM nijak nedominuje, staci se mrknout do tech grafu AnandTechu. Je pekny, ze Intel tvrdi, ze dvoujadrovy Atom dominovat bude, ale nad soucasnymi 4jadrovymi ARM, jenze tou dobou klidne ARM muze mit 8jadra. Zatim teda Intel nijak nepresvedcil, ze ARM dokaze porazit.
Co se tyka AMD, tak tem to muze byt uplne jedno, maji zkusenosti, maji x86 CPU, maji GPU, nalicencujou ARM a klidne muzou byt za chvili lidry trhu, zalezi jen na nich.
+1
+1
-1
Je komentář přínosný?
Ja mam Intel rad, x86 (x64)
RedMaX https://diit.cz/profil/redmarx
3. 11. 2012 - 11:32https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseJa mam Intel rad, x86 (x64) procesory urcite sve misto maji a za lidove penize neni nic co by je vykonem mohlo ohrozit. Problem Intelu podle meho je, ze pokud potrebuju vykon A a ten vykon mi da levnejsi a uspornejsi procesor od ARM, proc bych platil za vykon A+100%, ktery mi nabidne x86 procesor, takze ARM prebira Intelu cast trhu. Intelu se podarilo vyrobit k ARM konkurecni Atom, ale ten v soucasne dobe nad ARM nijak nedominuje, staci se mrknout do tech grafu AnandTechu. Je pekny, ze Intel tvrdi, ze dvoujadrovy Atom dominovat bude, ale nad soucasnymi 4jadrovymi ARM, jenze tou dobou klidne ARM muze mit 8jadra. Zatim teda Intel nijak nepresvedcil, ze ARM dokaze porazit.
Co se tyka AMD, tak tem to muze byt uplne jedno, maji zkusenosti, maji x86 CPU, maji GPU, nalicencujou ARM a klidne muzou byt za chvili lidry trhu, zalezi jen na nich.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636154
+
Dnes je atom proste in a cool a frci ale realne to vykonovo fakt nieje trhac asfaltu a konkurent x86. A co sa tyka spotreby vykon na watt tiez si nemyslim ze to bude nejake terno. Skor armu sa podla mna momentalne dari vdaka ich licencnej politike, kde vyrobca si moze vybrat co chce a v akom rozsahu licencovat a potom si to este popripade upravit. To je oproti uzavretej platforme x86 obrovska vyhoda kde intel vlastne nedava ziadne moznosti upravy zakaznikom.
Co sa tyka kariet tak tam je to zatial fakt varenie z vody. Pokial nebudu chciet spravit dalsi produkt kde ta karta bude naozaj sebestacna a v podstate to bude taky SoB :-) ( single on board :-)) pocitac, budu stale potrebovat nejake to konvencne zelezo naokolo. Na druhu stranu ak z toho, gpu+arm, spravia naozaj samostany kus hw tak sa to bude docela tazko ntetrovat do nejakej workstation.
+1
+3
-1
Je komentář přínosný?
Dnes je atom proste in a cool
aa bb https://diit.cz/profil/nemo22
2. 11. 2012 - 14:57https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseDnes je atom proste in a cool a frci ale realne to vykonovo fakt nieje trhac asfaltu a konkurent x86. A co sa tyka spotreby vykon na watt tiez si nemyslim ze to bude nejake terno. Skor armu sa podla mna momentalne dari vdaka ich licencnej politike, kde vyrobca si moze vybrat co chce a v akom rozsahu licencovat a potom si to este popripade upravit. To je oproti uzavretej platforme x86 obrovska vyhoda kde intel vlastne nedava ziadne moznosti upravy zakaznikom.
Co sa tyka kariet tak tam je to zatial fakt varenie z vody. Pokial nebudu chciet spravit dalsi produkt kde ta karta bude naozaj sebestacna a v podstate to bude taky SoB :-) ( single on board :-)) pocitac, budu stale potrebovat nejake to konvencne zelezo naokolo. Na druhu stranu ak z toho, gpu+arm, spravia naozaj samostany kus hw tak sa to bude docela tazko ntetrovat do nejakej workstation.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636104
+
v Nvidii s takovim systemem jiz zkusenosti maji, kuprikladu Quadroplex nebo primo rackove 1U Tesly, a asi dobre vedi co jejich zakaznici pozaduji a co jim tedy dobudoucna chteji nabydnout za HW
jiz v minulosti naznacovali ze by radi prinesli vlastni HW system nezavisli na x86, a ARM jim k tomu znacne dopomaha
+1
0
-1
Je komentář přínosný?
v Nvidii s takovim systemem
SamanCZ (neověřeno) https://diit.cz
2. 11. 2012 - 15:23https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskusev Nvidii s takovim systemem jiz zkusenosti maji, kuprikladu Quadroplex nebo primo rackove 1U Tesly, a asi dobre vedi co jejich zakaznici pozaduji a co jim tedy dobudoucna chteji nabydnout za HW
jiz v minulosti naznacovali ze by radi prinesli vlastni HW system nezavisli na x86, a ARM jim k tomu znacne dopomahahttps://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636105
+
No jo, a AMD sa snazi urobit nieco podobne-ide do ARM a pri tom zlaty poklad maju priamo pod nosom. Spominate si na projekt Fusion a na to, preco vlastne kupovali ATI? Fusion malo byt spojenie procesora plus grafiky ako koprocesora. Jednoducho spustite operacny system a svoju aplikaciu ktora je vypoctovo narocna. A bez toho, aby bola aplikacia nejako specialne naprogramovana vam to da vykon, o akom sa vam nesnivalo. Lenze po tolkych rokoch urobili chlapci z AMD z projektu Fusion obycajny paskvil. Gr. karta je na procesore iba ako obycajne zobrazovadlo a ked ju chcete vyuzit, tak musite mat specialne naprogramovanu aplikaciu. No, AMD malo oproti Nvidii minimalne 7 rokov naskok vo vyvoji a na trh nepriniesli z projektu Fusion nic. Nvidia sa teraz o to pokusa na ARM, AMD vraj asi tiez-aspon podla poslednych sprav. Lenze v AMD s tym na trh nepridu asi nikdy. V x86 architekture sa im to nepodarilo doteraz-graficka cast je obycajne zobrazovadlo a na ARM to podla mna dopadne podobne. A pri tom som im tak fandil, pretoze ta myslienka je proste genialna.
+1
+1
-1
Je komentář přínosný?
No jo, a AMD sa snazi urobit
Honza AMD https://diit.cz/profil/honzafromamd
2. 11. 2012 - 17:02https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseNo jo, a AMD sa snazi urobit nieco podobne-ide do ARM a pri tom zlaty poklad maju priamo pod nosom. Spominate si na projekt Fusion a na to, preco vlastne kupovali ATI? Fusion malo byt spojenie procesora plus grafiky ako koprocesora. Jednoducho spustite operacny system a svoju aplikaciu ktora je vypoctovo narocna. A bez toho, aby bola aplikacia nejako specialne naprogramovana vam to da vykon, o akom sa vam nesnivalo. Lenze po tolkych rokoch urobili chlapci z AMD z projektu Fusion obycajny paskvil. Gr. karta je na procesore iba ako obycajne zobrazovadlo a ked ju chcete vyuzit, tak musite mat specialne naprogramovanu aplikaciu. No, AMD malo oproti Nvidii minimalne 7 rokov naskok vo vyvoji a na trh nepriniesli z projektu Fusion nic. Nvidia sa teraz o to pokusa na ARM, AMD vraj asi tiez-aspon podla poslednych sprav. Lenze v AMD s tym na trh nepridu asi nikdy. V x86 architekture sa im to nepodarilo doteraz-graficka cast je obycajne zobrazovadlo a na ARM to podla mna dopadne podobne. A pri tom som im tak fandil, pretoze ta myslienka je proste genialna.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636113
+
Dle mého ta myšlenka stále padá na tom co jsem kdysi tvrdil, ala že GPU je výpočetně silné, ale oproti klasické x87 strašně latentní + vyžaduje specifický kód. Nemůžeme tedy x87 instrukce poslat na spočítání do GPU pokud celej thread visí a čeká na to jak ten výpočet dopadne, a samotnej úkon neni moc náročnej ale je potřeba jej udělat co nejdřívě a pak bude následovat další, podobnej. Na tohle GPU zatim moc neni. Proč kdysi mělo Pentium lepší herní výsledky než Cyrix 6x86? Silnější ten CPU rozhodně nebyl, ale jeho FPU byla součástí pipeline a minimálně latentní. + U AMD tomu rozhodně nepomahá to, že jejich APU maj zatím vždy o generaci zastaralou architekturu GPU části než to co nabízej v desktop kartách...
+1
0
-1
Je komentář přínosný?
Dle mého ta myšlenka stále
j j https://diit.cz/profil/doczenith
2. 11. 2012 - 17:42https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseDle mého ta myšlenka stále padá na tom co jsem kdysi tvrdil, ala že GPU je výpočetně silné, ale oproti klasické x87 strašně latentní + vyžaduje specifický kód. Nemůžeme tedy x87 instrukce poslat na spočítání do GPU pokud celej thread visí a čeká na to jak ten výpočet dopadne, a samotnej úkon neni moc náročnej ale je potřeba jej udělat co nejdřívě a pak bude následovat další, podobnej. Na tohle GPU zatim moc neni. Proč kdysi mělo Pentium lepší herní výsledky než Cyrix 6x86? Silnější ten CPU rozhodně nebyl, ale jeho FPU byla součástí pipeline a minimálně latentní. + U AMD tomu rozhodně nepomahá to, že jejich APU maj zatím vždy o generaci zastaralou architekturu GPU části než to co nabízej v desktop kartách... https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636118
+
Takhle to ale nefunguje a nikdy ani fungovat nemělo!
X87 je zastaralá ISA a žádný GPU ji ani nepodporuje. Cpu nebude nikdy odesílat jednotlivou instrukci k výpočtu na gpu.
Stručně a zjednodušeně řečeno. Současné gpgpu aplikace jsou založeny na bázi host-kernel, kdy cpu jako host pouze poskytuje kernelům (programy/funkce běžící na gpu) data pro jejich výpočty. Tyto výpočty jsou díky sice pomalejším, zato početnějším výpočetním jednotkám na gpu, prováděny mnohem (násobně) rychleji nežli by je provedl cpu.
Tento princip se týká jak APU, tak i cpu s dgpu. Výhoda APU pak leží v tom, že data, která si mezi sebou cpu a gpu vyměňují, "netečou" přes pomalou a latentní pcie sběrnici.
Na tento princip pak navazuje AMD projektem FSA (dříve HSA) a celkem dramaticky ho vylepšuje.
+1
+1
-1
Je komentář přínosný?
Takhle to ale nefunguje a
webwalker https://diit.cz/profil/webwalker
2. 11. 2012 - 22:27https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseTakhle to ale nefunguje a nikdy ani fungovat nemělo!
X87 je zastaralá ISA a žádný GPU ji ani nepodporuje. Cpu nebude nikdy odesílat jednotlivou instrukci k výpočtu na gpu.
Stručně a zjednodušeně řečeno. Současné gpgpu aplikace jsou založeny na bázi host-kernel, kdy cpu jako host pouze poskytuje kernelům (programy/funkce běžící na gpu) data pro jejich výpočty. Tyto výpočty jsou díky sice pomalejším, zato početnějším výpočetním jednotkám na gpu, prováděny mnohem (násobně) rychleji nežli by je provedl cpu.
Tento princip se týká jak APU, tak i cpu s dgpu. Výhoda APU pak leží v tom, že data, která si mezi sebou cpu a gpu vyměňují, "netečou" přes pomalou a latentní pcie sběrnici.
Na tento princip pak navazuje AMD projektem FSA (dříve HSA) a celkem dramaticky ho vylepšuje.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636140
+
No ja teda clanek pochopil tak, ze karty, ktere jsou urcene vyhradne pro vypocty (a ne pro hrani kvejka), budou mit i nejake jednoduche ARM jadro, ktere je bude plnit datama, aby tam nemuselo byt plnohodnotne CPU, ktere se bude 99% casu flakat .... pak jim bude stacit tohle vsechno pospojovat, zapojit do zasuvky a jedou ... nebudou potrebovat slozite zakladni desky s CPU, zbytecnyma konektrama atd .... proste to bude takova graficka karta pro vypocty ovladana pres raspberry pi:o)
+1
-1
-1
Je komentář přínosný?
No ja teda clanek pochopil
BTJ https://diit.cz/profil/btj
2. 11. 2012 - 18:08https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseNo ja teda clanek pochopil tak, ze karty, ktere jsou urcene vyhradne pro vypocty (a ne pro hrani kvejka), budou mit i nejake jednoduche ARM jadro, ktere je bude plnit datama, aby tam nemuselo byt plnohodnotne CPU, ktere se bude 99% casu flakat .... pak jim bude stacit tohle vsechno pospojovat, zapojit do zasuvky a jedou ... nebudou potrebovat slozite zakladni desky s CPU, zbytecnyma konektrama atd .... proste to bude takova graficka karta pro vypocty ovladana pres raspberry pi:o)https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636120
+
Představ si to tak, že se jedná o klasické APU, které však má svoji cpu část založenou na ARM(v8) a nikoliv na x86.
Otázkou je, co dalšího a jaká bude vnitřní organizace tohoto "APU" :)
+1
+1
-1
Je komentář přínosný?
Představ si to tak, že se
webwalker https://diit.cz/profil/webwalker
2. 11. 2012 - 23:04https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskusePředstav si to tak, že se jedná o klasické APU, které však má svoji cpu část založenou na ARM(v8) a nikoliv na x86.
Otázkou je, co dalšího a jaká bude vnitřní organizace tohoto "APU" :)https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636143
+
Dokola rovnake natahovacky.Jedni pridavaju k CPU graficku cast,druhy zase ku grafickej casti CPU.Odhliadnuc od nazvoslovia X86,GPGU,ARM atd vysledkom su len rozne preskupene tranzistory podla konkretnej potreby. Zbytok je marketing...
+1
+1
-1
Je komentář přínosný?
Dokola rovnake
AndyF1 https://diit.cz/profil/andyf1
3. 11. 2012 - 08:58https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseDokola rovnake natahovacky.Jedni pridavaju k CPU graficku cast,druhy zase ku grafickej casti CPU.Odhliadnuc od nazvoslovia X86,GPGU,ARM atd vysledkom su len rozne preskupene tranzistory podla konkretnej potreby. Zbytok je marketing...https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636148
+
Jaj 9MW. Pokud to jede nepřetržitě tak to ročně zblajzne 9000*3kc*24h*365d přes 200mega jen za elektřinu, nechtěl bych to živit...
+1
0
-1
Je komentář přínosný?
Jaj 9MW. Pokud to jede
DRK https://diit.cz/profil/drk22
4. 11. 2012 - 10:28https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseJaj 9MW. Pokud to jede nepřetržitě tak to ročně zblajzne 9000*3kc*24h*365d přes 200mega jen za elektřinu, nechtěl bych to živit...https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636168
+
Nechci ti brát iluze, ale skoro bych řekl, že stejně jako měli v Oak Ridge na Tesly K20 výhodnější cenu než my "běžní plebs", budou mít levněji i elektřinu. Určitě o dost levněji než za kolik jí zde dodává jistý takřka-monopolní výrobce/distributor.
+1
-1
-1
Je komentář přínosný?
Nechci ti brát iluze, ale
David Ježek https://diit.cz/autor/david-jezek
4. 11. 2012 - 11:52https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseNechci ti brát iluze, ale skoro bych řekl, že stejně jako měli v Oak Ridge na Tesly K20 výhodnější cenu než my "běžní plebs", budou mít levněji i elektřinu. Určitě o dost levněji než za kolik jí zde dodává jistý takřka-monopolní výrobce/distributor.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636170
+
No dyť já jim taky počítal "zvýhodněnou cenu" :0)) za "normální" u nás by se taky mohli dostat na půl miliardy za rok... Jinak mi začíná být jasné, proč si podobný superpočítač nemůže dovolit žádná instituce u nás. I kdyby sehnali peníze na počáteční investici z nějakého toho eu fondu, tak dojedou na výdaje za údržbu a provoz.
+1
-1
-1
Je komentář přínosný?
No dyť já jim taky počítal
DRK https://diit.cz/profil/drk22
4. 11. 2012 - 12:10https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseNo dyť já jim taky počítal "zvýhodněnou cenu" :0)) za "normální" u nás by se taky mohli dostat na půl miliardy za rok... Jinak mi začíná být jasné, proč si podobný superpočítač nemůže dovolit žádná instituce u nás. I kdyby sehnali peníze na počáteční investici z nějakého toho eu fondu, tak dojedou na výdaje za údržbu a provoz.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636171
+
v takovemto objemu se elektrina nekupuje tak jak si myslis, ale je kupovana na energeticke burze, takze cena muze byt hooodne jina, a pokud by si nejaky takovito HPC mohla dovolit jakakoliv instituce u nas, tak by jiste pocitala i s cenou udrzby a provozu a take s tim, jak by takove HPC nasebe vydelalo odpovidajici sumu :)
+1
0
-1
Je komentář přínosný?
asi zapominas na par
SamanCZ (neověřeno) https://diit.cz
4. 11. 2012 - 13:11https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseasi zapominas na par drobnosti
v takovemto objemu se elektrina nekupuje tak jak si myslis, ale je kupovana na energeticke burze, takze cena muze byt hooodne jina, a pokud by si nejaky takovito HPC mohla dovolit jakakoliv instituce u nas, tak by jiste pocitala i s cenou udrzby a provozu a take s tim, jak by takove HPC nasebe vydelalo odpovidajici sumu :)https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636172
+
Obávám se že pořád to bude ve stamilionech a navíc zřejmě netušíš jak u nás v poslední době fungují vědecké/univerzitní organizace což je přesně to o čem jsem mluvil...
+1
-1
-1
Je komentář přínosný?
Obávám se že pořád to bude ve
DRK https://diit.cz/profil/drk22
4. 11. 2012 - 14:51https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseObávám se že pořád to bude ve stamilionech a navíc zřejmě netušíš jak u nás v poslední době fungují vědecké/univerzitní organizace což je přesně to o čem jsem mluvil...https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636174
+
Na http://www.dailytech.com/Farm+Town+Upset+About+Microsoft+Data+Centers+Po... je článek o tom, jak po microsoftu chtěli pokutu, za to, že jeho datacentrum neodebralo nasmlouvané kWh. Pokuta byla 3x vyšší než cena za neodebranou energii :-). Zmiňujou tam ceny 2.5-3.8 cents za kWh, tzn 0,5-0,75 Kč/kWh.
+1
+2
-1
Je komentář přínosný?
Na
Jack FX https://diit.cz/profil/jackfx
4. 11. 2012 - 16:57https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseNa http://www.dailytech.com/Farm+Town+Upset+About+Microsoft+Data+Centers+Pollution+Waste/article27760.htm je článek o tom, jak po microsoftu chtěli pokutu, za to, že jeho datacentrum neodebralo nasmlouvané kWh. Pokuta byla 3x vyšší než cena za neodebranou energii :-). Zmiňujou tam ceny 2.5-3.8 cents za kWh, tzn 0,5-0,75 Kč/kWh.
https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636179
+
To nezní moc reálně, když uvážíme, že i výrobní náklady v atomovce jsou vyšší :0)
+1
0
-1
Je komentář přínosný?
To nezní moc reálně, když
DRK https://diit.cz/profil/drk22
4. 11. 2012 - 19:08https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseTo nezní moc reálně, když uvážíme, že i výrobní náklady v atomovce jsou vyšší :0)https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636181
+
Kdybyste kliknul na ten odkaz a přečetl si pár prvních vět, zjistil byste, že ta cena se týká levné eletriky z hydroelektráren. Taky tam uvádí průměrnou cenu eletriky v USA - 6-7 cents/kilowatt-hour.
+1
-1
-1
Je komentář přínosný?
Kdybyste kliknul na ten odkaz
Jack FX https://diit.cz/profil/jackfx
4. 11. 2012 - 22:52https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseKdybyste kliknul na ten odkaz a přečetl si pár prvních vět, zjistil byste, že ta cena se týká levné eletriky z hydroelektráren. Taky tam uvádí průměrnou cenu eletriky v USA - 6-7 cents/kilowatt-hour. https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636187
+
4. 11. 2012 - 22:56https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskusePeníze na počáteční investici už sehnali: http://www.ceskatelevize.cz/ct24/regiony/129849-v-ostrave-startuje-projekt-superpocitace-za-dve-miliardy/
Jestli budou mít peníze na to občas to pustit se teprve uvidí.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636188
+
Takhle to u nás ovšem nefunguje. Nejde si koupit elektriku z jedné konkrétní elektrárny. Navíc u nás třeba vodní elektrárny vyrobí naprosté minimum energie.
+1
-1
-1
Je komentář přínosný?
Takhle to u nás ovšem
DRK https://diit.cz/profil/drk22
4. 11. 2012 - 23:58https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuseTakhle to u nás ovšem nefunguje. Nejde si koupit elektriku z jedné konkrétní elektrárny. Navíc u nás třeba vodní elektrárny vyrobí naprosté minimum energie.https://diit.cz/clanek/nvidia-skutecne-zaintegruje-arm-do-svych-gpu/diskuse#comment-636189
+
Vypadá to, že Microsoft s WinRT přišel právě včas.
Na tie superpočítače asi WinRT nepôjde.
Určitě ne v podobě, v jaké je na Surfacu. Ale je to koneckonců jádro Windows NT zkompilované pro ARM. Přidat podporu dalšího/většího/silnějšího HW nemůže být do budoucna problém.
Pokud pro to vyroste trh, tak nějaký WinRT Enterprise Server asi udělají.
Příliš si idealizujete efektivitu ARM procesorů proti x86 a to zejména proto, že srovnáváte procesory určené k něčemu úplně jinému (IB, Haswell).
Relevantní srovnání je s Atomem a tam je situace vyrovnaná - mobil s atomem je výkonnější, než cokoliv jiného (GPU má ale výrazně pomalejší než highend) a současně vydrží podobnou dobu na baterky. Přitom samotný Atom nemá výhodu ve výrobním procesu (je na 32nm). Ostatně porovnejte sami (jedná se sice o test iPhone 5, ale v grafech najdete Motorolu Razr i):
výkon:
http://www.anandtech.com/show/6330/the-iphone-5-review/10
výdrž:
http://www.anandtech.com/show/6330/the-iphone-5-review/13
O Atomech se říká, že jsou ve srovnání s ARMy při uživatelských testech línější (pomalejší odezva). To by se v těchto výkonových testech neprojevilo, ne?
ARMy jsou strašně slabé. Jsou teď hodně in, ale ta blbá I3 má 10x takovej reálnej výkon a reálnou spotřebu méně jak 10x takovou a to o hodně. Má lepší výkon/watt než ARMy. Ty jsou vhodné tam kde neni potřeba téměř žádnej výkon. A o to dost možná u Tesly půjde. Jak jdou generace dále a dále, GPU jsou schopny počítat stále efektivněji a čím dál více rozmanitý kód, neni to jak u prvních generací kdy jejich možnosti byly poměrně omezené. Ale GPU samy nedovedou fungovat jako počítač, musí je něco řídit, musej na něčem sedět co má CPU, řídí prostředky, komunikuje se zbytkem sítě, atd. Kdyby měla ARM jádro v sobě, stala by se taková karta defakto nezávislou, kdyby se na ní integrovalo pár dalších švábů už by ani nepotřebovala zbytečnej drahej a žravej podvozek. A s pokrokem samotných GPU už si možná Dever dovede sám spočítat to co pro Keplera ještě musí dělat ten Opteron. A v taková situaci tam pak už bude jen stačit ten ARM na základní běh IO, OS, a komunikaci s ostatními. Takže tento stav a vývoj mi přichází čistě logický.
Záleží čím by to bylo způsobeno, spíše by se to projevilo. Myslím ale, že tady mícháš dohromady různé platformy (windows a android). O Atomech se to říká na desktopových OS (a je to pravda), protože mají relativně hodně slabý výkon na vlákno proti klasickým x86 a windows na to nejsou stavěné.
Na mobilech (tedy Android) je naopak Atom v té samé disciplíně králem a opravdu bych nečekal, že problém s odezvou bude i tady - spíše naopak. Co je ale možné, že dost aplikací ještě není přizpůsobena x86 na Androidu a v těch může být problém s výkonem, přestože je jinak Atom svižnější než současné ARMy.
To že je Atom lepší jak ARMy jen dokazuje to jak strašně slabé ty ARMy jsou. Atom je rychlej +- jak Pentium 3 kolem 1Ghz a to ještě jak kde. Ve výpočetní farmě taky moc nejde o odezvu, tu má vždy mizernou protože musíš úlohu rozložit na stovky nezávislejch výpočetních clusterů. Ten arm tam bude sloužit k této komunikaci, k tomu neni potřeba prakticky žándnej výkon.
Zkus si rozebrat ten sranda test Ananda ip5 vs Razr i.
1. Jaký je rozdíl frekvencí u těchto cpu?
2. O kolik v průměru Atom vyhrál výkonem (většinou v single-thread testech)?
3. O kolik vyhrál iP5 ve spotřebě?
Závěr si udělej sám :-)
Panove, co to tady zvanite? Divali jste se na ty testy? Vzdyt ten Atom zvitezil leda tak nad slabouckym procesorem od Samsungu. Jinak dostal od ARM tvrdou lekci? A to ze je ten procesor jednojadrovy vubec nic neznamena, jak vite, kolik jader a jaky zpusobem bude Intel schopnej do toho Atomu implementovat? ARM uz dneska ma v podobe pripravovaneho MTK6599 8 jader a urcite to neni konecna. No jiste ze soutezit s x86 typu core i5 nebo core i7 to nebude, ale vykonem uz jsou nekde na urovni prvnich Core2Duo a spotreba je uplne nekde jinde!
presne tak
v Intelu i AMD moc dobre vedi ze ARM je prone dobudoucna hrozbou, a je uplne jedno jestli je ta budoucnost vzdalena 5 nebo 20 let :)
Ja mam Intel rad, x86 (x64) procesory urcite sve misto maji a za lidove penize neni nic co by je vykonem mohlo ohrozit. Problem Intelu podle meho je, ze pokud potrebuju vykon A a ten vykon mi da levnejsi a uspornejsi procesor od ARM, proc bych platil za vykon A+100%, ktery mi nabidne x86 procesor, takze ARM prebira Intelu cast trhu. Intelu se podarilo vyrobit k ARM konkurecni Atom, ale ten v soucasne dobe nad ARM nijak nedominuje, staci se mrknout do tech grafu AnandTechu. Je pekny, ze Intel tvrdi, ze dvoujadrovy Atom dominovat bude, ale nad soucasnymi 4jadrovymi ARM, jenze tou dobou klidne ARM muze mit 8jadra. Zatim teda Intel nijak nepresvedcil, ze ARM dokaze porazit.
Co se tyka AMD, tak tem to muze byt uplne jedno, maji zkusenosti, maji x86 CPU, maji GPU, nalicencujou ARM a klidne muzou byt za chvili lidry trhu, zalezi jen na nich.
Dnes je atom proste in a cool a frci ale realne to vykonovo fakt nieje trhac asfaltu a konkurent x86. A co sa tyka spotreby vykon na watt tiez si nemyslim ze to bude nejake terno. Skor armu sa podla mna momentalne dari vdaka ich licencnej politike, kde vyrobca si moze vybrat co chce a v akom rozsahu licencovat a potom si to este popripade upravit. To je oproti uzavretej platforme x86 obrovska vyhoda kde intel vlastne nedava ziadne moznosti upravy zakaznikom.
Co sa tyka kariet tak tam je to zatial fakt varenie z vody. Pokial nebudu chciet spravit dalsi produkt kde ta karta bude naozaj sebestacna a v podstate to bude taky SoB :-) ( single on board :-)) pocitac, budu stale potrebovat nejake to konvencne zelezo naokolo. Na druhu stranu ak z toho, gpu+arm, spravia naozaj samostany kus hw tak sa to bude docela tazko ntetrovat do nejakej workstation.
v Nvidii s takovim systemem jiz zkusenosti maji, kuprikladu Quadroplex nebo primo rackove 1U Tesly, a asi dobre vedi co jejich zakaznici pozaduji a co jim tedy dobudoucna chteji nabydnout za HW
jiz v minulosti naznacovali ze by radi prinesli vlastni HW system nezavisli na x86, a ARM jim k tomu znacne dopomaha
No jo, a AMD sa snazi urobit nieco podobne-ide do ARM a pri tom zlaty poklad maju priamo pod nosom. Spominate si na projekt Fusion a na to, preco vlastne kupovali ATI? Fusion malo byt spojenie procesora plus grafiky ako koprocesora. Jednoducho spustite operacny system a svoju aplikaciu ktora je vypoctovo narocna. A bez toho, aby bola aplikacia nejako specialne naprogramovana vam to da vykon, o akom sa vam nesnivalo. Lenze po tolkych rokoch urobili chlapci z AMD z projektu Fusion obycajny paskvil. Gr. karta je na procesore iba ako obycajne zobrazovadlo a ked ju chcete vyuzit, tak musite mat specialne naprogramovanu aplikaciu. No, AMD malo oproti Nvidii minimalne 7 rokov naskok vo vyvoji a na trh nepriniesli z projektu Fusion nic. Nvidia sa teraz o to pokusa na ARM, AMD vraj asi tiez-aspon podla poslednych sprav. Lenze v AMD s tym na trh nepridu asi nikdy. V x86 architekture sa im to nepodarilo doteraz-graficka cast je obycajne zobrazovadlo a na ARM to podla mna dopadne podobne. A pri tom som im tak fandil, pretoze ta myslienka je proste genialna.
Dle mého ta myšlenka stále padá na tom co jsem kdysi tvrdil, ala že GPU je výpočetně silné, ale oproti klasické x87 strašně latentní + vyžaduje specifický kód. Nemůžeme tedy x87 instrukce poslat na spočítání do GPU pokud celej thread visí a čeká na to jak ten výpočet dopadne, a samotnej úkon neni moc náročnej ale je potřeba jej udělat co nejdřívě a pak bude následovat další, podobnej. Na tohle GPU zatim moc neni. Proč kdysi mělo Pentium lepší herní výsledky než Cyrix 6x86? Silnější ten CPU rozhodně nebyl, ale jeho FPU byla součástí pipeline a minimálně latentní. + U AMD tomu rozhodně nepomahá to, že jejich APU maj zatím vždy o generaci zastaralou architekturu GPU části než to co nabízej v desktop kartách...
Takhle to ale nefunguje a nikdy ani fungovat nemělo!
X87 je zastaralá ISA a žádný GPU ji ani nepodporuje. Cpu nebude nikdy odesílat jednotlivou instrukci k výpočtu na gpu.
Stručně a zjednodušeně řečeno. Současné gpgpu aplikace jsou založeny na bázi host-kernel, kdy cpu jako host pouze poskytuje kernelům (programy/funkce běžící na gpu) data pro jejich výpočty. Tyto výpočty jsou díky sice pomalejším, zato početnějším výpočetním jednotkám na gpu, prováděny mnohem (násobně) rychleji nežli by je provedl cpu.
Tento princip se týká jak APU, tak i cpu s dgpu. Výhoda APU pak leží v tom, že data, která si mezi sebou cpu a gpu vyměňují, "netečou" přes pomalou a latentní pcie sběrnici.
Na tento princip pak navazuje AMD projektem FSA (dříve HSA) a celkem dramaticky ho vylepšuje.
No ja teda clanek pochopil tak, ze karty, ktere jsou urcene vyhradne pro vypocty (a ne pro hrani kvejka), budou mit i nejake jednoduche ARM jadro, ktere je bude plnit datama, aby tam nemuselo byt plnohodnotne CPU, ktere se bude 99% casu flakat .... pak jim bude stacit tohle vsechno pospojovat, zapojit do zasuvky a jedou ... nebudou potrebovat slozite zakladni desky s CPU, zbytecnyma konektrama atd .... proste to bude takova graficka karta pro vypocty ovladana pres raspberry pi:o)
Představ si to tak, že se jedná o klasické APU, které však má svoji cpu část založenou na ARM(v8) a nikoliv na x86.
Otázkou je, co dalšího a jaká bude vnitřní organizace tohoto "APU" :)
Dokola rovnake natahovacky.Jedni pridavaju k CPU graficku cast,druhy zase ku grafickej casti CPU.Odhliadnuc od nazvoslovia X86,GPGU,ARM atd vysledkom su len rozne preskupene tranzistory podla konkretnej potreby. Zbytok je marketing...
Jaj 9MW. Pokud to jede nepřetržitě tak to ročně zblajzne 9000*3kc*24h*365d přes 200mega jen za elektřinu, nechtěl bych to živit...
Nechci ti brát iluze, ale skoro bych řekl, že stejně jako měli v Oak Ridge na Tesly K20 výhodnější cenu než my "běžní plebs", budou mít levněji i elektřinu. Určitě o dost levněji než za kolik jí zde dodává jistý takřka-monopolní výrobce/distributor.
No dyť já jim taky počítal "zvýhodněnou cenu" :0)) za "normální" u nás by se taky mohli dostat na půl miliardy za rok... Jinak mi začíná být jasné, proč si podobný superpočítač nemůže dovolit žádná instituce u nás. I kdyby sehnali peníze na počáteční investici z nějakého toho eu fondu, tak dojedou na výdaje za údržbu a provoz.
asi zapominas na par drobnosti
v takovemto objemu se elektrina nekupuje tak jak si myslis, ale je kupovana na energeticke burze, takze cena muze byt hooodne jina, a pokud by si nejaky takovito HPC mohla dovolit jakakoliv instituce u nas, tak by jiste pocitala i s cenou udrzby a provozu a take s tim, jak by takove HPC nasebe vydelalo odpovidajici sumu :)
Obávám se že pořád to bude ve stamilionech a navíc zřejmě netušíš jak u nás v poslední době fungují vědecké/univerzitní organizace což je přesně to o čem jsem mluvil...
Na http://www.dailytech.com/Farm+Town+Upset+About+Microsoft+Data+Centers+Po... je článek o tom, jak po microsoftu chtěli pokutu, za to, že jeho datacentrum neodebralo nasmlouvané kWh. Pokuta byla 3x vyšší než cena za neodebranou energii :-). Zmiňujou tam ceny 2.5-3.8 cents za kWh, tzn 0,5-0,75 Kč/kWh.
To nezní moc reálně, když uvážíme, že i výrobní náklady v atomovce jsou vyšší :0)
Kdybyste kliknul na ten odkaz a přečetl si pár prvních vět, zjistil byste, že ta cena se týká levné eletriky z hydroelektráren. Taky tam uvádí průměrnou cenu eletriky v USA - 6-7 cents/kilowatt-hour.
Peníze na počáteční investici už sehnali: http://www.ceskatelevize.cz/ct24/regiony/129849-v-ostrave-startuje-proje...
Jestli budou mít peníze na to občas to pustit se teprve uvidí.
Takhle to u nás ovšem nefunguje. Nejde si koupit elektriku z jedné konkrétní elektrárny. Navíc u nás třeba vodní elektrárny vyrobí naprosté minimum energie.
Pro psaní komentářů se, prosím, přihlaste nebo registrujte.