Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Intel plánuje teraflopsový procesor

nebo spíše fyzikálním akcelerátorům ;-)

+1
-3
-1
Je komentář přínosný?

Na fyziku by ten proceror musel mít ještě zase jinou architekturu, pro fyziku je typický že dochází k mnoha vzájemným výpočtům takže i při několika málo tisících částic (objetů) dostaneš klidně desetimiony i stamiliony výpočtů na simulační krok. Prostě tam lítá moc dat které ti zahltí každý sběrnicový procesor organizovaný klisickým spůsobem a v podstatě je jedno kolik má jader.
Nicméně ten gigaflops při dané spotřebě zní hezky.

+1
0
-1
Je komentář přínosný?

N: Fyzikální výpočty (např. ty s diferenciál. rovnicemi, třeba konečné prvky) vedou na opakované řešení soustav lineárních rovnic. Víc jader pak může výpočet urychlit je-li soustava rovnic "řídká" (=s hodně nulami, resp. malou provázaností) a dá se proto efektivně rozdělit do bloků.

+1
-3
-1
Je komentář přínosný?

2 JM_: No jo mudrci ale tom se řeč nevede :-) já o voze ty o koze.

+1
0
-1
Je komentář přínosný?

2 JM_: Ještě mě tak napadá které fyzikální systémy nejsou provázané nebo jenom velice slabě ?, leda tak nějaké srandovní demonstrace typu vyjednodušené newtonovské fyziky a ještě jenom se dvěma krychličkama.

+1
0
-1
Je komentář přínosný?

n: Jeden příklad: meteorologie, metoda konečných diferencí, simulace severní polokoule - prvek nad severním pólem v nadmořské výšce 10 metrů interaguje jen velmi slabě s prvkem ve výši 10 km nad rovníkem. (8-))

Obecně: půjde to s libovolnou soustavou lin. rovnic, kde jde aplikovat konjugované gradienty.

http://en.wikipedia.org/wiki/Conjugate_gradient_method

+1
-1
-1
Je komentář přínosný?

2 JM_: Tak když použiju nějaké třídění tak to jde i u složitějších věcí to je jasný jenomže toto třídění a segmentování má taky spotřebu, lehce to jde u specifikých věcí, jenomže jsou věci na který to prostě nefunguje, různé pevně spřažené soustavy, ty nejdou třeba třídit vůbec, stačí pár spřažených pružin a výpočetní efektivnost jde do háje nebo nějaké sítě, nebo stačí když je celá soustava moc divoká, to už pak taky nejde.

+1
+2
-1
Je komentář přínosný?

n: Samozřejmě SOUHLASÍM, na divoké systémy to nepůjde. Vždyť jsem taky psal, že soustava lin. rovnic schovaná za tou fyzikou musí být ŘÍDKÁ (resp. ty gradienty musí konvergovat rozumně rychle).

Tj. jde to dobře aplikovat třeba na laminární proudění a výpočet přítlaků, ale hůř na simulaci turbulencí...

+1
+3
-1
Je komentář přínosný?

Ale jak se to stalo? Kde je pan Mistr "Eagle_not_registered". Vždyť ono to přeci nejde, to přeci není možné, to u Intelu museli překročit nějaké fyzikální hranice, že ? :D Více jader nikdy není možné využít :D Že mistře, doufám že to čteš :D. Napadá mě otázka: "Kde udělali soudruzi z Intelu chybu mistře?".

Vypadá to velice zajímavě, protože s takovým univerzálním čipem se dají dělat velice zajímavé věci a to včetně něčeho, čemu se AMD říká "fusion". Pokud by se Intel vydal touhle cestou, tak by se konkurenci mohl jen smát, protože by vyvíjel jen jeden čip, který by se dal použít jako CPU i jako GPU. Škáloval by počtem jader (enterprise, desktop, notebook...) a to i jednotlivé výkonové třídy v rámci těchto segmentů. Pravděpodobně by se vyrábělo jen pár verzí toho čipu s různě velkým počtem jader a zbytek by se vypínal. A konkurence by se svým současným konceptem mohla jít do kytek, protože Intel by všecky svoje vývojové prostředky vrhl do jednoho čipu, který (podle plánu Intelu s názvem Tera-Scale) by měl ve své nejvyšší verzi výkonově konkurovat procesorům od Sunu a IBM a zároveň ve své osekané verzi by běžel v PDA...

+1
-1
-1
Je komentář přínosný?

happymaster23> Ee, nevypinali by jadra. Proste podle toho, jak se ten kterej konkretni cip povede a jak projde testama (kolik jader je vadnych, ty se pak "vypnou")se zaradi do nejake kategorie.

+1
-3
-1
Je komentář přínosný?

Ach jo. Opet same utoky. Ono by to chtelo uvedomit si, ze dneska uz neni problem ve vykonu hardwaru, ale v softwaru. Kdyz se podivate, co dokazali vyvojari vykouzlit z par MHz 8 bitovych procesoru, musite pripustit, ze dneska je to programovani bida.

+1
+2
-1
Je komentář přínosný?

Přesně tak. Dnes mraky výkonu sežerou jednotlivé vrstvy mezi HW a aplikací a samozřejmě neoptimalizovaný kód.

Ale výkon se bude hodit, až bude pořádné hlasové ovládání.

+1
0
-1
Je komentář přínosný?

happymaster23
Toto riesenia sa dost podoba rieseniam, ktore uz vyuziva Sun(n jadier, m vlakien na kazdom jadre). Teraz je este tazke odhadovat vykon, ale som zvedavy co z toho vypadne. V kazdom pripade sucasny tera-scale je len demonstracia, lebo obsahje jadra schopne pocitat len celocislene ulohy v 16 bit presnosti a to je na vedsinu uloh nedostatocne.

+1
-2
-1
Je komentář přínosný?

Achjojik: To je cena za abstrakci, voe víš jak dlouho by trvalo vytvořit to co vidíš na PC v assembleru ? bez objetového prg ? (což se na těch 8MHz procech dělalo) to by ti programátoři dřív prdli zelenou vodu.

+1
+3
-1
Je komentář přínosný?

Mintaka: jo a taky se používají věci který by ty osmibiťáky nespočítali vůbec nebo za týden, si spočítej kolik stojí výkonu jen přesouvání okna s obsahem, to už nikoho ani nenapadne to takhle brát a takových věcí jsou stovky, ve hrách máš fyziku, rayacsting, stíny, počítanou animaci, interpolace podle křivek a další stovky věcí voe to žere všechno výkon neskutečně. A Jak píše "Achjojik" "že je to o softwaru" nesmysl, když se výkon zestonásobí, na některý věci to pořát bude málo.

+1
-2
-1
Je komentář přínosný?

Na pribuznu notecku:
 
parallel processing machine 100x faster than current PCs
http://www.networkworld.com/community/?q=node/16728
 
nalezeno na TheInquier http://www.theinquirer.net/default.aspx?article=40573
BOFFINS at the University of Maryland have emerged from their labs with a desktop parallel computing system they say is 100 times faster than current PCs.
As could be expected the electronics was not that difficult, but writing the software which could efficiently use the 64 processors was a bit tricky. The parallel algorithms research community had developed a theory of parallel algorithms called the Parallel Random-Access Model (PRAM).

+1
+2
-1
Je komentář přínosný?

Achjojik suhlas. S 8bitakmi sa daju robit (a robia) pekne a uzitocne veci. A je dobre ze aplikacii nie je milion a viac. Potom by nam to vyfukli Cinania...

+1
0
-1
Je komentář přínosný?

popotan: Tak ono by bylo zajímavý i třeba gate array "cpu" udělané s počtem buněk kolik má běžné CPU trandů :-) s tím by se šlo kvalitně vyblbnout. Na každou soft úlohu by sis softwarově zoptimalizoval hardware ;-)

+1
0
-1
Je komentář přínosný?

2 happymaster: Podle mě to neklapne, páč to bude univerzální řešení, které bude dobré ve všem, ale v ničem vynikající. Vždy se tu najde místo pro čip, který bude umět jen to jedno, ale velmi rychle a při nižších nákladech. Proč se vyvíjely grafické čipy? Protože tradiční procesory na to nebyly vhodné. S tímhle univerzálem to bude někde na půl cesty - grafika mu bude sedět lépe než normálním procesorům, ale hůře než specializovaným.

+1
0
-1
Je komentář přínosný?

goro: Dnešní GPU se dost přiblížují právě tomuto procu, komplexní výpočty, programovatelnost... už to není tak jednoúčelové jako kdysi takže tvoje argumenty jsou dost slabé. Navíc "tenkrát" soutěžil jednúčeláč s mnoha subjádry s jedno jádrovým CPU, toto jednojádro není.

+1
+2
-1
Je komentář přínosný?

Jen tezko se da predstavit jaka technologie tu bude treba za 50 nebo 100 let, kdyz to leti takovou to rychlosti kupredu. To co byl pred 100 lety salovej pocitac je dnes v hodinkach. Budou za dalsich 100 let dnesni nejvykonejsi salove pocitace taky v hodinkach nebo v laptopu?!

+1
0
-1
Je komentář přínosný?

n
Na jednu stranu mas pravdu, ak by si mal v CPU vela vypocetnych jednotiek tak mozes dosiahnut vykon ako GPU, ale ak chces naozaj konkurovat GPU musis mat aj specializovane casti ako texturovacie jednotky.

+1
-1
-1
Je komentář přínosný?

to Davef: Možná tě to překvapí, ale před stolety byly možná sálové sestry, ale počítače rozhodně ne. :-)

+1
+2
-1
Je komentář přínosný?

2 ASD_: Já jen reagoval na to co tu padlo ze svého pohledu, čeho to bude opravdu schopné až to bude těžko říct dopředu, že to bude ekvivalent fusion čipu AMD je taky čistá spekulace onoho diskutéra.
Já bych to netvrdil (že to bude ekvivalent) jen jsem přistoupil na spekulační hru. Prostě pokec.

Ono nakonec kdyby to měl být opravdu ekvivalent fusion čipu tak tam ty texturovací i jiné jednotky můžou taky klidně dobastlit že na tom není nic co by nešlo.

+1
-2
-1
Je komentář přínosný?

kuba: No však to je jedno...
ASD_: Ano máš pravdu, pokud vím tak nějaké nasazení konceptu Tera-Scale Intel plánuje až na rok 2015.
goro: Intel pokud vím zatím nic netvrdil o tom, že by koncept Tera-Scale chtěl použít na grafické výpočty. Ale podle mě se to nabízí, s tím co píšeš souhlasím - ano grafické čipy se vyvíjely, protože díky své specializaci dosahují mnohem lepších výsledků než CPU, ale dnes kdy grafiky směřují k unifikované architektuře a Intel chce vývoj svých procesorů směřovat podobným směrem (tedy více malých jader) tak se bude jednat o velice podobné koncepty a nabízí se proč to nespojit... Jistě že vždycky to specializované řešení na konkrétní úlohu bude vždy lepší, ale pokud bude Intel dávat všechny (nebo drtivou většinu) svých vývojových kapacit do jednoho čipu tak se tenhle rozdíl smaže, protože to univerzální řešení bude IMHO "most advanced"...
n: Ano, jedná se o čisté spekulace :D

+1
+1
-1
Je komentář přínosný?

Jen dodatek - nemyslím si, že by GPU a CPU nahradil jeden tento čip, pořád by byli dva, přičemž každý by měl drobnější modifikace, třeba ten na grafické výpočty by obsahoval právě texturovací jednotky...

+1
+2
-1
Je komentář přínosný?

Co bude + - za xxx let?
Našel, článek jednoho tipka (tak si to přeberte)?
http://nanotech.wz.cz/view.php?cisloclanku=2004012801
Jsou tam i jiné články.
http://nanotech.wz.cz/

+1
-3
-1
Je komentář přínosný?

2 Planckův 3D počítač: U takové šílenosti spíš budeš mít problém kam ukládat data než že by nedostávalo výkonu, nedejbože u zmíněného Planckova počítače vystrčeného navíc do paralelních rozměrů, proboha kde je vesmír ? fuč, Franta si do něj uložil snapshot své simulace ;-)

+1
+3
-1
Je komentář přínosný?

2 n:
Ano, dá se udělat univerzální procesor, který zvládne "cokoliv". A přesně z tohoto důvodu bude buď hodně složitý (rozuměj drahý), nebo bude jednoduchý, ale bude mít velký počet jader podle hesla "však my už ho naučíme zapanáčkovat, prostředků na to máme dost" a tohle bude znamenat znova vyšší výrobní náklady.
Abys to měl nejjednodušší, tak to přirovnání přeženu - bude se tenhle univerzální procesor montovat do hodinek? Nebude, protože kromě jiného by byl moc drahý, ale přitom není žádných pochyb o tom, že by zvládl obsluhovat displej a počítat čas :)
Narážel jsem na to, že pokud uděláš procesor, který bude výborný ve všech různých oblastech, kde by se dal nasadit, tak bude moc drahý oproti řešení na míru. Pokud to bude srovnatelné s Q6800, tak výroba nebude stát 500 kaček, aby se to vyplatilo montovat místo základních Celeronů. A pokud uděláš odlehčenou (a tím i levnější) verzi, tak už to není jeden procesor pro všechno.

+1
+2
-1
Je komentář přínosný?

2 goro: Díky že jsi mi otevřel oči, ve spaní, ale nebylo třeba.

+1
-2
-1
Je komentář přínosný?

Značná podoba???
 
AMD Fusion či Torrenza, snaha dosáhnout výkon CPU za pomocí GPU, 1TFlop/s oproti dnešním 25GFlop/s u čtyř-jádrového procesoru a to již příští rok? Také viz http://www.svethardware.cz/art_doc-B41B1CDD42BF0365C12572DF0027EE37.html
AMD-ATI již má dávno 1TFllop/s čím pak asi tento výkon dosáhl dvou-jádrový AMD procesor, když sám má tak 10GFlop/sviz: http://www.novinky.cz/internet/hardware/amd-demonstrovalo-system-s-vyko&...
AMD má Stream Procesor (koprocesor, matematický procesor ?) od vzniku HyperTransportu http://ati.amd.com/products/streamprocessor/index.html Jen to nikdo nebral vážně

+1
-1
-1
Je komentář přínosný?

Nechci si hrát na chytrýho, ale Larrabee rozhodně nebude takový zázrak, jak momentálně vypadá. Jednak se všude mluví o určitém výkonu (1TFLOPS) + o použitelnosti pro grafiku, ale to je nepřesné. V plánu původně byly dvě verze: s 24 výpočetními jednotkami (tj. ta s výkonem AŽ 1TFLOPS), která by byla použitelná jako CPU (nebo pro GP-GPU aplikace) a druhá, která by měla místo osmi výpočetních jednotek integrované texturovací jednotky (aritmetický výkon by tedy byl výrazně nižší), ale byla by vhodnější pro grafické aplikace (či opět GP-GPU).

Někdo tu zmínil terrascale - ten není pro grafiku vhodný kvůli absenci texturovacích jednotek. Je třeba si uvědomit, že operaci s texturou, na kterou stačil 12 let starým 3D grafikám 1 takt, spotřebují dnešní procesory stovky taktů. A pokud si uvědomíme, jak náročné operace s texturou se provádějí v současných hrách (FP16 trilineárně-anizotropní filtrace + třeba multitexturing... což odpovídá stovkám vzorků na jeden pixel s FP přesností), tak je nereálné předpokládat, že by jakýkoli procesor bez jednotky optimalizované pro texturové operace mohl být použitelný pro současnou (natožpak budoucí) 3D grafiku.

Dalším bodem k zamyšlení je relativně úzká sběrnice, případně i samotný aritmetický výkon Larrabee. I kdyby Intel vydal verzi s texturovacími jednotkami PLUS výkonem 1TFLOPS, tak by to v roce 2008 prakticky nic neznamenalo, když od ATi a nVidie čekáme teraflopsové čipy už letošní zimu (případně o pár měsíců později, kdyby bylo nějaké zdržení).

A vzhledem k tomu, že se v posledních prezentacích Intelu začalo mluvit o 32-48 jádrových verzích Larrabee, si ani samotný Intel nebude s výkonem původně ohlášených 16/24 verzí příliš jistý (upřímně řečeno, jaký důvod má Intel k tomu, aby od začátku roku 2007 otevřeně prohlašoval, co nabídne v letech 2008, 2009 a 2010? Podle mého jde o upoutání pozornosti, protože do té doby nic nabídnout nemůže, kdežto ATi s nVidií mají v GP-GPU segmentu už pěkně našlápnuto - Intel v tomhle odvětví evidentně usnul na vavřínech a snaží se zaujmout a oslnit papírovými parametry (které za 2 roky nebudou znamenat nic), aby odvedl pozornost od reality, která je taková, že zatímco se soustředil na CoreDuo, zlepšení reputace související s P4 a dohnání a předehnání AMD v segmentu high-end CPUs, trochu zaspal situaci, která se děje kolem - price/performance/p-drain alternativy k CPU.

ATi to vyřešila dobře, AMD to vyřešilo koupí ATi (+následnou spoluprácí), nVidia to taktéž vyřešila šalamounsky (výpočetní jednotky G80 byly navrženy Obermanem a Lindholmem, bývalými inženýry z AMD), jen Intel nemá nic a to uběhl bezmála rok od uvedení prvních GP-GPU produktů na trh...

Zřejmá výhoda Larrabee je x86 kompatibilita, případně by Intel mohl vydat herní konzoli postavenou výlučně na Larrabee (jeden jako CPU, druhý jako GPU), nebo jako řešení pro mobilní zařízení, obsazení GP-GPU trhu, kterému dominuje nVidia s ATi atd., ale můj osobní názor je takový, že GPU verze plánovaná na rok 2008 by nebyla výkonem schopna konkurovat ani současným high-end čipům jako jsou G80 a R600.

+1
0
-1
Je komentář přínosný?

to no-x: on se taky Intel přiznal, že jeho první GPU čipy (či co to bude) jsou mířeny pro low-end a mainstream. Největší trn v patě intelových grafik vidím v ovladačích; i když ono už stačí to, co předvádí AMD.ATI u rodiny Rxx.

+1
-1
-1
Je komentář přínosný?
+1
+2
-1
Je komentář přínosný?

Tykvik: Rxx?

+1
-1
-1
Je komentář přínosný?

Planckův 3D počítač: Drobna moucha bude v tom, ze uz kdyz budeme ty kompy stavet ze subatomarnich castic, budeme se muset vyrovnat s tim ze kdyz je "nahustime" vic nez jak jsou v atomu, bude ta kosticka procesoru vazit par (set ?) tun.

A vyvoj NASI biosfery si neodsimulujeme na nicem, diky principu neurcitosti je principialne nemozne zjistit pocatecni podminky.

+1
-1
-1
Je komentář přínosný?

hkmaly: No myslím že tohle lidi trápit ještě hooodně dlouho nebude a hodně věcí může být začas v úplně jiném světle.

Mě by zatím "stačil" uživatelky plně rekunfigurovatelný CPU, něco jako je Virtex akorát aby se to obešlo bez bastlení, mělo to už nějaké rozumné api+vývojové prostředí a hlavně několik stamilionů buněk, jsem skromný. ;-) (A cenu srovnatelnou s běžnýma CPU - nejsem grantovaná osoba ani neprcám bankéřovu dceru).

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.