Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k IDF 2009: novinky o Larrabee

bylo by siper kdyby jste davali vysvetlivky ke vsem zkratkam (nebo aspon k vecine)

+1
0
-1
Je komentář přínosný?

Standart API support ...and Open CL . Vlastní rozšíření bude to málo do budoucna ..... Ještě že tak .

+1
0
-1
Je komentář přínosný?

"grafické karty na bázi Larrabee"

Nemá být Intel Larrabee spíš univerzální mnohojádrový procesor, který umí počítat výpočty CPU i GPU?

+1
0
-1
Je komentář přínosný?

Nevím, jestli to tu už nebylo, ale podrobnější informace o nových instrukcích lze nalézt zde: http://www.ddj.com/hpc-high-performance-computing/216402188.

+1
0
-1
Je komentář přínosný?

Nech idu niekam s dalsim GPGPU jazykom. Akoby ich tu nebolo dost - este aj intel si vytvori vlastny ved co - nech sa triesti kompatibilita jednotlivych rieseni. Skoro by som az povedal ze uvedenie dalsieho jazyka (alebo nadstavby cecka) je taky maly sabotersky krok intelu pre zachranu x86 CPU.
Inu tie jadra na tom wafferi sa mi zdaju dost velke - ktovie aky vyrobny proces pouzili - ale predpokladam ze je to testovacia vzorka na 45 nm (finalne kusy budu asi az na 32 nm).

+1
0
-1
Je komentář přínosný?

to Rotavator: Ja predpokladám ,že jeden ten štvorček na tom waferi nie je jedno jadro ale rovno 16(32) jadier larrabe čo budú na jednej karte.

+1
0
-1
Je komentář přínosný?

rotavator: Nevidel bych to tak tragicky. Dokud bude existovat podpora pro OpenCL a DX11 GPGPU, tak je celkem jedno jakej jazyk si intel vymysli.
Jinak to jejich Ct dava smysl. Kazdej vyrobce ma specificky GPGPU reseni, ktery ma ruzny moznosti a kazdej ho zohlednuje ve svym jazyce. Je to docela prirozenej jev pri vzniku odvetvi. Casem se to uklidni a tyhle exot jazyky se budou pouzivat jen v pripade kdy je potreba v nejakym clusteru z tech svabu vyslapnout uplny maximum, vetsina pojede pres OpenCL a DX. (fandim OpenCL, protoze je multiplatforni)

+1
0
-1
Je komentář přínosný?

Lenz: myslim, ze to musi byt jasne aj s prepacenim uplnemu debilovi, ze ten jeden stvorcek je cely 16/32/64 jadrovy cip a nie jedno jadro... ja si neviem ani len rozmerovo predstavit taku kartu, na ktorej by bolo 64 hentakych stvorcekov (takmer cely ten waffer), uz ani nehovoriac o tom, ze na chladenie by si potreboval bud tekuty dusik alebo 10kg medi spolu s jednou klimatizacnou jednotkou... a samozrejme aby sa to vobec dalo zapat, tak nejaku zvaracku na napajanie...

+1
0
-1
Je komentář přínosný?

mimochodom, co znamena "zapat" ?

+1
0
-1
Je komentář přínosný?

No bude sranda,už jenom proto že to je Intel se svou silou mnoha miliard dolarů v zádech-))

+1
0
-1
Je komentář přínosný?

Spirit_pcf: skoro to iste co zapnut, ale usetris jedno pismeno :D a dokonca na moje prekvapenie je to aj v slovencine gramaticky spravne (akurat ja som si myslel, ze je zapať a ono je zapäť, ale bez diakritiky je to aj tak jedno :P )

+1
0
-1
Je komentář přínosný?

rotavator: přesně, kdyby radši všichni podporovali OpenCL, másla

+1
0
-1
Je komentář přínosný?

Mě by hlavně zajímalo, kolik jader bude mít ta první verze, která půjde na trh. Mluví se o "až 64 jádrech", ale stejně tak jsme se ve slajdech o G80 mohli dočíst o kompatibilitě "až s DX10.1" a frekvenci SPs "až 2000MHz". První verze Larrabee, o které se mluvilo, měla mít 16 jader a později měla vyjít 24-jádrová. Také se mluvilo o tom, že GPU verze ponese navíc texturovací jednotky, protože jejich emulace by byla velmi pomalá. Později se mluvilo o tom, že je neponese, že budou emulované. A poslední informaci ohledně L, kterou si vybavuju, vypustila ATi, která prohlásila, že v době, kdy L vyjde, bude flexibilnější než soudobý čip ATi, ale také pomalejší.

Takže mi připadá, že L slouží pouze jako nástroj, který má předejít situaci, kdy by ATi s nVidií díky podpoře GP-GPU z určitých segmentů trhu vyeliminovaly Intel. Pokud totiž bude L dražší a pomalejší, než soudobé grafické karty, pak hráče neosloví.

+1
0
-1
Je komentář přínosný?

re: No-x
Pokud si pamatuji, tak pro Larrabee postavené na 45nm technologii, se odhadovalo jako rozumné maximum 32 jader (high-end). Pomocí 32nm by bylo možné celkem s rozumnými náklady a spotřebou postavit 48 jádrové Larrabee, nebo možná i 64 jádrové (pravděpodobně pro serverové řešení). O frekvenci se dlouhodobě mluví stále jako plus mínus 2GHz.

V jednom pdfku o Larrebbe jsem se dočetl mimojiné tohle:

Larrebee does not include fixed function logic for rasterization, interpolation, or post-shader aplha blending.

Larrabee includes texture filter logic because this operation cannot be efficiently performed in software on the cores.

+1
0
-1
Je komentář přínosný?

Hmm, pak by byla pravdivá původní verze. Ale nechápu, jak chtějí efektivně provádět FSAA. Čekal bych pak propady podobné, jako na R600 a zřejmě ještě větší, protože R600 emulovala jen resolve, zatímco L bude muset emulovat vše...

+1
0
-1
Je komentář přínosný?

kdyby se intel radsi venoval tomu co mu jde nejlip, misto nesoustredenosti na desitky ruznych vyrobku. brzy budou stat cpu intel za prd.

+1
0
-1
Je komentář přínosný?

>> sniper29a:
Toho bych se nebál. Intel klopýtl pouze jednou, a to s NetBurstem a i tak si dokázal udržet slušný podíl (otázkou je, jestli čestným způsobem, či nikoli, ale to teď nehodlám řešit). Jinak jsou jeho CPU vcelku podařené (až na Atom, ten je na můj vkus už příliš pomalý). Pokud jde o "včelku Máju" (můj volný překlad "Larra bee"), doufám, že to nezůstane jen "v prezentacích", ale že se brzy ukáže nějaký hmatatelný výsledek.

+1
0
-1
Je komentář přínosný?

sniper29a: Různé produkty dělají různí lidé. Že Intel vyvíjí grafický čip rozhodně neznamená, že na to stahuje lidi z vývoje CPU ;-)

+1
0
-1
Je komentář přínosný?

no-X, tak podle Wikipedie: "The hardware is being designed by Intel's Hillsboro, Oregon design team, whose last major design was the Nehalem."

+1
0
-1
Je komentář přínosný?

2WIFT: "Toho bych se nebál. Intel klopýtl pouze jednou"
S tim bych tak uplne nesouhlasil. Co treba xscale, resp. rada PXA? S tou mel intel velke plany, ze s ni kompletne dobije trh PDA a ostatnich handheldu, do vyvoje jiste investoval nemale prostredky (ve sve dobe byla opravdu spicka) a jak cele tot skoncilo vime. Kvuli nenaplneni tehle planu byla cela divize byla prodavana Marvelu a ja osobne bych ji predpovidal pomalou smrt.

+1
0
-1
Je komentář přínosný?

>> masi:
Hmm, na Xscale jsem úplně zapomněl ;) A vlastně na Itanium taky - beru zpět ;-).

+1
0
-1
Je komentář přínosný?

Suchý čert: To je v rozporu s tím, co jsem uvedl?

+1
0
-1
Je komentář přínosný?

Zajímavé je, jak se Itanium pořád sveřepě drží při životě. To zas bude trvat dvacet let než chcípne úplně, z toho patnáct let bude strašit jako nevyráběná zombie. Ach jo...

+1
0
-1
Je komentář přínosný?

no-x, wift: s tim souhlas, ale kdyz budes chtit nakrmit rodinu jednim bramborem, tak ten urcite nerozkrojis na 4 PULKY ;-) to je nesoustredenost na jeden produkt, ale pokusy a experminety na ukor neceho jineo. coz je velmi castym padem i nejvetsich gigantu. ve jednoduchosti je krasa a v soustredenosti je sila.

+1
0
-1
Je komentář přínosný?

re: Dr4k3
Proč by mělo Itanium chcípat? Respektive proč ti jeho živoření vadí? Je důležité si uvědomit, že ačkoli se o Itaniu mluví jako o propadáku, platí to jeno co se týče prodejů. Technologicky a výkonostně je na tom Itanium skvěle. Poslední dobou jeho pověst trochu kazí značné zpoždění (Tukwila tu měla být snad už koncem roku 2007), ale i tak to s trochou snahy může být v budoucnosti perspektivní architektura. Počet na něj optimalizovaného SW pomalu roste, v blízké budoucnost dostane společně s Xeony stejnou patici a plány Intelu stále vypadají s touto architekturou ambiciozně. Ne nadarmo například kritické a základní výpočty v současnosti vědecky nejnáročnějším projektu planety, mluvím o urychlovači LHC, beží právě na Itaniích. Intel by byl pěkně blbej, kdyby Itania, do kterých vrazil miliardy dolarů, teď pouštěl k vodě. Mít v záloze, byť né příliš výdělečnou, ale technologicky nařachanou platformu, se vždycky hodí.

+1
0
-1
Je komentář přínosný?

>> Jafpu:
Já bych řekl, že sloučení platforem Itanium a Xeon má spíše ten cíl překlopit zákazníky jedoucí na Itaniích na Xeony ;-). Jinak ono s těmi Itanii je to takové různé. S Itaniem chtěl INtel udělat díru do světa coby se 64bitovým procesorem, jenže v AMD ukázali, že výhodnější a přitom stále dostačující bude ke stávajícímu x86 procesoru přidat 64bitové rozšíření. Velkou otázkou samozřejmě jest, co by se stalo, kdyby "64bitový x86 procesor" nepřišel. Intel by podle mě určitě nebyl ten, kdo by ho udělal, když už měl to Itanium :).
Nechci říci, že je Itanium špatné (protože jsem s ním osobně zkušenost neměl). Jen se prostě neprosadilo tak, jako by si Intel přál a teď už se to podle mě ani neprosadí. Ne do desktopů.

+1
0
-1
Je komentář přínosný?

WIFT: No, ono to AMD 64 bitove rozsirenie je vlastne vcelku k nicomu, vacsia adresovatelna pamat a zopar rozsirenych instrukcii, ale zvysok je stale stary 32-bit. Ziadne terno, pokial je potreba vypoctov vo velkej presnosti s pouzitim 64bit datovych argumentov. To je (okrem ineho) hlavny prinos pravych 64bit procesorov, ako napriklad aj spominane Itanium..

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.