Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Pat Gelsinger odchází z Intelu, kvůli Larrabee

shorel jak papirek...

+1
0
-1
Je komentář přínosný?

Doufám že se Intelu nakonec podaří tento ambiciozní projekt dotáhnout do zdárného konce. Nejde jen o zvýšení konkurence, ale i o příslib nového přístupu a svěží vítr na poli grafického počítání a hi-end computingu.

Těžko říci, co je dosud na Larrabee špatně. Z mého laického názoru například nevidím důvod pro zachování kompatibility s x86. Jiné je tu u klasických CPU, tam by byla asi pěkná blbost se zbavovat této archaické, ale konkurence schopné instrukční sady. Ovšem Larrabee beztak používá svou vlastní sadu instrukcí pro vektorové jednotky (vytvořené mimojiné i Abrashem) a s x86 je kompatibilní snad jen u skalárních výpočtů, či co. Staré x86 programy by stejně nemohli využít potenciál nových Larrabee instrukcí, takže nechápu proč tam ta x86 kompatibilita je. Bůh ví, kolik transistorů a výkonu je to stojí. Už jen malý počet registrů musí u multipararelní in-order architektury s 4-násobným hyperthreadingem dost vadit a omezovat. Na druhou stranu je možná vývoj Larrabee jako zcela nekompatibilního HW moc finančně a časově náročný. Ovšem u takhle finančně a intelektuálne ambiciozního projektu bych nějakou speciálně vytvořenou ISA viděl raději.

+1
0
-1
Je komentář přínosný?

intel dělá hlavně procesory a vzhledem k tomu že z x86 procesorů by měly vycházet čipy použité na larabee... tak by bylo asi těžký zbavit se x86 kompatibility... holt je to účelový hw pro extra náročné výpočty, třeba raytracing v reálném čase... kdyby se toho chytili vývojáři, to by byla herní grafika... ale nechme se překvapit.... 2011 je ještě docela daleko, výsledek nemůžeme ještě předpovídat ale myslím, že intel je teď v pozici kdy už do toho vrazil tolik peněz že nemůže zpět.... :-D

+1
0
-1
Je komentář přínosný?

mikeczcom> v takej pozicii bol aj s Itaniom a veru radsej sa mohol na to vykaslat...

+1
0
-1
Je komentář přínosný?

Možná je to obecné povědomí o LRB trochu jinde, než realita... v jednom z posledních rozhovorů s Gelsingerem (duben 2008) padlo, že těžiště LRB je na straně renderingu, nikoli ray-tracingu. Počítalo se s tím, že v době, kdy vyjde, nebude RT rozšířený - podpora pro RT byla jednou z možností, ne cílem. V době, kdy měla být LRB hotova, byl ale výkon v renderingu údajně na úrovni mainstreamu, takže mělo dojít na změny - vyšší množství výpočetních jednotek a novější výrobní proces. Jenže za tu dobu ATi s nVidií udělaly totéž, takže se realtivní pozice LRB nijak nezměnila. Nedá se čekat, že by se to mohlo změnit - stejně jako bude zlepšovat Intel, tak bude zlepšovat i ATi s nVidií. Pokud má architektura LRB 2x horší efektivitu, pak se jim prostě nikdy nemůže vyrovnat... Má sice výhodu, kterou je deferred shading, ale limity výkonu jsou v podobě emulace většiny funkčních jednotek, která bude vždy pomalejší, než použití jednotky specializované.

+1
-1
-1
Je komentář přínosný?

re: no-X
Máš pravdu, čekání na nové výrobní procesy pochopitelně nic neřeší. Efektivita jak využít v praxi teoretický výkon je jedna věc. Zajímavé však je, kolik je třeba transistorů (respektive plochy na waferu) na určitý teoretcký výkon. Pokud jsou mé informace správné, Larrabee postavené na 45nm technologii potřebuje 703 mm2 pro teoretcký výkon 2TFLOPs (32 jader na 2GHz). nejnovější Radeon postavený na 40 nm technologii má plochu 338 mm2 a výkon 2,72TFLOPs. Pokud nebudu brát v úvahu malé rozdíly mezi výrobními procesy, poskytuje Radeon 5870 na jednotku plochy 2,8x vyšší teoretický výkon. To je ještě vzhledem k efektivitě Larrabee žalostné. Neříkám že jediným viníkem tohoto nepoměru je x86 kompatibilita, ale pokud by se odstranila, nepochybuji, že by to bylo lepší.

Ačkoli Intelu i Larrabee dost fandím, mám pocit, že pokud se Intelu nepodaří zvýšit poměr výkon/plochu minimálně 2x (pochopitelně bez bonusu lepšího výrobního procesu), nebude mít u her moc šanci. U profi softwaru, GPGPU aplikací, kde by mohlo Larrabee těžit s vyšší flexibility než jakou nabízí dnešní GPU, má snad Intel šanci. Ovšem u her si neumím představit co by musel Intel vymyslet, aby bylo Larrabee konkurenceschopné.

+1
+1
-1
Je komentář přínosný?

"EMC, společnosti zabývající se datovými úložišti"

Jistě. A pak samozřejmě dalšími drobnostmi. Například jim patří VMware, RSA, Iomega, Legato... ;-)

Holt sovy nejsou tím, čím se zdají být.

+1
-1
-1
Je komentář přínosný?

Čo je na Larabee zle ? Prehistorický návrh Pentia MMX pozliepaný s navýšením výkonu pomocou novších výrobných technológií. Také A Je To v podaní Intelu, namiesto toho aby za tie roky urobili ozaj poriadnu grafiku zaspali dobu a teraz chcú preraziť s bubnom pri love na zajace. Larabee vidím ako slepú vyvojóvú vetvu podobne ako Pentium 4.
Časom z toho niečo určite vzíde, skončilo tam veľa prachov ale z pôvodného návrhu Larabee už zostane len názov.

+1
0
-1
Je komentář přínosný?

položím dotaz úplného neznalce a hlupáka: A bude pak potřeba ještě procesor, pokud bude zvládat x86 instrukční řadu?

+1
0
-1
Je komentář přínosný?

Jestli Intel navrhne a vyrobí i základní desku, do které by bylo možné Larabee osadit, pak samozřejmě už další procesor nebude potřeba. Ale zatím to tak nevypadá.

+1
0
-1
Je komentář přínosný?

tak. tu desku vyrobí, to asi bude detail. tudíž ji posadí do PC/NB nebo kam se to hodí, ušetří náklady oproti konkurenčnímu řešení procesor+grafika, nacpou to kdekomu a bude po žížalkách, protože grafický výkon bude někde mezi 50-70% karet, které stojí okolo 2-4tis. (o těch je tady řeč jestli dobře chápu)(ano, myslím si, že budou stát furt stejně). jestli si dobře pamatuji statistiku, která se tady nebo jinde objevila, ati a nvidia sice nemají na poli add-on grafik konkurenta ale v celkovém hodnocení když se vezme do úvahy i podíl integrovaných grafik, tak je intel více než vyrovnaným konkurentem.

stane se tedy to, že intel pravděpodobně nabídne řešení, které bude zabírat méně místa, bude mít menší nároky na chlazení a nabídne velmi srovnatelný výkon. kromě NB sektoru přetáhnou veškerý office sektor a nízkorozpočtové domácnosti.

kdo by odolal?
odolají vývojáři? nebo budou psát hry tak, aby v min. konfiguraci na takovémto řešení běžely?

a mimochodem jak to bude s poměrem když porovnáme spotřebu té novinky a součet spotřeby grafické karty a procesoru?

přijde mi to jako rozumná strategie.

+1
0
-1
Je komentář přínosný?

utopí v tom ještě jednu miliardu a pak to zabalí ...

+1
0
-1
Je komentář přínosný?

Larabee nikdy nebude dosahovat efektivity dnešních GPU, protože její procesory jsou prostě příliš složité ve srovnání s "primitivními" unifikovanými shadery. Bylo by potřeba vytvořit nějaký úplně nový výpočetní model, který GPU prostě umět nebudou (nebo s potížemi) a na to se soustředit, jinak to nemá šanci. Nevím, proč se Intel tomu raytracingu brání, když je to IMHO jedna z mála cest, jak Larabee vůbec upotřebit.

+1
0
-1
Je komentář přínosný?

Intel Larrabee nebude tak efektivní jako GPU ani ne tak proto, že je složité, ale kvůli tomu, že využívá zastaralou instrukční sadu x86, kvůli čemuž klade extrémní nároky na programátory a kompilátor.

Takže například architektura R600+ (HD2900, HD3870, HD4870, HD5870) se programuje víceméně jako multijádro s 64-320 procesory VLIW RISC, tak Larrabee aby poskytovalo rozumný výkon, je třeba ho programovat jako vektorový procesor s 8-64 vektorovými procesory.

Ale abychom si rozuměli, věřím že Larrabee nebo spíše jeho technologie, může přinést revoluci zejména v oblasti webových serverů, kde je požadavek na vysoký paralelní výkon.

I když upřímně řečeno, bude to mít těžké, protože procesory jako IBM POWER7 je slušná drtička, která s dobrým operačním systémem může poskytovat nejen výborný paralelní, ale též extrémní sériový výkon, který, jak říká teorie i praxe, je takovým "můmí" software.

+1
+1
-1
Je komentář přínosný?

re: Georgeek
Pokud vím, tak instrukční sada x86 je oblíbená hlavně z toho důvodu, že se pro ni snadno programuje. Tipl bych si, že po záruce zpětné kompatibility je to asi největší klad této instrukční sady. Nejsem programátor, takže se mohu jen dohadovat, zda-li je to způsobeno samotnou ISA, nebo spíš architekturou dnešních x86 CPU, jenž jsou natolik prošpikovány sofistikovanými obvody pro rychlé vykonávaní i špatně napsaného softwaru, že se pro ně programuje jedna radost. Možná v tom hrají roli i téměř k dokonalosti vyladěné kompilátory a vývojové nástroje. V každém případě slýchávám na x86 CPU všechny možná negativa, ale že se na něj programuje hůře než na ostatní ISA, je mi novinkou. Například vyvíjet pro takový Cell je prý hotové peklo, stejně jako třeba pro Itanium. A nejhorší je prý psát SW pro GPGPU. Tim Sweeney se nechal nedávno slyšet, že je to asi 5x finančně náročnější, než napsat SW pro CPU s několika málo komplexními jádry (dnešní x86 CPU). Jestli se pro Larrabee špatně programuje, domnívám se, že to nebude díky x86 kompatibilitě.

Pokud jde o Power7, podle předběžných info se jeví opravdu jako drtička, ovšem byl bych opatrný. Řeči o nadřazenosti procesorů Power od IBM nad těmi x86, jsou liché. Například současná vlajková loď firmy IBM, tedy Power6, dostává od serverových Xeonů (Nehalem) docela nakládačku. A to i přes mnohem vyšší frekvence a počet transistorů, kterými disponuje. Myslím že to uznala i sama IBM a s Power7 slibuje velký nárůst efektivity. Ovšem sliby jsou jedna věc a praxe další. Nicméně jim fandím.

Bohužel, odpověď na otázku kolik transistorů (a přeneseně i výkonu) stojí zachování x86 kompatibility u Larrabee ví asi jen inženýři u Intelu. Pokud je mi známo, tak v Core 2 je prý na zachování zpětné kompatibility třeba méně než 5% celkového počtu transistorů. Ovšem jádra Larrabee jsou mnohem jednodušší, takže tam to bude horší. S narůstající komplexností čipu roste počet transistorů kvůli překládání instrukcí pomalu. U prvních Inteláckých procesorů jenž překládali CISC instrukce do interních RISC (Pentium Pro) to bylo kolem 30%. Počítám že u Larrabbe to nebude o moc méně.

+1
0
-1
Je komentář přínosný?

Georgeek: Nevím, co máte všichni proti x86. Dřív to byl problém, ale dnes (jak jde vidět např. na srovnání Nehalem vs. Power7) je to spíš výhoda - není potřeba vysokých frekvencí a optimalizací "na železo", aby procesor fungoval dobře, navíc kód je výrazně (cca 2x) kratší, takže na stejný výkon stačí poloviční cache a může být pomalejší přístup do paměti. x86_64 navíc už zavádí relativně dost registrů. Čistě RISC je dnes už výhodnější jenom pro výrobce, protože procesor je jednodušší, ale co se efektivity zpracování kódu týče, tak má x86 navrch.

+1
0
-1
Je komentář přínosný?

xvasek: x86 je zprasena instrukcni sada z mnoha pohledu. Oba velke upgrade - i386 a x86_64 - to o neco zlepsili, ale presto by navrh z ciste vody mohl byt lepsi. Problem je, ze existujici alternativni navrhy jsou VLIW a podobne, coz dneska zacina byt zbytecne - jak jsi zminil, kód je výrazně (cca 2x) kratší, takže na stejný výkon stačí poloviční cache a může být pomalejší přístup do paměti.

Na navrh architektury lepsi nez x86_64 neni zapotrebi ani moc casu, ani velke vzdelani. Staci rict co vynechas :-). Napriklad TSS je v podstate zbytecny. Cely 16bitovy mod muzes zahodit. Pulku variant GDT taky, zbytek muzes zjednodusit ...

+1
0
-1
Je komentář přínosný?

hkmaly: Že by se daly některé - dnes už nepoužívané - části vyhodit, je nesporné, ale to nemá s "kvalitou architektury" až tak moc společného. Navíc to stejné se dá ale říct i o ostatních architekturách - proč je např. MIPS little i big endian a proč umí 32bit i 64bit kód?

+1
0
-1
Je komentář přínosný?

to blbeček_kopie:
- ono srovnávat efektivitu jakékoliv RISCové instrukční sady s x86 je pochybné, protože to je jako bychom chtěli srovnávat Unix a Multics, to druhé jsou totiž dinosauři. A to že Intel vypráví pohádky o efektivitě instrukční sady, na kterou má defacto monopol a živí ho, mi vhání slzu do oka. Jeden argument za všechny, dekódování extrémně složité instrukční sady jakou x86 je, způsobuje zejména problémy s prodlužováním pipeline, což vede k obrovským problémům v okamžiku chybné predikce cíle instrukcí skoku a zbytečně to zatěžuje velkou část procesoru. Pro informaci, instrukce skoku jsou vedle aritmeticko-logických nejčastější, a nedojde-li k zásahu cache, procesor se zastaví klidně na několik stovek cyklů hodin.

- problém s instrukční sadou Larrabee je ten, že sice umožňuje tu skvělou a úžasnou zpětnou kompatibilitu, což je bezesporu největší výhoda x86, jenže se kvůli jejímu použití pro dosažení vysokých výkonů zároveň musejí zavádět stále nové a nové vektorové instrukce, což je znamená nekompatibilitu, protože se například kompilátory musí přepsat a vlastně to je nyní klíčový problém Larrabee.

- PowerX dostává nakládačku právě kvůli tomu, že je dražší, nikoliv kvůli svému výkonu, protože ten je velice slušný. Ostatně výkonnostně je vhodnější srovnávat Power7 a Nehalem daleko spíše, protože oba jsou aktuální procesory.

- Cell se sice programuje blbě, ale je to daň za špičkový poměr výkon/spotřeba. Nicméně Cell není Power7 či Power6.

+1
0
-1
Je komentář přínosný?

Georgeek: Proč myslíš, že srovnání x86 a RISC je pochybné? Jsou to jenom procesory, které vykonávají programy, některé to zvládnou rychleji a některé pomaleji. Dinosaurus x86 je momentálně v té první skupině a vyhrává jak na "top speed", tak v "performance / Watt" - pokud tedy nezačneme srovnávat s různými specializovaným koprocesory.

+1
+1
-1
Je komentář přínosný?

to xvasek: To co píšeš jsou jen nepodložená tvrzení, z kterých lze soudit, že nemáš tušení o skutečném stavu věci. Pokud by situace byla, jak píšeš, nepochybně by se firmy, včetně samotného Intelu (viz.: Itanium - VLIW RISC) nesnažily prosadit jiné architektury a instrukční sady.

+1
+1
-1
Je komentář přínosný?

Georgeek: Tak udej aspoň jeden případ dobře prosazené RISC architektury v high performance, který není starší, než dva roky. RISCu se dnes daří v podstatě jenom v embedded (modemy, switche, telefony), protože tam není potřeba skoro žádný výkon, tak stačí nasadit primitivní RISC procesor, celkově ale RISC upadá na úkor x86 už asi deset let. Vezměme to popořadě - Alpha to zabalila první a technologie přešla nepřímo k AMD do Athlonu, SGI už drží nad vodou jenom x86 (vyrábí se ještě MIPS servery?), SUN už taky neexistuje a jejich poslední počin (Niagara) byl dobrý tak leda na web server se statickými stránkami, poslední už je v podstatě jenom IBM s Power; kdyby byl ale Power skutečně lepší, než x86, pak by přechod Applu na Intel asi nedával moc smysl (a pak že nejde "zlomit" řadu a porušit zpětnou kompatibilitu). A ony ty Intel Macy jsou skutečně o poznání rychlejší. A argumentovat zrovna Itaniem - no, nevím, asi bych těžko hledal procesor, který za takové peníze nabízí tak mizerný výkon. Ano, výkonově je na tom lépe, než Atom, ale bude nám to, soudruzi, stačit? :-) Ukaž mi ty výkonné RISC procesory, které nemají "pochybnou x86 sadu", kde jsou? Jmenuj ne tři, ale jeden takový, který při srovnání s C2Q za 5000 z Alzy nepůjde brečet do kouta.

+1
0
-1
Je komentář přínosný?

x86 má zásadní problém a to IA32, tzn. že základ tvoří 32 bitů. Chtělo by to přesedlat na IA64.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.