Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Budou 14/16nm GPU nadlouho poslední velkou událostí v grafice?

Pokial 10 nm vs. 14/16 nm bude iba pol-generacny skok, resp. pol-generacny pokus ako v pripade 20 nm vs. 28 nm, tak ten pravy velky skok v podobe 7 nm high-end GPU tu nebude este veeeeeeeeeeeeeeeeeeeeeeeelmi dlho, typujem cca dekadu. To nevylucuje vyuzitie ci nevyuzitie 10 nm pol-generacnych pokusov/podarkov/nepodarkov, ale na velky skok ako z 28 nm na 14/16 nm si pockame asi tak do 2023-2025.

+1
+11
-1
Je komentář přínosný?

Vidim to uplne stejne a priklanel bych se spis k 2025 pokud se pojede jen na kremiku.

+1
+6
-1
Je komentář přínosný?

Tez to vidim tak, a neda se ocekavat, ze prechod na jine materialy bude trvat mene nez 5 let, pricemz krome Intelu nove materialy nikdo nehleda, protoze ostatni si hraji s 10nm a neda se ocekavat, ze zacnou zitra, pocitam ze jeste tak dva roky jim potrva nez k tomu rozhodnuti opustit kremik vubec dospejou, takze 2023 je realny optimisticky termin noveho vyrobniho procesu nezalozeneho na 14/16nm pripadne vylepseneho 10nm. Na druhou stranu co se tyka vyrobcu grafik, tak urcite se bude nasledujicich nekolik let optimalizovat a take prijdou ve vetsi mire HBM pameti, ktere take pomohou dlouhou dobu na cekani nove generace grafik preklenout, takze pocitam, ze v roce 2023 vyjde posledni preznaceny Polaris 10 a GP104. :-D

+1
+3
-1
Je komentář přínosný?

Chápu to správně, že pokud si koupím Polaris 10, tak bych s ním mohl vydržet 10 let ?

+1
+5
-1
Je komentář přínosný?

Ano, se podívej na ty hry dneska. To se nedá hrát! Za dvě hodiny máš vše dohraný a nuda.

+1
+6
-1
Je komentář přínosný?

Muzou prijit softwarove vychytavky, ktere budou potrebovat podporu v hardwaru, treba DirectX 13 nebo neco na ten zpusob, ale da se ocekavat, ze s grafikama od AMD Polaris 10 se bude dat vydrzet pomerne dlouho.

+1
+2
-1
Je komentář přínosný?

mam radeon 7970 na na vsetko co hram mi staci na max detaily (fullHD)(50-60fps)

karta z roku 2011 stala ma 200e z bazaru
mam na nej Alpenföhn Peter a 2 12 cm vetraciky spotrebu neriesim je ticha

+1
+1
-1
Je komentář přínosný?

Já mám dva roky R9 290X a teď po koupi 4K monitoru mu dochází trochu dech. Takže nějaké navyšování nároků na grafiky tu je.

+1
-1
-1
Je komentář přínosný?

Přechod na 10nm ze 14nm je celá "generace" (z 16nm jeden a půl nodu). Samozřejmě za předpokladu, že se adekvátně zmenší features. Pro info - pokrok o jeden node má odpovídat cca 2x větší denzitě (teoretické - jsou věci, které se nezmenšují). To znamena že "nanometry" při plném nodu mají být cca 1,4x menší (sqrt(2)).
Skok z 28nm na 14nm měly být dva nody (1,5 pro 16nm). Reálný pokrok bohužel odpovídá spíše jedinému (trošku nadstandardnímu) nodu. Jediný, kdo se při škálování přiblížil této laťce je intel. Uvidíme, jestli/do jaké míry s dalším nodem budou TSMC/Samsung(/intel) pokračovat s přibarvováním. Pokud to moc nepřibarví, tak se dočkáme podobného pokroku jako teď.

+1
+2
-1
Je komentář přínosný?

Kdyby mi v době mého mládí (zabýval jsem se elektronikou) řekl, že jednou budou integrované obvody (čipy se ještě neříkalo), které budou žrát čtvrt kilowattu, asi bych se chechtal tak týden...

+1
+8
-1
Je komentář přínosný?

No jo ale v té době by ses taky nezamyslel nad tím, že bude mít ten integrovaný obvod 15 miliard tranzistorů tj. že spotřeba každého jednoho bude méně než pšouk :-)

+1
+26
-1
Je komentář přínosný?

"Co potom?"

Potom tady snad konečně bude trochu klidu a nebude tu denně několik zpráviček pouze o grafikách a zase se tu začne psát o IT jako takovém. Od doby ohlášení Polarisu a Vegy je to tady fakt utrpení...

+1
-14
-1
Je komentář přínosný?

Od doby ohlášení 1080 a 1070 je to tady fakt utrpení...

+1
+5
-1
Je komentář přínosný?

veskere diskuze kde jsou 2 a vice taboru fanousku jsou utrpenim odjakziva

+1
+3
-1
Je komentář přínosný?

Cekal bych to co u 28nm... dalsi generaci se uvede skutecny hi-end tj 600mm2 chipy, a pak budou vyrobci vymyslet zoufale saskarny aby meli duvod vydat neco noveho ;)

+1
+5
-1
Je komentář přínosný?

Nevím jestli je to špatně, nebo spíš dobře, ale pokud se opravdu vývoj bude ubírat naznačeným tempem, tak nejspíš nejen, že můžeme zapomenout na nějaké rychlé zvyšování výkonu GPU a tedy na zavádění technik typu ray tracing do běžného herního mainstreamu, ale také si běžný mainstream nejspíš dost počká i na nástup umělé inteligence a z toho vycházejících aplikací typu skutečně plně autonomní řízení osobních aut, apod... To všechno totiž předpokládá obrovský výpočetní výkon při zároveň rozumně nízké prodejní ceně a také spotřebě - a obávám se, že tyhle požadavky technologie 14nm stále ještě nesplňuje.

+1
+3
-1
Je komentář přínosný?

počítač-počítá, počítá podle programu, pokaždé spočítá všechno přesně podle toho jak jej někdo naprogramoval. Pořád to je tranzistor s přechodem PNP nebo NPN. Co tady do toho taháš umělou inteligenci? Umělá inteligence buď bude sama o sobě "přemýšlet" a nebo to bude jen fiktivní uměla inteligence chovající se přesně podle programu který někdo naprogramoval.
K čemu by mi ale byla umělá inteligence by't v 16nm nebo 10nm nebo 0,7nm aby mi zobrazovala nějakýho emzáka ve 3D střílečce nechápu.

+1
+3
-1
Je komentář přínosný?

Umela inteligence je po sestrojeni rizena programem, ktery vymyslel clovek, nicmene ona sama dokaze ten program zlepsovat pripadne si ten program pretvorit na uplne jinej program, no a aby to dokazala, musi bejt desne chytra a tudiz potrebuje mit namakanej procesor. :-)
Nicmene souvislost s grafickou kartou mi taky unika.

+1
-4
-1
Je komentář přínosný?

Pokud tuším správně, tak na simulaci neuronových sítí se vcelku hojně využívají moderní GPU.
A jak to souvisí obecně s výrobním procesem? - Čím pokročilejší výrobní proces, tím složitější obvod a tím rozsálejší neuronová síť......

+1
+2
-1
Je komentář přínosný?

Asi je tym myslene ze casom by mohla pokrocila AI navrhnut cip pri rovnakych rozmeroch a technologiach ktory bude vykonnejsi nez aky je schopny navrhnut team ludi.

+1
-2
-1
Je komentář přínosný?

proč by to dělal? jediná další možnost jsou kvantové počítače.

"Optimální řešení úlohy dokázal vyřešit 10 000x rychleji než konkurenční výkonné počítače. Pro představu: tam kde sedm čtyřjádrových Xeonů potřebovalo na výpočet30 minut, kvantovému čipu stačily stovky milisekund."

+1
-2
-1
Je komentář přínosný?

Základem chybnosti vaší úvahy je, že by nutně každá inteligence musela být lidská. I zvířata mohou být značně inteligentní (ptáci, lidoopi) ač je to pochopitelně jiný rozměr intelignce než současný lidský. Takže i stroj může být "inteligentní" (učit se, poznávat, upravovat své schopnosti a rozhodovat) a přesto nemusí mít lidské schopnosti.

Sám o sobě přemýšlet je sebeuvědomění, nikoliv inteligence (i když je k tomu inteligence potřeba). Sebeuvědomění má i celá řada zvířat (lidoopi, straky, psy, sloni, delfíni a co já vím).

+1
+2
-1
Je komentář přínosný?

Jedna technická - Možná není úplně špatným nápadem, ještě před napsáním příspěvku na nějaké téma, si o dané tématice nejprve něco aspoň trochu nastudovat. V opačném případě je totiž riziko, že tvůrce příspěvku bude vypadat jako..... :p
Co se týče konkrétně zmíněného tématu umělé inteligence, myslím, že není na škodu mrknout se na obsah pojmů - "umělá inteligence", "neuronové sítě", "strojové učení", "genetické programování", apod....

+1
0
-1
Je komentář přínosný?

Možná si to právěže nastudoval... Váš argument, že "tyhle požadavky technologie 14nm stále ještě nesplňuje", je s největší pravděpodobností chybný - především proto, že třeba řešit neuronové sítě pomocí GPU je tak trošku jako zatloukat hřebíky kombinačkami. Jde to, ale dře to. Mnohem zajímavější by bylo něco jako někdejší Supercomputer Toolkit, který prostě umožňuje aplikace kompilovat do hardwaru (resp. umožňoval programátorovi (nebo spíš systémovému architektovi) psát je tak, aby takto byly snáze přeložitelné). Je docela slušná šance, že s lepšími nástroji pro takovou tvorbu hardwarově-softwarových systémů by aplikace vytvořená nad 65nm křemíkem byla rychlejší než program nad 16nm GPU, nemluvě o menší spotřebě a ploše křemíku.

(Ekonomicky klíčovým prvkem je zde samozřejmě úplná automatizace: absolutně nechcete, aby se zde výsledného fyzického produktu musela dotknout lidská ruka. Ale od toho zde právě můžete aplikovat vámi uvedené techniky na metaúrovni - při návrhu samotného produktu, kde pomohou s optimalizací funkčních bloků a jejich zapojení.)

+1
-1
-1
Je komentář přínosný?

Tak ještě jednou - pokročilost výrobní technologie podmiňuje složitost obvodů a rozvoj a aplikace umělé inteligence jsou silně podmíněné složitostí obvodů.
Ad. použití GPU v oblasti NN. Bez ohledu na to, co o tom soudí nějaký "Gath G", je to jedno z využití moderních GPU. viz. google a ku příkladu "GPU NN". :)

+1
-2
-1
Je komentář přínosný?

Tak zrovna neuronové sítě NEJSOU moc podmíněné složitostí obvodů, protože neuronová síť je v zásadě celkem jednoduchá, jen má těch jednoduchých kusů hodně, podobně jako velké části dnešních GPU. Nezaměnujte složitost a počet tranzistorů/stupeň integrace jako nějaký "gostihus". ;)

(Ba co víc, skutečnost, že místo na složitých CPU se neuronové sítě počítají spíše na jednodušších, ale mnohokrát opakovaných GPU blocích jasně ukazuje, že tady vede spíš jednoduchost. Ovšem na specializované jednotky - ještě jednodušší a ještě výkonnější - si asi ještě budeme muset počkat, což je důvod, proč se zatím používají k tomu účelu nevyhovující GPU.)

+1
0
-1
Je komentář přínosný?

tohle nesplnuje zadna soucasna technologie :) jinak budoucnost je ve vice jadrovych GPU popripade multi GPU vsak uz i DX12 ma lepsi podporu

soucasna vyrobni technologie GPU je slepa ulicka a tohle se tyka i CPU a x86 / x86_64 uz je cas na poradnou revoluci namisto malych evolucnich krucku :) ale osobne jsem zvedav kolik let vydrzi takovy 7nm CPU/GPU jestli to bude konzumka nebo to vydrzi aspon 10 let a vic :)

+1
-2
-1
Je komentář přínosný?

"soucasna vyrobni technologie GPU je slepa ulicka"

Pokud tou "slepou uličkou" myslíte, že se jednou dostane do bodu, za kterým už nepůjde nic zlepšit, tak to se týká spousty technologií, pokud ne všech.

+1
-1
-1
Je komentář přínosný?

Neskutočné kecy.

Oháňaš sa 5 rokmi, k čomu si dospel zaokrúhlením 4,5, ktoré si dostal ako rozdiel zavedenia 16nm Nvidiou (ktorá ako píšeš zavádza nové procesy neskôr) a 28nm AMD (ktoré ho zaviedlo skôr)? Slušné aj na teba. :D

Neustále opakuješ, aký bol 20nm FAIL, ale pritom ignoruješ fakt, že ešte stále je pár výrobcov, ktorí ho veselo používajú.

Aký nový materiál začne používať Intel pri 7nm? Čo ja viem, tak ostáva pri kremíku (maximálne doladí niektoré prísady, ako obyčajne). Máš nato nejaké zdroje?

A 16nm ešte v roku 2020? Nuž, mal by si sa pripraviť aj na možnosť, že prvé 7nm čipy tu budú skutočne už v roku 2018. 10nm výroba už prakticky beží a o 7nm sa už nejakú dobu jedná s návrhármi čipov.

Mimochodom, tie nové procesy sú vždy plnohodnotné procesy s lepšou hustotou, spotrebou, frekvenciou... Žiadne "poloprocesy", to boli napríklad 16FF a 16FF+.

Zhrniem to tak, nevadí mi, ak si niekto vymýšľa ničím nepodložené drísty, vadí mi len keď to robia pseudoredaktori ako TY, ktorí majú možnosť to ďalej šíriť medzi blbečkov, ktorí to budú nasledujúcich pár rokov šíriť ako sväté písmo.

+1
-15
-1
Je komentář přínosný?

Tak blbeček tu je len jeden a ten sa podpisuje menom Dolan. A po anglicky asi nevie vôbec a chápať písaný text mu robí problémy. Tak to skúsim stručne, možno pochopíš.
Porovnáva sa uvedenie prvého GPU na 28 a 14nm.
20nm bol označený za použiteľný pre výkonne čipy a nevidím jediný čip čo by dokazoval opak.
Intel už otvorene hovoril, že pre sub10 testuje aj iné varianty ako kremík.
Pokojne by som sa vsadil, že GPU sa pred rokom 2020 na menší ako 14nm proces neposlnú. Jediný kto ma šancu do vtedy predávať výkonne čipy na 10nm je Intel a ten sa trápil už so 14nm. A tomu, že ďalej to bude jednoduchšie veríš asi iba ty.
A posln z 28 na 20 znamenal hlavne vyššiu denzitu. Bez FinFet bol posln v spotrebe a frekvencii minimálny.
Linky si môžeš dohľadať ja s tým čas strácať nebudem, lebo pre teba to nemá zmysel.

+1
+7
-1
Je komentář přínosný?

"Porovnáva sa uvedenie prvého GPU na 28 a 14nm."

Ona bola nejaká 14 nm grafika uvedená? :D Ale OK, aj keď myslím že meškanie 14nm už TSMC veľmi neovplyvní. Preto by bolo vhodnejšie porovnať uvedenie 16nm Nvidie s 28nm Nvidiou, aj keď chápem že to nebude vyzerať tak dobre.

"20nm bol označený za použiteľný pre výkonne čipy a nevidím jediný čip čo by dokazoval opak."

off-topic: buď vážne nechápem alebo robí písaný text problém tebe. :D Nechcel si napísať že bol označený za nepoužiteľný?

Pretože použiteľnosť môže dokazovať Sparc M7, Iphone, konzoly, FPGA, tony ASIC-ov... Ale opak (teda nepoužiteľnosť) asi vážne dokázať neviem. :D

"Intel už otvorene hovoril, že pre sub10 testuje aj iné varianty ako kremík."

Intel toho nakecá, ale realita je taká, že budú používať kremík. To že budú použivať nejaké prímesi nie nič prevratné, pretože sa používali už dávno predtým.

"Pokojne by som sa vsadil, že GPU sa pred rokom 2020 na menší ako 14nm proces neposlnú. Jediný kto ma šancu do vtedy predávať výkonne čipy na 10nm je Intel a ten sa trápil už so 14nm. A tomu, že ďalej to bude jednoduchšie veríš asi iba ty."

Ja som nevravel, že to bude jednoduché.

A že by bol Intel prvý? Nuž, 14nm mobilný čip síce oznámili ako prví, ALE len papierovo (narozdiel od Samsungu). S reálnou produkciou na tom boli ale horšie. Desktopové Skylake mali problémy s výťažnosťou až do konca roku 2015. Veľké serverové čipy zase ohlásili len krátko pred GP100, výťažnosť je tiež otázna. KNL je plánovaný až na Q3-Q4/16, rovnako FPGA (16nm FPGA tu sú už asi rok). Takže Intel môže byť prvý len v marketingových kecoch, ale reálne za Samsungom a TSMC už dnes ťažko zaostáva.

edit: Zabudol som 10nm. Samsung aj TSMC už na 10nm vyrábajú, Intel nemá postavené ani továrne (prvú by mal dokončiť koncom tohto roku).

"A posln z 28 na 20 znamenal hlavne vyššiu denzitu. Bez FinFet bol posln v spotrebe a frekvencii minimálny."

Tebe sa zdá 4,13 GHz na 32 jadrách (265 vláknach) málo? A pokiaľ ide o spotrebu, je vysoká, ale pomer výkonu a spotreby je lepší ako v Broadveloch.

+1
-7
-1
Je komentář přínosný?

Jen bych upozornil, že v newspeeku Samsungu "10nm" znamená cokoliv od 10 do 19 nm a "20nm" 20 až 29.

+1
-2
-1
Je komentář přínosný?

Je rozdiel medzi pojmom "10nm" a "10nm class". To druhé je samozrejme čokoľvek medzi 10-19nm ale týka sa to hlavne výroby pamätí, kde platia trocha iné pravidlá. ;)

+1
0
-1
Je komentář přínosný?

Já nevím, jestli jsi jenom tak blbý, nebo to ze sebe děláš, ale... Víš vůbec, že výroba nezávisí pouze na blbých rozměrech?
Porovnáváš tady blbé ARM, ASIC a FPGA čipy, které se vyrábějí úplně jinak, než GPU s obrovskou hustotou. Ten Sparc je jediný čip, co za něco stojí. Ale taky, kdo ho vyrábí a po jaké době 20nm postupu?
Oh, já vlastně zapomněl, že ty jsi moudřejší, než návrháři čipů a víš úplně přesně, jak to s výrobními postupy je a výrobci grafik jsou úplně blbí, že 200nm nepoužili. :)
Ale to asi nemá cenu mluvit, že. Vzhledem k tomu, jak tady ostatní poučuješ o porozumění psaného textu. :)

+1
+1
-1
Je komentář přínosný?

20nm FPGA majú viac ako 20 miliard tranzistorov a TDP cez 200W. A štruktúrou tam je dnes viac DSP blokov, transceirvov, pamäte... ako rekonfigurovateľnej logiky, takže od grafík sa zase až tak nelíšia. ASIC detto.

Dodávky SPARC M7 prebiahali podobne ako dodávky Nvidie alebo akýchkoľvek iních druhoúrovňových odberateľov, teda +- rok po zahájení výroby. A čo myslíš týmto? : "Ale taky, kdo ho vyrábí". Vyrába to TSMC pretože Glofo také veľké a žravé čipy nerobí a Intel nedokáže vyrobiť procesor s 10 miliardami tranzistorov ani na 14nm.

Ja nevravím, že AMD a Nvidia sú blbí len preto že nevyužili 20nm proces. (teoreticky, ak by obaja prešli na 20nm proces tak by sa stalo to, že by v tom obaja utopili veľké peniaze ale nik z nich by nemal výhodu lepšieho procesu. Grafiky by sa predávali rovnako ako na 28nm len s vyššími nákladmi).

Vravím že je blbé tu niekoho presviedčať, že do roku 2020 tu bude 14/16nm, aj keď 10nm výroba beží už dnes.

+ mi lezú krkom tie neustále lži o tom, ako je 20nm fail, ako má Intel lepší proces, ako 16/14nm nieje skutočných 16/14nm... Teda presnejšie, je mi jedno čo si píše nejaký pošahaný redaktor svojim čitateľom (ktorím to zjavne nevadí). Vytáča ma, ak ho niekto začne citovať na serióznych fórach, a odvolávať sa neho pri svojich teóriách.

ps.: o základoch porozumenia textu by sa ti na druhej strane zišlo niečo málo poučiť, keďže si si nevšimol, že s poučovaním začal niekto iný :D

+1
-3
-1
Je komentář přínosný?

Naozaj sa chovas ako retard. A to ti pisem v dobrom ako Slovak Slovakovi. Cely cas sa tu bavia o grafickych kartach. AMD a Nvidia teraz nabehli po 5 rokoch na novy proces, z ktoreho im lezie este stale vela odpadu. Este rok ho budu ladit a postupne pridavat drobne vylepsenia cca 15-30% vykonu rocne. Nikto iny (pouzitelne na poriadne hranie) graficke karty nerobi.
A ty si myslis, ze Intel vyda graficku kartu na 10 nm? Ked doteraz ziadnu nevydal. Ak bude mat stastie, tak vyda integrovanu Iris2.

+1
+1
-1
Je komentář přínosný?

Vážne som retard, lebo kde som napísal že by mal Intel vydať nejaké grafiky?

Ešte raz k tým 5 rokom:

GK104: March 22, 2012. GP104: May 27, 2016. Rozdiel približne 4 roky a dva mesiace, teda dosť ďaleko od 5 rokov.

GK110 teda prvé veľké 28nm jadro vyšlo dokonca až v roku 2013.

A za to, že AMD prešlo na 28nm skôr ale so 14nm mešká nemôže TSMC, pretože AMD už vyrába u inej firmy, ktorá to evidentne nezvláda. Takže oných 5 rokov súvisí buď s neschopnosťou AMD využiť nový proces, alebo neschopnosťou Samsungu vyrábať veľké GPU.

Ale miešať dve firmy ktoré vyrábajú u dvoch rôznych výrobcov... to predsa o kadencii výrobných procesov vôbec nič nevypovedá.

+1
-2
-1
Je komentář přínosný?

Zbytocne chytas za slovo pan logik. Aj keby to boli 3 roky, tak do 2020 nestihnu vydat kvalitnu hernu kartu. Urcite sa im to na 10 nm neoplati, jedine s nejakou prevratne stabilnou technologiou a tu nez nasadia uplynie dalsich 5 rokov. Procesory, usporne s priemernym vykonom a integrovane budu vyrabat, no tu je rec o kvalitnych hernych kartach.

+1
0
-1
Je komentář přínosný?

No su dve moznosti ako razantne zvysit vykon. Bud pokroci technologia vyroby cipov a dostaneme sa na povedzme 6-7nm, mozno aj pri inom substrate (kremik) alebo celkovo inom postupe ovela skor. Intel urcite na tom pracuje a asi aj dalsi vyrobcovia. Otazne je aky velky skok by bol vo vykone pri prechode na taketo rozmery zo sucastnou architekturov. Mozno by bolo zaujimave to zratat - na kolko sa zmensi cip a teda o kolko moze stupnut jeho hustota a zaroven sa zdvyhnut frekvencia. Dnes sa pohybujeme okolo 2000-2500 stream processorov na cip a frekvencia pri 14/16nm nech je 1.6GHz, pamete do 10GHz. Pri vyladenych 7nm sa da dostat kam ? Z brucha na 4000-5000 stream procesorov a na 3Ghz? Pamete asi moc hore nepojdu, skor bude HMB a sirsia zbernica. No a stalo by za to tento teoreticky vykon nasimulovat dnes povedzme pomocou viacerych kariet do SLI. Aky by mohla mat takato karta hypoteticky vykon? Asi by mohla zvladnut 8k, mozno aj 8k pre oko na VR (ale to asi skor nie). A tak isto o kolko by mohla stupnut komplexnost renderovanych scen a efektov? Myslim si ze ale nejaky zasadny skok to nebude.
Druha moznost, a ta by mohla priniest vyraznejsi posun, je kompletne odlisny pristup k 3d datam, renderingu a celkovo spracovaniu dat. Lenze to znamena zahodit existujuci kod, infrastrukturu atd. co je kopec penazi a preto asi do toho nikto nepojde, ale napriklad presun na HW akcelerovane Voxely by mohl byt ten revolucny skok, nehovoriac ze by sa vyriesilo kopec dalsich veci (simulacia fyziky, nasvietenie a dalsie veci). Volumetricka prezentacia dat ma obrovske moznosti, lenze aj obrovske pametove naroky. Toto asi ale tak skoro nenastane, staci sa pozriet ako intel chcel v serveroch zahodit x86 cez Itanium a nepreslo to (aj ked tam boli aj ine dovody). Kompatibilita je casto silne bremeno. Mozne by to bolo cez konzole.

+1
0
-1
Je komentář přínosný?

Já nějak nechápu pointu článku. Básník se snaží vyjádřit obavy z konce Moorova zákona? V 2018 je Apollo Lake na 10nm, 2022 7nm, 2026 5nm... kde je problém, Intel na tom přece už grafiky vyrábí. Vzbuťte mě v roce 2038, až bude na jednom čipu CPU, HBM5, FPGA, 3DXpoint RAM (no dobře, tak bude hned vedle) a Xeony budou mít 256 quBitový quantum field.

+1
+1
-1
Je komentář přínosný?

Intel by už mohl uvažovat o grafenu, myslím, že není na co čekat. Nebo to s grafenem dopadne jako s memristory, kde nic tu nic, asi tak jako se vším "skvělým" o čem jsme dávno četli, ale skutek utek.

+1
-1
-1
Je komentář přínosný?

Já si nemyslím že je doba grafenu za dveřmi. A přechod na cokoli jiného než křemík bude nákladné, nejpravděpodobnější scénář bude ten že 7nm proces bude ještě pořád na klasické litografii a 5nm když to nepůjde jinak tak bude nasazena EUV ,,Extreme ultraviolet lithography" cokoli pod 5nm bude nejspíš o EUV doba grafenu nastane tak nejdřív za 10 let možná déle EUV je známá už poměrně dlouho ale nikdo jí zatím nechce nasadit k vůli ceně. Jde o to že klasickou cestou se dají polovodiče vyrábět poměrně levně a cokoli jiného zatím neúměrně zvedá cenu. A když se podíváte na internetu jak vypadá vyleptaný obvod na 7nm klasickou litografii a jak vypadá při použití EUV je to obrovský rozdíl tak že je celkem jisté že až to nepůjde nasadí se EUV ale něco jiného než křemík příjde dle mě až tak kolem 3nm pač EUV zvládne opravdu hodně jen ta cena nikdo nechce vyrábět za draho tak že se pořád snaží hledat cesty jak to udělat ,, postaru" aby se dalo pořád chrlit chipy celkem levně. Kdyby dnes nasadily EUV tak by sice asi dost razantně klesla zmetkovitost ale nevyvážilo by to cenu při výrobě tak že je pořád lepší mít zmetky ale chrlit to levně než za draho. Tak že uvažovat o čemkoli jiném než křemíku pro budoucí dekádu nemá smysl že už něco vyvíjejí je jasné musejí mít technoligii a cesty jak to dělat v budoucnu ale prozatím by to bylo moc drahé vždyť jak píši výše i EUV se pořád nikdo neodvážil nasadit kvůli ceně přitom ty obvody jsou kvalitou úžasné leč drahé.

+1
+3
-1
Je komentář přínosný?

" A když se podíváte na internetu jak vypadá vyleptaný obvod na 7nm klasickou litografii a jak vypadá při použití EUV je to obrovský rozdíl"

Sorry ale ty máš k niečomu takému prístup? Pokiaľ viem ja, tak takéto výsledky nik nezverejňuje.

A trocha to EUV predceňuješ.

Primárne sa plánovalo kvôli odstráneniu multipaterningu z niektorých vrstiev, ale výsledky ukazujú, že počet masiek sa tým zredukuje maximálne o tretinu, a aj to len vo vhodných vrstnách. Samozrejme s tým, že to je oveľa nákladnejšie.

A ešte poupravím, Intel a Samsung zavedú EUV už pri 7nm.

+1
+2
-1
Je komentář přínosný?

Tak na netu se toho najde hodně sice už teď nemůžu najít přímo tu fotku kde to bylo vidět úplně perfektně ale pro představu poslouží i ty to dva odkazy uvedené níže sice to není úplně to stejné srovnání ale pro představu je to dostačující.

http://spie.org/newsroom/4958-extreme-uv-interference-lithography-progre...

http://www.extremetech.com/extreme/209523-ibm-announces-7nm-breakthrough...

a ještě pro zajímavost jak je složitá maska pro EUV oproti klasice

http://semimd.com/blog/2014/08/28/lithography-what-are-the-alternatives-...

+1
-3
-1
Je komentář přínosný?

Sorry ale to sú len ilustrácie a teórie.

Tak ako na obrázku pri tomto článku (predpokladám e si toto nemyslel)

http://diit.cz/clanek/samsung-snizil-chybovost-14nm-procesu

+1
0
-1
Je komentář přínosný?

Já jim poradím s EUV, musí vyměnit žárovku )))

+1
0
-1
Je komentář přínosný?

Ale koľko inžinierov treba na výmenu jednej žiarovky? :D

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.