Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Rekapitulace 2015: procesory jménem CPU, APU atd.

Ked som precital prvy odstavec prvej kapitoly tak musim povedat ze zvysovanie hrubeho suroveho vykonu x86 CPU nielen zvolnilo tempo, ale sa takmer zastavilo ! Preboha ked niekto v 1999/2000 kupil Duron 600/650/700 MHz, za par mesiacov vysli 750/800 MHz, za pol roka 850/900 MHz a do roka 950/1000 MHz a za dalsi rok nove jadro Duronu na 1,0-1,1-1,2-1,3 a 1,4 GHz a to vsetko v priebehu 2-3 rokov !!!! Detto s prvymi Athlonmi K7 od 500 MHz, cez ratingovy Athlon XP Palomino 1500+ , 3 druhy Thoroughbredov az po Barton 3200+. A tiez to vsetko prosim pekne od 500 MHz po 3200+ (2,2 GHz) v priebehu 3-4 rokov. Vtedy ked clovek kupil procak, tak za dva roky bol na trhu 2x vykonnejsi.

Dnes sa iba
A) pridavaju jadra a tlaci sa na paralelizaciu,
B) pridavaju sa specificke a vyssie instrukcne sady,
C) vylepsuju sa rozne pomer ako vykon/spotreba atd.
D) ale zvysovanie IPC je kde?

Frekvencie zastali na 3-4 GHz uz v okolo roku pana 2004 (t.j. pred 12 rokmi !!!!) v case 1-jadrovych Prescottov 3,4-3,6 a 3,8 GHz a 4,0 GHz neuviedli. Dnes sme sa iba kozmeticky posunuli na interval 4-5 GHz. Ak by zvysovanie frekvencii pokracovalo rovnako ako v inrtervale 1996-2004 (75 MHz Pentium 1 a 3,8 GHz P4 = 47nasobok), dnes tu mame minimalme 1/4 THz resp. zrejme 1/2 THz CPU a schyluje sa k 1 THz vojne. Ale fyzika je svina.

Ked to uz od roku pana 2004 nejde zvysovanim frekvencie, tak je otazka ci sa da hruby vykon zvysovat inak. Kedy bude na trhu x86 CPU, ktoreho 1-jadro, 1-vlakno da 1M SuperPI za 0,5 sekundy na 1 GHz pri nejakych 5 W spotreby? To treba mat vytunene Ci7 na 5 GHz, ktoreho 1-jadro, 1-vlakno da 1M SuperPI za 5 sekund? Kde je zvysovanie suroveho x86/x87 vykonu bez nejakych SSExxx, AVX, AES a pod?

Jedina pozitivna vec miniaturizacie je vznik segmentu APU a predtym este nastrkanie dalsich roznych veci do CPU.

Ked niekto v 2014/2015 kupil od AMD ci Intelu spominanu uplnu snob-end spicku, nemusi sa bat ze za rok pride o 1/4 vykonnejsi snob-end !!! Wono totiz na dalsie 2 roky nepride nic vykonnejsie !!!!! Ani o 100%, ani o 50%, ani o 25%, ale proste 0 (slovom NULA) %.

+1
+14
-1
Je komentář přínosný?

Súhlasím že nové generácie prinášajú priam smiešny nárast výkonu ale s posledným odstavom - ohľadom highendu - nesúhlasím.

1. V Q1/2 2014 bol ešte stále highendom i7 4960X 6C/12T@3,6GHz ale už v Q3 2014 Intel vypustil o +/-20% výkonnejší highend i7 5960X 8C/16T@3,0GHz
V Q2 2016 je myslím naplánovaná 10C/20T@3,0GHz i7 2011 ktorá už od tej i7 4960X bude o +/- 40-45% výkonnejšia.
Takže len Intel v Highende sa za dva roky 2014-2016 posunie o minimálne 40%.

2. AMD, AMD dupľom, u nich je FX9590 4M/8C@4,7GHz vlastne highendom doteraz takže kto si ho kúpil pred rokom v Q3 2014 tak verím, dúfam až sa priam modlím že AMD takto najneskôr za rok v Q3-Q4 2016 bude mať aspoň o 50% výkonnejšie CPU.

Takže, v highende sa ten výkon za obdobie 2 rokov neposunie/neposunul o jednotky % ale 20,40 resp. dúfam v aspoň 50% zlepšenie v prípade AMD (u nich beriem FX9590 ako highend lebo nič lepšie nemajú).

...ak by AMD neprinieslo v 2016 výrazne výkonnejšie CPU než je FX9590 tak to už môžu začať baliť.

+1
0
-1
Je komentář přínosný?

"ak by AMD neprinieslo v 2016 výrazne výkonnejšie CPU než je FX9590 tak to už môžu začať baliť"

Rozsireny to mytus.... Kdyz se podivas na to, kolik prodaji APU a kolik FXek, je nad slunce jasne ze financne je FX zcela irelevantni. Financne podstane bude Zen APU.. a to jestli zas bude jeho varianta v dalsich konzolich.

+1
+5
-1
Je komentář přínosný?

Zvysovanie IPC je porovnatelne tezky ukol jako zvysovani frekvence. Ale omnoho nevdecnejsi. Aby se vyssi IPC vyuzilo a slozitost hw drzela na rozumne hodnote, tak je nutno pouzit specificky kod - ktery ale je tezko vyrobitelny ze soucasnych zdrojaku. I kdyby byl hw schopen udelat 20 IPC, kod, ktery se produkuje je efektivni tak do 2-4 IPC. Podivejte se na Itanium, jak dopadlo - explicitne umoznovalo delat vice instrukci naraz, ale tezko se to vyuzilo (vyzadoval se specialni prekladac). A vy chcete, aby procesor obsahoval jednotku, ktera to bude preskladavat on the fly? :))

Dnes je hlavnim kriteriem MIPS/FLOPS na WATT, tj. energeticka efektivita. Proto frekvence jsou konzervativni a dela se paralelizace skrze vice jader. Je to omnoho jednodussi cesta a pro tvurce programu jakasi jistota - skalovani s poctem jader skoro linearni, vuci vyse uvedenemu, kdy by to bylo optimalizovano na 1 procesor, je to tezka pohoda!

+1
+3
-1
Je komentář přínosný?

Frekvencie su konzervativne hlavne preto, ze vyssie sa ist neda. Ak by sa dalo ist na 10-20 GHz pri 200-250 W, verte tomu ze tu mame tie 10-20 GHz 200-250 W CPU ako high-end a snob-end. Lenze ziadny kremikovy cip na 10-20 GHz neexistuje. Iba do 5 GHz. Ak by tych akceptovatelnych 200 W bolo pri 100 GHz, tak mame 100 GHz. Z isteho uhla pohladu je to aj kvoli spotrebe.

HW s 50 IPC je efektivny cca do 4 IPC je fajn, lenze paralelizacia tiez neni vsemocna a efektivita sa vytraca pri 16 ks. x86 jadrach. Vykon potom vobec nestupa linearne, takze aj kedy sme mali 1 nm vyrobny proces a 256-jadrove a 1024-vlaknove CPU, v jednej jedinej ulohe nam zrejme prilis nepomozu.

+1
-9
-1
Je komentář přínosný?

Paralelizácia možno nieje všemocná, ale bez nej by sme dnes mali procesory buď na frekvencii v stovkách MHz, alebo s IPC pod 0,05.

...skrátka preto, že bez nej by procesory nemohli fungovať ako superskalárne s dosť hlbokou pipeline.

Z toho, že x86 niesú schopné pracovať viacjadrovo nemôžete zovšeobecňovať na "celú paralelizáciu".

To že paralelizácia funguje si môžeme ukázať (paradoxne) na jednovláknovom výkone procesora. Vezmime si najnovší Intel. Hĺbka pipeline je vraj približne 20-30 krokov (podľa inštrukcie). To znamená že potrebuje 20-30 nezávislých inštrukcií v KAŽDOM takte na to, aby dosiahol IPC rovné 1. Tie inštrukcie musia byť nezávislé v zmysle nevyužívať rovnaké registre, pamäť a EU (v terminológii Intelu port). Teda vykonateľné paralelne. Keď ale chcete IPC vyššie ako je tak potrebuje commitnúť presne toľko inštrukcií v každom takte. Na to je treba viac pipeline a teda aj viac in-flight inštrukcií. Pre spomenuté IPC rovné 4 to je potom 80-120 paralelných inštrukcií. Preto má najnovší Intel 180 int + 168 float registrov. A snáď je jasné aké monštrum by bolo potrebné na IPC 50.

Teda IPC 50 ale aby to ostalo efektívne takže dostatok inštrukcií alebo aj taký detail ako dosť rýchla RAM...

Inak k 256 jadrovému procesoru. Taký sa síce zatiaľ ešte nerobí, ale našťastie tu je IBM a SUN, kde druhý menovaný ponúka 32 jadrový SMT8 SPARC M7.

Má síce "len" 256 vlákien ale môžete si ho zakúpiť v 16 procesorovom systéme, teda spolu 4096 vlákien pričom máte zaručený efektívny beh DBA od Oraclu, čo je asi uznáte dosť pamäťovo náročné. (narozdiel od hlúpych renderovacích benchmarkov)

Takže morálne poučenie.: to čo platí pre Intel a x86 nemusí platiť pre zvyšok sveta :D

+1
-2
-1
Je komentář přínosný?

No ano, az na to ze na tom SUN Sparce by si tych 95% desktopovych uzivatelov ani neprdlo, inak povedane by im to bolo platne asi tak ako kybel gytu. A tak isto mat v domacich podmienkatch 32 jadier je totalna blbost lebo by ich nebol schopny bezny uzivatel a ani hrac vyuzit. Ostatne aj pri najcastejsich serverovych ulohach sa dost blbo vyuziva viac jadier. To na co sa vyuziju nieje ani tak samotna uloha ktora sa rata ale to ze v jednom momente robi viac uzivatelov request a tie treba spracovat. A to iste DB servery. Pri vecsine systemov je narocnejsi pocet requestov nez casove spracovanie samostatnej ulohy. Tak isto dokaze vyuzit viac jadier virtualizacia ale tam sme zasa pri zdielani prostriedkov pre viac systemov/poziadaviek. V dnesnych domacich podmienkach su zatial v pohode 4jadra, 8 by bolo ideal a mozno 12-16 high end. V buducnosti sa to mozno posunie ale vzhladom na dnesny stav SW a jeho vyvoj to vyzera momentalne prave takto.

+1
-4
-1
Je komentář přínosný?

Tak on ani nieje určený pre desktop :D Tam vraj plánujú vydať 4 alebo 8 jadrové verzie. (btw. ak to fakt vydajú a pobeží na tom bez problémov Linux tak v mojom kompe chvíľu žiaden x86 nebude :D )

Čítali ste môj príspevok? Najme to o tých stovkách inštrukcií bežiacich paralelne v každom takte. Prečo by nemohli bežať paralelne vrámci SMT alebo nedajbože na iných jadrách?

Na databáze môže pracovať viac používateľov, ale dáta musia ostať konzistentné. V tom je pointa tohto príkladu ;)

A veta, že dnes sú vpohode 4-jadrá nieje argument pre vývoj, ale pre zvýšenie predajov a ryžovania na súčastných procesoroch. Najme keď sa už zdá že cez frekvenciu ani ILP to tak ľahko nepôjde.

+1
-5
-1
Je komentář přínosný?

Takze hlbka pipeline, teda pocet mikroinstrukcii na ktore sa instrukcia rozpracuje je pri dnesnych intel cpu 14 az 16-19 (zalezi z ktoreho zdroju sa cerpa). Ziadnych 20-30, to mali neslavne P4 a ich NetBurst mikroarchitektura. Tak isto dlzka pipeline neznamena pocet nejakych pararelnych instrukcii. Je to len pocet rozpracovanych instrukcii. Znamena to iba pocet rozpracovanych a vykonavanych faz v jednom takte ale nie ze v jednom takte sa mi vykona naraz xy instrukcii.
Dalej co maju konzistentne data spolocne s multicore CPU a s viacerymi uzivatelmi ? To ze sa prave DB vyuzivaju na multicore systemoch nieje koli tomu ze by DB pouzivali nejake vymakane praralene algoritmy (ehm pouzivaju ale to teraz nieje podstatne) ale preto ze sa generuje kopec requestov a kazdy request sa moze spracovat samostatne na jadre/threade (napriklad). Jednoduchy blby select z jednej tabulky nad jednym zaznamom dost blbo zpraralelizuje kazda db. Proste algoritmov alebo uloh ktore su idealne na praralelizaciu nieje zasa az tak vela a hlavne pri beznom desktopovom pouziti. A ano 4 az 8 jadier je uplne v pohode pretoze vyssi pocet je stale nakladny a hlavne este par rokov ostane nevyuzity bez ohladu na to aky natlak sa vyvynie na vyvojarov.
Proste pisete kopec bludov.

+1
-4
-1
Je komentář přínosný?

Hmm, 14-19 bývalo ale to už je pár rokov a platilo to len pre fast-path. Komplexnejšie inštrukcie si idú pekne všetkými fázami, ktorých počet sa mimochodom každý rok zvyšuje. Len sa o tom tak často nehovorí, možno preto že to pripomína ten nepopulárny P4.

Nieje to proces rozpracovaných inštrukcií. Tých je ešte o niečo viac a volajú to ooo-window.

A určite som to písal ale zopakujem to, tie inštrukcie musia byť na sebe nezávislé pretože ak by nejaká inštrukcia závisela na výsledku predchádzajúcej, tak by musela na ten výsledok čakať až kým tá predchádzajúca necommitne výsledok.

teda kód
A+B=C
C+D=E
sa bude vykonávať s IPC okolo 1/30 pretože každá inštrukcia bude čakať na tú predchádzajúcu.

IPC blízke 1 sa v tej pipeline dosiahne len vložením dostatku nezávislých inštrukcií
A+B=C
F+G=H
...n ďalších inštrukcií
C+D=E
pripomína to niečo? Presne, inštrukcie vložené ooo-systémom alebo iným vláknom v SMT :D

Inak to skrátka nejde. Ja neviem či to chápete, či vôbec viete čo je pipeline (alebo len nečítate čo píšem :D ), skúste napísať čo je podľa vás inak.

Konzistencia dát má spoločné asi len toľko, že málo ľudí zaoberajúcich sa touto problematikou je obmedznených len na jeden ideálny prípad, kedy veľa používateľov číta ale nik nezapisuje. Na to totiž stačí akýkoľvek hlúpy počítač s čo najvyšším hrubým výkonom.

Reálne, kde sa to rieši, sa ale treba vysporiadať s tým, že sa tie dáta neustále menia a aj tak musia ostať konzistentné. A čuduj sa svete, aj v takom prípade je 4096 vláknový server efektívny. Budte si istý že to nieje vďaka veľkému počtu nezávislých operácií.

A netvrdím že treba paralelizovať každý blbý výber z jednej tabuľky. To by bol všeobecne asi nezmysel.

+1
+2
-1
Je komentář přínosný?

Ak sa dobre pametam tak aspon pre mna bola na Itaniu fakt pekna vec,myslienka, ze nemal komplikovanu predikcnu jednotku a tym mohol byt aj jednoduchsi navrh a dal sa vykon hnat hore (pokial to neposrali v dalsich verziach tusim koli potrebe emulovat x86 kod lebo bolo treba spustat x86 aplikacie kedze origos itaniovych nebolo dostatok). Myslienka bola ze predikcie a celkovu optimalizaciu kodu bude mat na starost prekladac a ako sa bude zlepsovat tak pri kazdom novom prelozeni aplikacie by sa zvysoval aj vykon. V podstate nieco ako robi java vm akurat ze tu na urovni binarok. Jedina nevyhoda je potreba mat zdrojaky na opetovne prelozenie, co zasa pri itaniu a aplikaciach na kotre bol stavany by nebol az taky problem.

+1
-4
-1
Je komentář přínosný?

To nieje myšlienka Itania, ale všeobecne VLIW procesorov.

Problém pri spúšťaní x86 kódu je práve to že VLIW sa nezaoberá predikciou skokov, ale vykonáva obe vetvy naraz (pokiaľ to dovolí kapacita). A v x86, v ktorom je vetvenia asi dosť, to je veľmi neefektívne. Preto mali Itaniá skvelý výkon len v špecializovanom kóde, ale dalo by sa to prirovnať k výkonu grafík.

Intel namiesto toho vyvíja pomalé in-order jadrá (Atom) ktoré napchá na jeden veľný čip (Larrabee, teda aktuálne Knights landings). To je prakticky to isté ako Itania akurát si s tým nemôžete hon*ť na tom, aké veľké IPC máte :D

Namiesto toho to je ale oveľa flexibilnejšie. Pomalé jadrá sú úsporné. Rovnako ako VLIW nepotrebuje komplikovaný front end (to šetri miesto, energiu, a napríklad aj kroky v pipeline). Je ich veľa takže fungujú efektívne aj keď nemajú dáta v cache...

Ostáva im už "len" vyriešiť problém, prečo x86 škáluje len v systémoch do 32, maximálne 64 jadier, pričom iné architektúry sú efektívne aj po pridaní ďalšej tisícky jadier. Správne, pamäťový systém. :D

+1
-1
-1
Je komentář přínosný?

No ano lenze realne je tych VLIW, aspon v beznych systemoch ako maku. Respektive nikto ich netlaci a jediny kto sa o to snazil a mal potencionalne silu ich aj presadit bol prave Intel. Ako tak pozeram po inete tak mimo Itanii su dnes uz zaujimavy Elbrus od rusov a potom by to mala byt AMD TeraScale, teda ak sa jej niekedy dockame. V roznych embedded systemoch a SoC maju vyssie zastupenie ale to uz je mimo bezneho dosahu.
No pametovy podsystem je tragicky ale paradoxne je to podla mna najviac citit na mobilnych SoC. Predsa len na desktopoch sa ta frekvencia tlaci hore, tak isto sirka zbernice opatrne narastla a spotreba sa az tak kruto neriesi. Na mobilnych SoC sa ide po spotrebe, sirka zbernice je nic moc a vzhladom na to ze SoC obsahuju aj GPU ktora rovno vyuziva prave pamet tak graficky vykon je prave vecsinou silne brzdeny pametou. Preto vela krat je dost odrb co pise Qualcomm a ostatny o vykone ich integrovanych grafik a v realite je nemozne dosiahnut takych vysledkov prave koli pomalym pametiam ktore nakoniec vyrobci osadia. Mozno by bolo zaujimave keby sa nieco ako HMB presadilo v mobiloch.

+1
-3
-1
Je komentář přínosný?

Ale o tom píšem. Nik do toho nerobí pretože 100 malých úsporných jadier je efektívnejších ako jedno VLIW. A hlavne sú flexibilné a menej závislé od kompilátora vzhľadom na pamäť...

Jediná výhoda VLIW je tá, že si môžete povedať, že máte obrí single thread výkon, a ani to nieje celkom pravda...

Pamäťový systém mobilných soc sa rieši on-chip pamäťami...

Ja som ale myslel problémy v mnohoprocesorových systémoch.

+1
-4
-1
Je komentář přínosný?

Hodne procesoru proste nemuze sdilet velikou cache, na kterou intel vsazi. Ty larrabee a grafiky maji radove kB cache na cpu, a snad zadne sdilene obri pooly jako to dela Intel. Myslim ze pes je zakopany tam.

Btw k predchozi reakci - na skole jsme meli nejaky 128 / 256 / 512 thread cpu (Cray?) ktery nemel cache zadne, ale delal vsechna vlakna multiplexovane, prodlevy cteni pameti prave resil ten veliky pool threadu - vykon zde tedy zavisel na tom, zda dokazete pustit to obrovske mnostvi vlaken..

+1
+3
-1
Je komentář přínosný?

Ak by bol problém len vo veľkosti cache, tak by Intel už dávno vyriešil ;)

Vyšším počtom vlákien sa absencia cache riešiť dá, ako píšete, v 512 vláknach má cache miss malý vplyv, ale nieje to najšťastnejšie riešenie, teda pokiaľ ide o procesory.

Riešilo sa to tak (okrem iných) aj v Ultrasparc T1, 2... ale nakoniec aj tak prešli k obrím cache pamätiam.

+1
-3
-1
Je komentář přínosný?

ale ved masivne multicore cipy tu uz mame - GPU. A ako je napisane o koment vyssie maju radovo kb cache. Posledny Maxwell - nVidia 9xx ma 96kB L1 cache na SMM cize 128 CUDA jadier sa mlatia o tuto cache. A L2 je 2MB!!! Ono pre specificke ulohy a ucely je to v pohode a ked je rychla dedikovana pamet ale bezne cpu na desktope je prave univerzalne a urcene na rozne ulohy a ucely. Nehovoriac ze spracovava kopec uloh ktore pracuju s roznymi datami - treba toho dost mat v cache pokial nechceme mat v kuse cache miss a dotahovanie z ramky. Mat 32 jadrovy x86 s malou cache a mat to ako primarne CPU na ktorom bude bezat OS, to by bola cista tragedia. Zvlast pri rychlosti dnesnej ram.

+1
-6
-1
Je komentář přínosný?

A ja niekde trvrdím, že by sa mala osekať? :D

+1
-3
-1
Je komentář přínosný?

A ja niekde tvrdím, že by sa mala osekať? :D

+1
-3
-1
Je komentář přínosný?

Tak hned prvy bod A) je dost diskutabilny, teda minimalne pri x86. Teda ze by sa nejak Intel ale aj AMD pretrhli s pridavanim jadier moc nevidiet. V podstate od nastupe Core a hlavne i5-7 procakov, sme skoncili pr 4 jadrach. Trochu sa zamava s hypertreadhingom a potom v highende sa popripdava zopar jadier ale za brutalny peniaz a to je tak vsetko. V nejakom tom mainstreame sa akurat tak utrhli vyrobcovia SoC ARMov kde by sa dalo povedat ze posledne roky, ehm, su roky pridavania jadier aj ked to vecsinou je akurat tak konfiguracia 4 vykonne + 4 energeticky nenarocne jadra (popripade ine konmbinacie low a high power jadier).

+1
-1
-1
Je komentář přínosný?

Proc se pretrhnout s pridavanim jader, kdyz to stejne nikdo neoceni. Dobre, nekdo asi ano, ale vetsina ne. Mam jadra ctyri a jen velmi zridka se stane, ze by je neco vytizilo vsechny. Mit jich osm, tak jedina zmena bude, ze se nejcastejsi vytizeni posune z 25% na 12,5%. Dobre, malicko prehanim. ;)
Celkove je hlavni problem, ze vykon procesoru dosahl uz pred lety pro vetsinu uzivatelu dostatecny urovne. Byvaly doby, kdy u dva roky staryho pocitace clovek pocitoval, ze uz to neni ono. Ve skutecnosti i u uplne novych by se byvalo sneslo vic vykonu. Ale ted? Hlavni pocitac mi nedavno oslavil sesty narozeniny a ma slusnou sanci, ze se ve stejny funkci dozije i dalsich. O novym sice zacinam pomalu uvazovat, ale vicemene jen z rozezranosti, ne ze by mi na tom soucasnym neco vylozene chybelo. Pokud je na tom prumernej uzivatel podobne - a podle vseho se zda, ze ano - pak je jasny, ze se nam to cely trosku zabrzduje.

+1
+2
-1
Je komentář přínosný?

Ano na beznom desktope su dnes tie 4 jadra tak akurat ale bude fajn ked uz konecne sa pretlacia do mainstreamu aj 8 jadrove CPU. Snad to vyvola tlak na vyvoj sw a hlavne nastrojov pre praralelne programovanie. Dnes je to stale docela problem. A tak isto niektore veci sa predsa len urychlia. Je zasa fakt ze nejake tie office veci, co je asi najcastejsia praca kancelarskeho pc, a internet (weby) zvladne v pohode aj to 4 jadro. A dnes popularne video sa uz aj tak vecsinou riesi samostanym obvodom/kremikom. To by bolo fajn ale pri CPU, co je ale skor enormne nutne tak to je vyrazne zrychlenie pameti a ked uz nastup viacjadrovych CPU (teda vo vyssom pocte) tak aj prepracovanie IO.

+1
-5
-1
Je komentář přínosný?

Tak záleží... pokud bych chtěl pořádný výkon, koupím si Xeon Phi: 400 Eur, > 220 vláken, < 300 W, ~1 GHz x86, ~8 GB RAM.

+1
-9
-1
Je komentář přínosný?

No ano, ale aj ked je to x86 to neznamena ze si na tom spustite Windows a Office alebo nejaku hru co primar na desktope. Z pohladu bezneho uzivatela je Xeon Phi asi tak pouzitelne ako nejaka DSP karta alebo GPU z hladiska vypoctov.

+1
0
-1
Je komentář přínosný?

To vím, ale na office, hry a podobné aplikace bohatě stačí dnešní desktopové procesory ;-)

+1
-3
-1
Je komentář přínosný?

Dotaz trochu mimo, ale kdyz vidim po x-te zminku o 10-bit HEVC, uz se musim zeptat...
1) kolik lidi na tedle planete umi rozlisit 10-bit a 8-bit barvy ?
2) kolik monitoru existuje resp. bude existovat, co umi zobrazit 10bit barvy ?

+1
+5
-1
Je komentář přínosný?

S prichodem BT2020 a/nebo HDR, tech 10 bitu bude minimum a budeme chtit radeji 12 :)

+1
-2
-1
Je komentář přínosný?

nejak mi unika souvislost HDR s bitovou hloubkou...

+1
-4
-1
Je komentář přínosný?

K zabraneni "posterizace" .. vyssi rozsah barev/jasu je nutno delit na stejne velike dilky

+1
0
-1
Je komentář přínosný?

VIA x86 / ARM SoC a GPU časť SoC.

Uvedomujúc si, že VIA svojím zameraním na vertikálny segment PC trhu t.j. Embedded, Digital Signage atď. tvorí okrajový segment avšak ak sa bavíme o rekapitulácii roku 2015 treba povedať, že Centaur Technology už v roku 2014 dokončil 28nm redizajn VIA Isaiah "II" microarchitektúry pod kódovým označením VIA CNR.

VIA Embedded v tomto roku v "tichosti" obmenila celú produktovú škálu postavených na 40nm VIA QuadCore E-Series a 40nm VIA Eden X2 práve za 28nm VIA QuadCore E C4650 2.0GHz a dvojicu pasívne chladených štvorjadier VIA Eden X4 4250 1.2+GHz @ 1.73GHz capable a VIA Eden X4 4450 1.6+GHz @ 2.0GHz capable. Všetky tri procesory sa vyznačujú natívnym monolitickám jadrom so zdielanou L2 cache 2MB a SIMD až do AVX2 pričom die má cca 30 mm2.

Výkonovo sa procesor 28nm VIA QuadCore E C4650 2.0GHz zaradil medzi 14nm Intel Airmount N3150 2.0GHz a 28nm AMD Jaguar 5350 2.0GHz.

zdroj: http://forum.cnews.cz/viewtopic.php?f=38&t=27768
zdroj: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10822750&postcoun...

Zároveň sa nám opäť v tichosti výrobca poskytuje jednu microarchitektúru pod dvoma brand name pričom prvými je spomínaná VIA a druhým je spoločný join-venture podnik VIA Alliance Semiconductor Co Ltd. (Zhaoxin), ktorý sa špecializuje na čínsky trh čo by dvorný čínsky výrobca x86 procesorov, kde spoločnom podniku má okrem minoritnej VIA, majoritný podiel Šanghajská vláda. Štvorjadrové procesory VIA CNR (CentaurHauls) majú označenie Zhaoxin ZX-C 4600 a pod. . V tých skôr narodených to môže evokovať obdobu procesorového dualizmu procesorov od National Semiconductors pod brand name Cyrix 6x86 ako aj IBM 6x86 (Cyrix Instead).
link: http://en.zhaoxin.com/site/product_detail/97

VIA Alliance Semiconductor Co Ltd. (Zhaoxin) však úspešne v tomto roku dokončil multiplatormnú (x86 alebo ARM) GPU časť pre pripravované x86 a ARM SoC pod názvom VIA/Zhaoxin Elite2000 GPU so 256 SPs, podporou H.265/HEVC, ktorá sa objaví (už je hotový) v produkte VIA Elite2000 8-core bigLITTLE s 4x Coretex A17 a 4x Cortex A7. Samozrejme GPU vychádza z implementácie licencie a patentov spoločnosti S3 Graphics.
Implementácia k x86 CPU časti VIA CNR-M je na pláte v 2016 ja som realista 2017.
link: http://en.zhaoxin.com/site/product_detail/139
link: http://news.mydrivers.com/1/458/458994.htm

Čo sa týka x86 VIA CNR dá sa predpokladať v roku 2016, že príde do malých serverov osemjadro VIA OctaCore 2.0GHz alias Zhaoxin ZX-D.

No na rok 2017 je v pláne Zhaoxin ZX-E na 16nm litografii o ktorom zatiaľ veľa nevedno...

Dá sa len z hľadiska konkurenčného prostredia a boja držať palce VIA Alliance Semiconductor Co Ltd. (Zhaoxin) nech sa presadí aj v consumer SOHO segmente avšak treba priznať, že takéto želania sa s VIA vedú v podstate od roku 2008 kedy uviedla VIA Nano (Isaiah - CNR)...

Pekné sviatky všetkým a všetko dobré v Novom roku 2016.

Tralalák

+1
+15
-1
Je komentář přínosný?

Ono zvysovanie IPC je docela narocny problem a pokial sa nema vyrazne zmeni architektura alebo zvysovat frekvencia tak uz moc moznosti nieje, zvlast pri dnesnom tlaku na spotrebu. V podste su dve moznosti, jedna je pridavanie jadier - to ale zvysuje spotrebu kremiku a s tym je spojena jednak nevyhoda vyssej spotreby ako aj vynosnosti/kazovosti. No alebo druha moznost, pridavanie specialnych instrukcii na narocne alebo casto opakovane operacie. A tu poslednych par rokov Intel tiez vyuziva naplno. Osobne si ale myslim ze tato moznost je daleko horsia, minimalne z dlhodobeho a dizajnoveho hladiska ako pridavanie jadier. Jednak to komplikuje navrh - vypocetne jednotky su komplikovanejsie ale hlavne kompilery sa ovela viac trapia a produkovany kod sa zle optimalizuje. Je daleko tazsie zistit ktory kod a za akych podmienok je rychlejsi a optimalnejsi pretoze vstupuje do hry daleko viac faktorov.
Nehovoriac ze dnes uz je vdaka poctu instrukcii a komplexnosti fakt bezne CPU black box. Pisat ASM kod priamo od ruky s tym ze sa vyuziju vsetky moznosti moderneho CPU je nerealne. Osobne si myslim ze toto sa moze casom intelu dost vypomstit. Radsej mali navrhnut samostatny cip/obvod, kludne ako druhy matematicky koprocesor a tomu pridat danu funkcionalitu ale aby bol oddeleny od povodnej x86.

Dalsia vec ktora vyrazne stagnuje za cpu a to uz nikolko rokov je vlastne vsetko to smetie okolo CPU. Pametovy podsystem je na dnesnych PC voci cpu nechutne pomali a nepomahaju tomu ani 3 urovne cache. Vysoky pocet kadejakych zbernic a rozhrani (aj ked sa to pomalicky zacina utriasat).
Rad by som videl nejaky expediment kde by v PC na interne pripojenia vykonnych zariadeni bola len PCIx, ziadne SATA,IDE a dalsie zbernice (aj ked uz toho moc viac nieje) a zasa externe len USB povedzme 3.1. O kolko by sa zjednodusil navrh, spotreba a mozno aj cena. Tak isto ked uz teda intel tak tlaci na GPU v CPU tak by mohol zapracovat na vykone, nech teda maju tie ich iGPU maju vykon strednej triedy diskretnych grafik. To co dnes vydavaju sa da v pohode pouzit na kancelarsku pracu ale na hranie sa daju mozno s privretymi vsetkymi ocami pouzit akurat tak najvykonnejsie Iris Pro ktore ale zasa pri tej cene stracaju zmysel.

+1
+1
-1
Je komentář přínosný?

Trošku mi chybí zmínka o Xeon-D procesorech, podle mne se Intelu hodně povedly...

+1
-2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.