Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Všechny 16nm Radeony prý ponesou HBM

Tak to bude skutečný pokrok, pořádná změna po letech stagnace. Nižší výrobní proces + naprosto jiné paměti = má připravená peněženka.

+1
+10
-1
Je komentář přínosný?

přesně, teď má skutečně smysl čekat na nové GPU a ještě další důvod zapomenout na nVidii :)

+1
-4
-1
Je komentář přínosný?

Jééé a teď si představte až ten štůček dají na nějaké APU vyrobené 14nm procesem. 4 jádra zenu, 1024SP GCN4 (střílím od boku), 2GB HBM2 1024bit VRAM 256Gb/s, všechno podpořeno DX12. Krása.

+1
+15
-1
Je komentář přínosný?

Ano, to je nejspíše poslední šance pro AMD CPU/APU jak se vymezit vůči Intelu.

+1
-2
-1
Je komentář přínosný?

Vzhledem k tomu, že Intel Skylake co se APU týče tak drtivě s AMD prohrál, tak bych neřekl, že zde má AMD nějaký deficit (mimo single thread výkonu a IPC efektivity).

Naopak si myslím, že by měli zapracovat na tom, aby Fury X byla přesvědčivě rychlejší ve všech testech než Titan X.

+1
-4
-1
Je komentář přínosný?

Neni tu jen skylake...
http://www.tomshardware.com/reviews/intel-core-i7-5775c-i5-5675c-broadwe...
Spis bych rekl, ze amd bude muset v apu dost pridat.

+1
-1
-1
Je komentář přínosný?

Srovnavas jabka s pomeranci (i7 5775c - temer 11k Kc, A10 7850K - 3.7k Kc), ale u tebe me to nijak neprekvapuje...

Dokud Intel bude pokracovat ve sve idiotske strategii (cpat Iris Pro do i7 kde jej nikdo nechce, a do i5 cpat zoufale Intel HD smejdy), rekl bych ze vykon GPU casti bude jedna z mala oblasti ktere AMD resit nemusi... a zda se ze Intel v ni pokracovat bude....

+1
+3
-1
Je komentář přínosný?

těžko můžete mluvit o prohře, když ten druhý se prostě rozhodne nezávodit.

+1
+3
-1
Je komentář přínosný?

GPU část na CPU zákazníky ochotné investovat do dražší sestavy určitě tolik nezajímá. Ti si stejně koupí dedik grafickou kartu.

+1
0
-1
Je komentář přínosný?

to moc nepomůže, tam hraje prim korupce a uplácení Intelem, protože již dnešní APU jsou cena/výkon naprosto skvělé, že si zahraješ i GTA V na procesoru ve fullHD za 3500 Kč (ovšem ne na Intelu ;)

kde vidím všude AMD, tak systém šlape rychle, lži o pomalosti jsou prostě jen lži, dokonce i 4 roky staré eeePC má 2x jádro od AMD a šlape velmi dobře, díky AMD si člověk může pouštět i fullHD filmy, což ani tenkrát s Intelem nemohl

cena/výkon je téměř všude pro AMD, pouze v high-endu pro 1 % lidí AMD prim nehraje

+1
+5
-1
Je komentář přínosný?

A preto som skoro vyrazil notebook s AMD z okna lebo tak rýchly že som to skôr urobil na svojom počítači aj s jeho zapnutím.

+1
-1
-1
Je komentář přínosný?

hloupí lidé jako ty bohužel jsou, ti chytřejší si pořídí SSD disk a problém vyřešen
ti hloupější zbytečně vyhazují peníze za Intel s mnohem horším poměrem cena/výkon

+1
-3
-1
Je komentář přínosný?

Hlavne, že ty si strašne múdry, povedz mi ako súvisí SSD disk pri operáciach ktoré nepoužívajú disk, už raz som sa ťa pýtal ako to mám urobiť v linuxe kde AMD nemá podporu na to čo potrebujem ale jasné AMD je best len to nikde nieje vidieť.

+1
+2
-1
Je komentář přínosný?

my se tu bavíme jen o operacích, kde je třeba CPU? Jak jsi na to přišel?
k čemu potřebuje 90 % lidí Intely za 30 tis.? Jim stačí na 99 % nějaké to AMD APU a mají nejlepší kombinaci toho nejlepšího včetně ceny, Intel je jen vyhazování peněz, nic víc.

+1
+2
-1
Je komentář přínosný?

Pekne sa vykrúcaš.

+1
-6
-1
Je komentář přínosný?

Ja by som tam bral aj 2-4x 8GB, ak by to bolo lacnejšie(alebo aspoň nie drahšie) ako DDR4.

+1
-5
-1
Je komentář přínosný?

Presne, pouzit HBM nejenom jako VRAM, ale i jako normalni operacni pamet se primo nabizi.

+1
+1
-1
Je komentář přínosný?

HBM nie su len pre high end

● RAM pre CPU má latenciu –8-12ns (efektivny takt latencii 125 MHz a 83,3Mhz)
● Pri RAM prejde svetlo za cyklus 240-360 cm,

● VideoRAM (GDDR) má latenciu 0,1ns (efektivna frekvencia latenčných cyklov 10GHz)
● Pri vRAM prejde svetlo za cyklus len 3 cm

dosledok (elektrony v mediu su pomalsie ako svetlo vo vakuu, teda vzdialenosti su mensie)
● VideoRAM je ovela blizsie ku GPU ako RAM k CPU

Zjavne to nestaci, ked sa preslo na HBM, tam su vzdialenosti mensie, a na MIT dokonca vymysleli Flash/SSD s integrovanou ALU, aby CPU robilo len tie najtazsie operacie...

Ditching RAM may lead to low-cost supercomputers
ENGADGET
12. JÚLA 2015

MIT researchers may have a much more affordable approach in the future, though. They've built a server network (not shown here) that drops RAM in favor of cheaper and slower flash storage,

The key was to get the flash drives themselves (or specifically, their controllers) to pre-process some of the data, instead of making the CPUs do all the hard work.

http://n.mynews.ly/!MB.CqvpR
http://nr.news-republic.com/Web/ArticleWeb.aspx?regionid=3&articleid=447...

Viac menej to zodpoveda mojim meraniam z clankov z rokov 2010-2012
\begin{tabular}{|c||r|r|r|}
\hline
\begin{tabular}{c} Typ\\\end{tabular} &
\begin{tabular}{c} Stredná \\hodnota \\ v~s \end{tabular} &
\begin{tabular}{c} Smerodajná \\odchýlka \\v~s\end{tabular} &
\begin{tabular}{c} Medián \\ v~s \end{tabular} \\
\hline
\hline
\begin{tabular}{c} Program v~jazyku C bežiaci\\ na~CPU bez~prenosov dát\end{tabular}& 6,271 & 2,000 & 5,015 \\ \hline
\begin{tabular}{c} Program v~jazyku C bežiaci\\ na~CPU s~prenosmi dát\end{tabular} & 14,530 & 3,662 & 12,180 \\ \hline\hline
\begin{tabular}{c} Program v~OpenCL bežiaci na~GPU\\ bez~prenosov dát\end{tabular} & 0,940 & 0,100 & 0,940\\ \hline
\begin{tabular}{c} Program v~OpenCL bežiaci na~GPU\\ s~prenosmi dát\end{tabular} & 1268,060 & 59,470 &1276,820\\ \hline
\end{tabular}

Je to podobne ako s HSA

6,271/0,949=6,67 nasobne je teoreticke max. zrychlenie ak sa zrusi prenos dat GPU <=> CPU

original namernay pri minimlaizcii tychto prenosov vdaka HSA je

6,43 (8,57) nasobne zrychlenie

Takze principialny problem zrychlovania je vzdialenost RAM od CPU(ALU)/GPU a HBM to cistocne riesi...

Toto vyzera na kroky smerom k mojej vizii. HBM moze mat velky vyznam v PC be CPU

Realtime scheduling using GPUs - proof of feasibility
Authors: Peter Fodrek Institute of Control and Industrial Informatics, Faculty of Electrical Engineering and Information Technology, Slovak University of Technology, Bratislava, Slovak Republic
L'udovít Farkas Institute of Control and Industrial Informatics, Faculty of Electrical Engineering and Information Technology, Slovak University of Technology, Bratislava, Slovak Republic
Tomáš Murgaš RT Systems s.r.o., Bratislava, Slovak Republic

CPUless PCs inside networked control systems
Autori Peter Fodrek, Tomas Murgas, Michal Blaho
Dátum publikovania 2012

Aj Linus pripusta be OS/kernelu na GPU, len ho treba navrhnut inak ako pre CPU

Interviews: Linus Torvalds Answers Your Question 187
Posted by samzenpus on Wednesday July 01, 2015 @01:50PM from the read-all-about-it dept.

GPU kernels
by maraist

Is there any inspiration that a GPU based kernel / scheduler has for you? How might Linux be improved to better take advantage of GPU-type batch execution models. Given that you worked transmeta and JIT compiled host-targeted runtimes. GPUs 1,000-thread schedulers seem like the next great paradigm for the exact type of machines that Linux does best on.

Linus: I don't think we'll see the kernel ever treat GPU threads the way we treat CPU threads. Not with the current model of GPU's (and that model doesn't really seem to be changing all that much any more).

Yes, GPU's are getting much better, and now generally have virtual memory and the ability to preempt execution, and you could run an OS on them. But the scheduling latencies are pretty high, and the threads are not really "independent"
http://linux.slashdot.org/story/15/06/30/0058243/interviews-linus-torval...

+1
-1
-1
Je komentář přínosný?

"VideoRAM (GDDR) má latenciu 0,1ns "

Kdes proboha vzal tendle blabol ? Vypoctenej z toho ze nejaka fiktivni frekvence je 10Ghz ?

GPU latence pameti uspesne zakryva paralelismem, proto jsou jejich pameti optimalizovany na maximalni propustnost, s tim ze na latence s*re pes...

Samozrejme ze GDDR5 ma MNOHEM horsi latence nez DDR3, bezne 400 az 800 cyklu GPU, a vzhledem k tomu ze CPU maji 3-4x vyssi frekvence nez GPU, tak v CPU cyklech by to bylo kolem 2000... coz je zhruba 10x vic nez realna latence DDR3 merena v cyklech CPU (kolem 100-300). Na fiktivni GHz se prosimte vytoto...

Jinak, i kdybys neznal presne cisla, myslis si ze v Inteli (i AMD) jsou totalni blbci, a za celou dobu existence GDDR5 by si nevsimli, ze ma lepsi latence jako DDR3, a nenahradili by DDR3 GDDR5kou v CPU ? pricom je obecne znamej fakt ze CPU je mnohem citlivejsi na latence pameti ? OMG lidi premyslejte trochu...

+1
0
-1
Je komentář přínosný?

>"VideoRAM (GDDR) má latenciu 0,1ns "

citajte slovo tam slpvu efektivnu(to som tam pisal, mozno sa neobjavilo vo vystupe), teda taka, ktora sa tak javi, ale nie je realna. Jewto prave paraleiizmami a sekvencovanim jednotlivych chipov

512/64=4

Cize uz len posunutie kanalov je pri dobrom radiciDDR3 je o pi/3
t.j. na efektivne vyuzitie GDDR mame posun o pi/12
a to je efektivna latencia SDR single channel latencia/24, co je 0,3-0,5 ns

Ano nadhodnotil som to 0,1 ns , ale radovo som trafil. Ja nemozem za to, ze radice GDDR, casto nefunguju tak ako pisem, teda nie su optimalizovane na linearne citanie rozdelnim na sdingle channel casti DDR busu.

>Jinak, i kdybys neznal presne cisla, myslis si ze v Inteli (i AMD) jsou totalni blbci, a za celou dobu
>existence GDDR5 by si nevsimli, ze ma lepsi latence jako DDR3, a nenahradili by DDR3
>GDDR5kou v CPU

Vtip je v tom, ze to urobili v zakaznickych chipoch APU pre Xbox a PS4

+1
+2
-1
Je komentář přínosný?

Jenže jak jistě víte, CPU jsou určeny a optimalizovány na sekvenční zpracování. A při sekvenčním zpracování je paralelismus, který VideoRAM (GDDR) podle Vás má, úplně k ničemu, CPU ho prostě nevyužije. Pro CPU jsou podstatné reálné latence, tzn. za jak dlouho po odeslání požadavku opravdu data přijdou.

+1
-2
-1
Je komentář přínosný?

Hmm, tak jestli chcete pouzivat pojem jako "efektivni latence", nevim jestli to vubec ma nejaky smysl, ale OK. Nicmene z hlediska jednoho vlakna je to tak, jak jsem napsal - a u CPU by jste to tvrde pocitili...

"Vtip je v tom, ze to urobili v zakaznickych chipoch APU pre Xbox a PS4"

To je samozrejme pravda, ale...... ale:
1) AMD architektura Buldozer (mirne tunena verze v PS4/Xbox) maji hodne spatne latence L2 / L3, a narazi na jine limitace nez pamet.
2) To CPU v Xbox a PS4 bezi na 1.6 Ghz (je vytunene na nizkou spotrebu) - to znamena, ze latence stejne pameti jsou polovicni vuci CPU na 3.2 Ghz (z hlediska cyklu CPU)

Takze ano AMD pouzilo GDDR5 u low-power chipu, a tipnul bych ze tam ty horsi latence nemeli temer zadny vliv na vykon. Neco uplne jineho je nejaky Intel i7, ktery bezi na 4Ghz a ma tretinove cache latence vuci AMD...

+1
0
-1
Je komentář přínosný?

ten originální článek má trochu jiné vyznění:

a to, že AMD použije HBM první generace ( s omezením velikosti na 4GB ) i u 14/16nm GPU čipů, protože může být na trhu rychleji, než HBM druhé generace.

čili AMD upřednostní "faster time to market" před kapacitou.

+1
-4
-1
Je komentář přínosný?

Originální článek je především velmi chaotický. Mluví o kompletní řadě produktů s HBM a zároveň mluví o HBM2 produktech v roce 2016. Vzhledem k tomu, že AMD uvádí jednu řadu produktů za cca 1,5 roku, je nereálné očekávat, že nyní za 2 roky vydá 3 řady produktů. Spíš mi přijde, že WCCFTech získal tutéž informaci od dvou zdrojů a mysleli si, že každý zdroj mluví o jiné generaci produktů. To ale nedává smysl jak s ohledem na časový rozvrh, tak s ohledem na doposud rozšířené povědomí, že HBM2 budou k dispozici dříve než použitelné FinFET procesy. Proto jsem zůstal jen u úvahy, zda je možné, rentabilní a smysluplné, aby: „The range will span top to bottom solutions featuring SK Hynix’s stacked high bandwidth memory, HBM for short.“

+1
-2
-1
Je komentář přínosný?

<i>čili AMD upřednostní "faster time to market" před kapacitou</i>

To je podle mě nepřesná a zavádějící spekulace. V prvé řadě je potřeba si uvědomit, že 14/16nm FinFET procesy nejsou dostupné a jak zkušenosti se zaváděním nových procesů ukazují, také nemusí být dostupné třeba vůbec (20nm proces TSMC je kde?).

V druhé řadě je třeba říci, že stávající Fiji čipy v sobě mají paměťový řadič připravený na HBM2.

Tedy okamžikem dispozice HBM2 ramek může AMD vypustit nový (byť ne zcela) produkt - Fiji s HMB2 ramkami. To si také myslím, že se stane, protože 14/16nm proces bude mít zase zpoždění či odklad... či se po vyrobení velkého čipu ukáže, že má takovou leakage, že topí víc než předchozí 28nm proces TSMC a vše je v háji zeleném...

+1
0
-1
Je komentář přínosný?

Kde v tom článku na wccftech vidíš napísané niečo také? Je evidentné, že na začiatku článku sa píše o HBM ako technológii (všeobecne, bez rozlišovania verzií), a až ďalej o jednotlivých verziách.
Naopak tam jasne píšu, že 14/16nm GPU budú mať HBM2, na ktoré má AMD údajne nejaký prioritný nárok.

+1
-4
-1
Je komentář přínosný?

Ja myslim ze nejlepsi bude kupovat produkt az s jiz osazenou 2 generaci HBM, nejenze budou vykonnejsi ale take obsahlejsi pameti na cip, predse 4GB dnes na hrani 4K neni moc, dale graficke cipy budou vyrabene na 16nm a ma prijit i NVIDIA s Pascalem tak si to AMD zatim muze vyladit.

Jinak HBM bych videl jako primo vhodne to reseni do notebooku, konecne by clovek nemusel patrat jestli tam ma sdilenou pamet s operacni, obstarozni a pomale DDR3 nebo rychle GDDR5, s HBM by byla proste zaruka ze vim co tam mam.

Myslite ze by sli uzit HBM i jako nahrady pameti operacni? proste primo je dodavat v pouzdru APU s tym ze by bylo kompletne nezavisle na RAM? vzdyt Playstation 5 tak funguje jenom misto HBM uziva Jaguar GDDR5, proste by sme se na DDR4 vysrali.

+1
+1
-1
Je komentář přínosný?

„predse 4GB dnes na hrani 4K neni moc“

A proto 4GB Fiji překonává 6-12GB GeForce snáz ve 4k než v nižších rozlišeních(?) ;-)

+1
+3
-1
Je komentář přínosný?

Pouze v tech hrach, kde mu tam ram nedojde, a pokud ignorujeme prubehy frametimes, pane redaktore technickeho magazinu :/
http://www.guru3d.com/articles_pages/amd_radeon_r9_fury_x_review,16.html
a to je jeste jen wqhd.

+1
-2
-1
Je komentář přínosný?

Už jsem několikrát na netu četl že 4 GB paměti pro GPU je s rezervou dost na 4K hraní. Problém je vtom že se dosud nikdo neobtěžoval s kompresí dat. Přitom ta komprese není žádná novinka ale bylo marketingově a i z důvodu zisku lepší cpát na GK 6 GB a více paměti. Vždyť to zákazník rád zaplatí. Zase jsme u té známé bolesti těžké neoptimalizace prakticky čehokoli. Samozřejmě až se přejde na 8K bude pak již nutné přejít na 8 GB videopaměti, ale na to zase nebudou mít výkon GPU.

+1
-1
-1
Je komentář přínosný?

Dokazovat nedostatečnost 4 GB testem, ve kterém 4GB a 8GB model téže grafiky dává stejné FPS, to je hardcore ;-)

+1
-5
-1
Je komentář přínosný?

Kdepak hardcore, to je jen pan(i) Nest...

+1
-4
-1
Je komentář přínosný?

K méně výkonným čipům budou stačit i HBM 1 generace. Stejně na výkonem na hraní v 4K mít nebudou a hrát se na nich bude tak max na 2K.

+1
+1
-1
Je komentář přínosný?

Nenapadlo někoho že cílem téhle srandy je jeden čip pro paměti i grafiku, pokud se to AMD podaří dokončit v dalších generacích bude mít výrazně lepší prostor pro snižování ceny a hlavně velikosti svých karet, celé to začne dávat smysl právě u menších karet, kde cena i složitost PCB může klesnout dost výrazně a v konečné fázi přijde APU na bázi ZENu s integrovanou 4-8GB paměti, to by mohlo konečně krásně zamávat se stuhlým PC trhem...

+1
+3
-1
Je komentář přínosný?

Ano, použití HBM u APU dokonce AMD (pro vzdálenou neupřesněnou budoucnost) potvrdila, takže je to tak. Příští rok ale bude HBM pouze na grafikách - odhadoval bych to tak na druhou půlku roku 2017 až rok 2018.

+1
-3
-1
Je komentář přínosný?

Jen takove zamysleni... To opravdu bude nVidia platit AMD a Hyninxu (spolutvurci HBM) licencni poplatky za HBM? Nebo jak to vlastne bude? AMD vlastne HBM vytvorila a nVidia planuje nasazeni HBM2 na pristi rok, kdy to taktez planuje i AMD. Proc si radeji licenci chvilku nepodrzi a neziskaji tak naskok na trhu?

+1
-3
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.