Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Samsung představil plány s GDDR6, dojde na ně za dva roky

Sem myslel, že nějaké ty HBM za dva roky naprosto vytlačí jakékoliv GDDR, ale zřejmě cena nepůjde tak rychle dolů a nižší spotřeba a rozměry nejsou tak podstatné. Nechápu to i proto, že budoucí 128bit lowend bude mít problémy s budoucími APU a 256bit karty jsou zase tak drahé, že by HBM neměly být problém, takže ten prostor pro GDDR6 je hodně omezený.

0 +1-1 Je komentář přínosný?
Obrázek uživatele TyNyT

HBM má smysl jen u výkonnější části GPU, a to se IMHO dost dlouho nezmění. GPU s HBM je klasický single point of failure - když umře GPU, měníš i dobrou HBM a obráceně.

0 +1-1 Je komentář přínosný?

Tak to jistě používáte i CPU bez paměťového řadiče s externím northbridge... a takhle bychom mohli pokračovat

+1 +1-1 Je komentář přínosný?
Obrázek uživatele TyNyT

To přece spolu nijak nesouvisí.
Ale dodnes používám počítače s DDR a DDR2 řadiči a pamětmi. A docela si stojím za tím, že ty výkonové rozdíly nejdou zásadně za pamětmi.

Rovněž HBM má svá negativa a pro některé aplikace jednoznačně nemá dobrý poměr cena/výkon.

+1 +1-1 Je komentář přínosný?

Přesně HBM má smysl jen u grafik a pro l1 ,l2 ,l3 cache uvnitř cpu na křemíku pokud bude mít dobré vlastnosti a dobrou přístupovou dobu. Provedení HBM by se mohlo dát využít u flash u SSD disků a patřičné 12 Gbps SAS HBA karty a to je jen má úvaha. A je tu i pár negativ v tom, že BGA kuličky rády prasknou a pokud tam budou 4 bga na sobě tak by mohl stačit i mírný otřes a celá ram nejde.

0 +1-1 Je komentář přínosný?
Obrázek uživatele Jaroslav Crha

Nechápu tu bezmeznou honbu za GigaHertzy ?
Už kdysi (ne tady) když každé zvednutí frekvence CPU jsem říkal, že jakmile se narazí na frekvenční strop bude se muset jít cestvou paralerizace výpočtů. Také k tomu došlo a nemáme tady CPU s 14GHz.
Podobně mohu odvodit, že zvyšování frekvence k 14GHz je jen reklamní trik, protože to žádný materiál se stávající konstrukcí na světě nemůže disponovat takovou frekvencí aby to bylo vůbec ještě spolehlivé. Jediná možnost je zvýšit prostupnost a dostupnost velkých paměťových bloků pro jednotlivé vlákna.

-2 +1-1 Je komentář přínosný?

Efektivní frekvence vs ta reálná.
PS: Jsem rád, že si se dostal z životní krize a už neblábolíš.

+2 +1-1 Je komentář přínosný?

Mas pravdu co se tyka CPU, ale jak to jde nebo nejde u GPU nevim, pravdepodobne uz by to bud AMD nebo NVidia nasadili, kdyby to slo.
U CPU kdyz prisel triplechannel, tak jsem si rikal, ze neni dlouha doba, kdy bude na mainstreamu quadrochannel a ono kde nic tu nic.

0 +1-1 Je komentář přínosný?

Ani s tím CPU to není až tak nezlomná pravda. Důkazem může být staré Pentium 4, kde ALU běžela na dvojnásobné frekvenci (takže efektivně až k 8GHz). Pentium IV se s extrémním přetaktováním dostalo na 8GHz (=16GHz ALU!). A to bylo na 65 nm. Jde jen o to, jak budou dlouhé kritické cesty. Pokud by se dělaly obvody registr-jediná_logická_komponenta-registr, tak se můžeme dostat na desítky GHz i bez extrémních podmínek, jen to prostě není užitečné a praktické.

+1 +1-1 Je komentář přínosný?

Tak vyrobit 16 nebo 32 dratu na 14GHz (tedy spis 14Gbps = 7GHz) neni problem. Ale zkuste to udelat s miliony spoji v CPU :)

+1 +1-1 Je komentář přínosný?

tak snad tu kazdy vie ze tie GigaHertze su viac marketingove oznacenie ako realne... uz z nazvu DDR - double data rate, by si si mal odvodit zakladne suvislosti...
zakladny takt mas predsa aj tu v clanku v tabulke...
1,25Ghz pre 10 "Ghz" GDDR5X
a aj pri tych 14 "Ghz" GDDR5X je zakladny takt stale nizsi ako je dnes pri 8 "Ghz" GDDR5,
takze pohoda klidek, vsetko bude normalne vyrobitelne a pouzitelne

+2 +1-1 Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.