Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Samsung zrychluje HBM2 na 2,4 GHz, 1 čip má datovou propustnost GeForce GTX 1080

Obavam se, ze v tomto pripade jsem spis zastance mnozstvi nad parametry, protoze vyrobci pameti tezce nestihaji.

+1
-1
-1
Je komentář přínosný?

Samsung se myslím ke konci minulého roku dušoval tím, že spustí více výrobních linek, tak třeba ty kapacity navíc umožní vyrábět více specialit.

+1
+1
-1
Je komentář přínosný?

To je super, to těžaři ocení. A hráči si můžou nadále užívat 6gbps GDDR5 na lowendových grafikách, protože nic jiného na ně v obchodech stejně nezbude.

+1
0
-1
Je komentář přínosný?

preco stale spominate efektivny takt? preco nemozete jednoducho napisat tak ako veci su? priepustnost/rychlost v Gbps na bit zbernice ?????? z toho sa potom celkom jasne, jednoducho, zretelne a zrozumitelne da vypocitat celkova priepustnost riesenia ... fyzicka frekvencia cipov je v zasade irelevantna sprostost (pokial mi nejde o TDP a spotrebu), ked niekto vyrobi cip s priepustnostou 20 Gbps na bit zbernice pri realnych 100 MHz, tak budiz ...

nebol vyrobeny ziadny kremikovy cip (CPU, APU, GPU, TPU, ASIC, flash, DRAM ...) ktory by pracoval na frekvencii 10 GHz alebo viac a clovek cita same drizdy o (aj ked efektivnych) 12-14-16 GHz, pricom realne frekvencie aj tych neexistujucich 16 "GHz" GDDR6 bude len 1000 MHz

napr. HBM ma realnu frekvenciu cipov polovicnu oproti tym marketingovym GHz (teda celkom prve HBM cipy pracovali na 500 MHz, potom az do 1000 MHz a teraz sa podarilo vyrobil 1200 MHz cipy), a napr. take DDR3/DDR4 a GDDR5 maju realnu frekvenciu cipov OSMINOVU oproti tym marketingovym GHz ! Teda DDR4 4200 ma realnu frekvenciu cipov 525 MHz (mozno sa pred nastupon DDR5 doskame aj DDR4 5000), DDR3 3000 ma realnu frekvenciu cipov stvrtinovu, teda 750 MHz a GDDR5 "8 GHz" ma realnu frekvenciu cipov az 1000 MHz, spomenme si na prve nesmele zaciatky GDDR5 na uchvatnych tzv. 4,4-4,6 "GHz" ... pri GDDR6 je to dokonca 1/16 !!!

proste ked DRAM, tak realne frekvencia cipov 100-250 MHz (v pociatkoch technologie) po 300-400-500 MHz (pri konci technologie)
proste ked HBM, tak realne frekvencia cipov 500 MHz (v pociatkoch technologie) po 1000-1200 MHz (pri konci technologie)
proste ked GDDR5/6, tak realne frekvencia cipov 500-600 MHz (v pociatkoch technologie) po 1000 MHz (pri konci technologie)

priklady:
ddr1 266 a real 133 mhz vs. ddr1 superOC 533/566/600 (aj take boli) a real 266/283/300 mhz
ddr2 533 a real 133 mhz vs. ddr2 superOC 1066/1200 (aj take boli) a real 266/300 mhz
ddr3 800 a real 100 mhz vs. ddr3 superOC 3200/3300 (aj take boli) a real 400/412 mhz
ddr4 2133 a real 266 mhz vs. ddr4 superOC 4400 ci 5000 (aj take budu) a real 550/625 mhz

GDDR5 4,2 "GHz" a real 525 mhz vs. GDDR5 8 "GHz" a real 1000 mhz
GDDR6 12 "GHz" a real 750 mhz vs. GDDR6 16 "GHz" a real 1000 mhz

+1
0
-1
Je komentář přínosný?

Pro začátek bych zkusil hustit do výrobců RAM, aby místo efektivní frekvence začali uvádět reálnou propustnost, a až je přesvědčíte, tak pak bych to zkoušel u grafik. Hodně štěstí.

+1
-1
-1
Je komentář přínosný?

Vzdyt propustnost rozhrani z/do pameti je dana prave tim "velkym" GHz cislem. To jenom marketaci nechapou rozdil mezi GHz a Gb/s. Nejcasteji je to nastesti udavano per-pin. Pokud by se uvadela zaroven sirka obvodu (4-8-16 bit pri DDR, 32 bit pri GDDR, 8x128 bit pri 4-vrstvem HBM) tak by se mohlo taky pouzivat MT/s.

Ale ten vas pozadavek, uvadet interni takty pametovyho pole.. jako proc? Jednak tam mate nekolik bank a ruzne pravidla k pouzivani, a pak pametove pole je rozhodne sirsi nez rozhrani pouzdra, takze je to nicnerikajici udaj.

Dulezitejsi je latence - a ta se vzdy uvadi. Stejne jako burst-length.

+1
+1
-1
Je komentář přínosný?

frekvencia (najme realna) pri DRAM by sa nemala uvadzat vobec, iba isty druh priepustnosti/rychlosti, pretoze to je jediny zmysluplny parameter ... supluje ho vsak efektivna frekvencia , v podstate sa tym oznacuje priepustnost, ale jednotka (tie GHz) za tymi hausnumerami je strasne blba a nespravna

pri CPU je to naopak stale jeden z pomerne dolezitych parametrov a stale sa nepochopitelne uvadza, aj ked prakticky ani tam by sa to nemuselo pretoze to nema v konecnom dosledku ziadny zmesel, GHz vojna skoncila pred 15 rokmi (v 2013) ... ked sme zospodu utocili na 4 GHz hranicu a boli sme v intervale 3-4 GHz a po 15 rokoch sme sa posunuli uz len symbolicky do intervalu 4-5 GHz a zospodu sa pozerame na 5 GHz pricom v rokoch 1993-2003 frekvencie out-of-order CPU stupli 50-nasobne (!!!) zo 60/66/75 MHz na 3800 MHz a kedze za posl. 15 rokov sa frekvencie CPU prakticky nezmenili (keby sa menili ako v 1993-2003 to by sme dnes mali 1/2 THz procaky a schylovalo by sa k 1 THz vojne), tak nema uz vobec ziadny zmysel uvadzat frekvenciu ani pri CPU + k tomu fakt ze IPC sa uz tiez nezvysuje prakticky vobec a uz dlhe roky sa vykon CPU signifintne zvysuje prakticky len pridavanim poctu jadier ... zmysel ma tak pri CPU udavat iba pocet jadier a vykonovu triedu (Ci3/5/7/9 a u AMD detto)

u GPU ma zmysel pre laicku verejnost (napr. v specifikaciach e-shopu) tiez udavat iba pocet vypoctovych blokov a vykonovu triedu v ramci rodiny/generacie tiez (podobne ako pri CPU) urcuje vzdy akesi modelove cislo (1050, 1060, 1070, 1080 a rozne pridavky ako Ti ...), detto u AMD, nic ine netreba

u DRAM, CPU a GPU sa tak udavaju pre totalne laicku verejnost (user total lama bfu co si ide kupit PC) absolutne zbytocne udaje - user total absout lama bfu potrebuje len vediet ako to je vykonne vzhladom na iny hardver svojej/blizko minulej doby, pretoze iba to je schopny pochopit:
- ultra brutal vykonne, spicka ponuky
- velmi (nadpriemerne) vykonne
- priemerne vykonne
- podpriemerne vykonne
- srot
a na to uplne staci pocet x86 jadier v CPU alebo pocet vypoctovych blokov v GPU a zaradenie do vykonnostnej triedy v ramci rodiky/generacie vyrobku

+1
-1
-1
Je komentář přínosný?

Uz chci videt jak jsou si rovny jadra ULV i7 na 1.5 GHz vs 4GHz desktopovy model... kdyz tvrdite ze o frekvenci nejde. Navic poslednich x generaci to muze byt stale i7, ale vykon se menil dost pokud dokazete pouzivat SSE/AVX instrukce. V tom se jednotlive generace lisi.

Deleni na srot..spicka je nesmysl, protoze by jste k tomu musel pridat i modelovy rok. Hardware neni vino, ktere casem zraje. Co bylo pred 5ti rokama spicka je dnes srot.

+1
0
-1
Je komentář přínosný?

1) Prave preto by mali byt mobilne CPU specialne odlisene aby to bolo jasne kazdemu blbovi. To ze mobilne CPU su menej vykonne jak desktopove je proste fakt. Ale aj v mobilnom segmente mame i7/i5/i3/pentium/celer.

2) ano SIMD insttukcie vedia vypocty urychlit 10-nasobne ako nic ... to ale nema nic spolocne s nezvysovanim IPC

3) "Deleni na srot..spicka je nesmysl, protoze by jste k tomu musel pridat i modelovy rok. Hardware neni vino, ktere casem zraje. Co bylo pred 5ti rokama spicka je dnes srot." .... vtipnejsi vyhrava? keby prvy Nehalem Ci7 920 z roku pana 2009 pracoval na 4,5 GHz miesto vtedajsich 2,666 GHz, kopa ludi (nevyuzivajucich vsetko novsie po SSE4.1/4.2) by si ziadny rozdiel nevsimla, pretoze IPC odvtedy stuplo o "uzasnych" 20%. Si bol posl.ednu dekadu v kome? Uz davno neplati ze 5 rocny komp je totalny srot, 5 rocny komp (nejaky IvyB Ci7 3770K) bol doteraz v porovnane s KabyL 7700K uplne porovnatelny, proste ziadne take ze za 5 rokov som si mohol kupit 10x vykonnejsi 4-jadrak.

a modelovy rok ... a samsung galaxy A3 2016, A3/A5 2017, A8 2018 ... to je co ....

+1
-1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.