Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Kde jsou 24Gbit GDDR6?

No je to otřesná situace, protože si nedokážu představit, abych v roce 2023 kupoval 8GB třeba za 13 RTX 4060 Ti... to mi připadá jako dobrej úlet a solidní výmrd, protože toto už zastará extrémně rychle a pořádně to nestačí ještě dřív než to vůbec vyjde, natož aby to mělo nějakou výdrž... z takových grafik se už upgraduje na něco většího, kupovat to jako novou herní grafiku je zkrátka na palici.

8GB jedině když to bude hodně levné a lidi počítají s tím, jaké to přináší omezení... RTX 4060 Ti jen s 8GB mi ale vůbec nedává smysl, protože ta už je na to příliš výkonná a nízká kapacita VRAM ji bude hodně brzdit, budeš tam mít plno výkonu co stejně nepůjde využít, protože dřív dojde paměť, akorát se to pak kvůli tomu „vysokému“ výkonu zbytečně prodražuje. Jediné co by mohlo jakž takž jít bude ta RX 7600... záleží hodně na ceně, jestli to bude stát tu 8, pořád je to hodně drahé.

+1
+3
-1
Je komentář přínosný?

4060ti s 8GB opravdu smysl nedává - pokud by na tom člověk chtěl hrát cokoli ho napadne.

A některé výroky o tom, že ten a ten chip nemá výkon na tolik a tolik paměti jsou postavené úplně na hlavu.
Vždyť nikdo nenutí nikoho u 4060ti používat furt kompletně celých 16GB.
Jde přeci o TO, mít víc než 8GB, to že nutně nevyužiju absolutně celých 16GB je přeci vuřt.
Podstatný fakt je ten, že 8GB nestačí a je potřeba víc, jestli to bude 13,14 nebo 16 není zásadní.

Na kartách, které mají paměti dostatek nevidím naprosto nic špatného.

+1
+4
-1
Je komentář přínosný?

Taky to tak vidím, že rači mít vždy víc paměti co nevyužiju než naopak, protože docházející paměť je pak totální zabiják výkonu a nepomůže ti nic...

Jestli vydají tu 4060 Ti jako 16GB, tak mi to vůbec nepřijde špatné, u 8GB by měl Huang ale opět raději použít tlačítko s nápisem „unlaunch“, protože toto jinak bude taková novodobá GTX 1060 3GB... měly by vydat rači jen tu 16GB, stejně jako předtím byla 3060 taky jen 12GB a rači se ani nesnažili prodávat jen 6GB verzi, což by byl totální výsměch, takže to bylo docela rozumné rozhodnutí.

Tady u toho si zas akorát každý bude myslet, kolik to nemá výkonu, vždyť to je přece 4060 Ti, tak na tom musí běhat aktuální hry jak z praku, nastaví vše na ultra, jenže ouha dojde VRAM a bude z toho zas naprostej fail a zjistíš, že jsou ty hry takto zcela nehratelné, když budeš mít všude VRAM na 100%.

+1
+2
-1
Je komentář přínosný?

4060ti bude 1080p/60fps karta, takže pokud si ji někdo nekoupí k 4k monitoru bude mít výkonu dost.
Nehledě na DLSS3, tam nebude problém 120fps. (netvrdím že jsem fanda DLSS3, to ne)

A 3060 se Koženka vyřádil v podobě 8GB verze, takže musel to ještě na závěr zprznit.

+1
0
-1
Je komentář přínosný?

Tak oni si přece jen dali ještě tu práci a udělali ji zas tak, aby mohli mít aspoň tu 8GB? To jsem předtím už ani nějak nepostřehl nebo jsem už na to rači zapomněl.

+1
0
-1
Je komentář přínosný?

Jo 3060 s 8GB (a menší sběrnicí) se normálně prodává. A stojí skoro to samé, co opravdová 3060.

+1
+2
-1
Je komentář přínosný?

'' 4060ti bude 1080p/60fps karta, takže pokud si ji někdo nekoupí k 4k monitoru bude mít výkonu dost. ''

fakt ne, uz dneska mas hry kde na 8gb grafarnach i v 1080p bez raytracingu pada vykon protoze nestaci pamet, nedavno to tu bylo..

https://diit.cz/sites/default/files/tlou_ultra_techspot.png

ted si predstav jak to bude vypadat treba za rok a pul.. fakt jako 8gb u grafarny za 450 usd je ojeb.. 8gb mel rx5700xt za 400 usd co vysel 4 roky zpatky.. zkrouhavat u fungl novy karty za 450 usd detaily aby mi v 1080p jely hry plynule a stacila jim pamet je totalne mimo, to je srot uz pri vydani..

+1
+2
-1
Je komentář přínosný?

Bavíme se oba o 4060ti se 16GB, té co bude mít výkon nad 3070 že ??
Jen se ujišťuji, protože tvůj komentář je napsaný velmi nepřehledně, a moc nerozumím ani vloženému grafu.

+1
+1
-1
Je komentář přínosný?

".. 8gb mel rx5700x .."

V roce 2020 se mi povedlo koupit Radeon Rx 5500XT 8GB za nějakých šest a půl s daní. (Saphire Pulse)

+1
+1
-1
Je komentář přínosný?

Být nebinární je možná v módě ;-), ale ono to dělá docela problémy. Adresové dekodéry a řadiče v paměťovém čipu i CPU/GPU jsou koncepčně postavené jako binární, protože se pro adresaci používají nuly a jedničky.

Technicky se dá udělat čip s o 1/4 (např. 16-4=12) ménším počtem paměťových buněk. Ale adresní piny, vyrovnávací paměti i rozsah řadiče v paměťovém čipu budou stejné jako u 16Gb čipu, jen se čtvrtina adresních kombinací nevyužije. A řadiči musí ještě detekovat a ošetřit chování, při zadání nedostupného rozsahu paměti.

Ušetří se tedy 1/4 paměťových buněk, řádkových budičů a možná i část dekodéru řádkové adresy. Ale je otázka, o kolik to sníží výrobní náklady. Zřejmě zatím nebyl nebyla cenová úspora tak velká, aby výrobcům pamětí a jejich zákazníkům stálo za to řešit související komplikace.

A je ještě další problém, který musí vyřešit buď výrobce paměťového řadiče v procesoru/grafice, nebo výrobce používaného operačního systému. Pokud máte paměti s plnou binární adresací, získáte použitím více kusů souvislý adresní prostor. Ale u nebinárních pamětí jsou v něm díry, jejichž obejití při adresaci paměti musí vyřešit buď řadič nebo operační systém..

+1
+3
-1
Je komentář přínosný?

„Zřejmě zatím nebyl nebyla cenová úspora tak velká, aby výrobcům pamětí a jejich zákazníkům stálo za to řešit související komplikace.“

V desktopu, v noteboocích i v akcelerátorech ta úspora zjevně za to stála a žádné zásadní problémy s podporou nebyly (hardwarová výbava stávajících řadičů je dostatečná a stačí aktualizace firmwaru). Nenapadá mě jediný racionální důvod, proč by to u GDDR6 mělo být jiné.

+1
0
-1
Je komentář přínosný?

Asi jsem měl ten minulý času zdůraznit přidání slova ZATÍM.

Důvodů, proč se nebinární velikosti začaly používat u DDR5, bude asi víc. Nároky uživatelů na paměť se velmi liší podle toho, k čemu počítač používají. Spoustě lidí stačí i 8 BG a 16GB pokryje potřeba asi naprosté většiny. A nejbližší vyšší paměť 32GB je a ještě nějakou dobu bude pro téměř všechny zbytečné. I proto, že když je málo paměti, tak se aktuálně nepoužívané bloky včas odloží na SSD disk a člověk si nějakého poklesu výkonu ani nevšimne.

Ale Windows i programy jsou stále nenažranější a dá se čekat, že množství paměti doporučované Microsoftem bude vyšší než 16GB. Jenže 32GB je opravdu hodně a tak bude 24 GB dobrý kompromis. Důležité je zvlášť u notebooků (75% PC trhu) s pevně připájenou pamětí, které se začínají stávat standardem. Tam na rozdíl od stolního PC s jednou koupenou pamětí už člověk nic neudělá.

Je taky otázka, kde a jak se řeší ty díry v nesouvislé oblasti paměti. Pokud to řeší OS, tak je to relativně snadné, protože ten už dávno používá segmentovanou paměť, kterou přiděluje procesům po částech, které nejsou v souvislé oblasti, protože díry vznikají obsazování a uvolňováním paměti jednotlivými procesy. A tak řadič paměti procesoru může zůstat celkem jednoduchý. Stačí je OSu oznámit, jaké bloky paměti jsou k dispozici.

U grafik je to ale (asi) o dost jiné. U nich záleží na rychlosti a plynulosti přístupu k datům mnohem víc než o programů na PC. Při kolísání jejich hodnot může docházet k významným propadům FPS, jejichž důsledky mohou být pro uživatele zřetelně viditelné. Odkládání na disk nebo do paměti PC se sice udělat dá, ale není to dost rychlé a musí se řešit nejspíš na úrovni hry rozumnou správou paměti, což je složité.

Informace o způsobech využívání paměti grafickými kartami nejsou běžně dostupné. Ke ale jisté, že grafická karta má svůj vlastní řadič paměti a předpokládám, že nějak řeší přístupy do paměti potřebné pro běh shaderů i na úrovni firmware. Ale téměř jistě neobsahuje nějaký příliš flexibilní operační systém, podobný těm na PC.

Změna konceptu na nebinární paměti a přeskakování děr v paměti by nejspíš znamenala významné překopání konstrukce i firmware grafiky. Technicky by možná šlo řešit překlenutí děr v paměti nějakou kombinační logikou v paměťovém řadiči grafiky, ale každé hradlo na cestě signálu znamená zpoždění navíc a to mohlo by to vadit. Navíc vzhledem k malému rozsahu trhu a menší citlivosti zákazníků na cenu to asi výrobci grafik ani GDDR pamětí moc řešit nebudou.

+1
+2
-1
Je komentář přínosný?

Mám za to, že hlavní důvod pro paměti velikosti 24GB,48GB jsou zejména požadavky výrobců v segmentu integrovaných LPDDR(4 i 5), aby mohli segmentovat cenu. Nebo vidíte jiný důvod? Já jako BFU si klidně připlatím za 32 nebo 64.

+1
0
-1
Je komentář přínosný?

Důvod je fyzika - s výrobnmi technologiemi jsme už tak na hraně že skákat na dvojnásobek kapacity je velmi obtížné a tak se přidal ten mezistupeň (a možná je to i proto aby výrobci RAM mohli udat čipy s deaktivovanou defektní čtvrtinou kapacity)

+1
+3
-1
Je komentář přínosný?

- Spoustě lidí stačí i 8 BG a 16GB pokryje potřeba asi naprosté většiny. A nejbližší vyšší paměť 32GB je a ještě nějakou dobu bude pro téměř všechny zbytečné.
- množství paměti doporučované Microsoftem bude vyšší než 16GB. Jenže 32GB je opravdu hodně a tak bude 24 GB dobrý kompromis.

A já byl v tom, že XX. století už skončilo.
16GB v novém stroji je za trest.

A jak ukázaly letošní hry, nejen 8GB VRAM ale i 16GB RAM už je hodně omezující.

- když je málo paměti, tak se aktuálně nepoužívané bloky včas odloží na SSD disk a člověk si nějakého poklesu výkonu ani nevšimne.

Šťastný to člověk, který si nevšimne swapování ...

+1
0
-1
Je komentář přínosný?

Jsi prostě teoretik. Vyzkoušej si to v praxi někdy a hned budeš v obraze!

Já používám noťas se 2GB RAM a je to v pohodě, parádní Core2Duo, které jede jak z praku a sjíždim tam jakýkoli web úplně na pohodu.
Ano, musel jsem vyhodit původní Windows Vista a nasadit Ubuntu, momentálně 22.04 LTS.
A ano, bylo nutné vyhodit původní HDD a nasadit SATA SSD WD Blue, takže si to v klidu může swapovat ostošest a díky rychlosti SSD to nepoznám.

Na herním PC sice taky mám 32GB RAM, ale 16GB je dneska na většinu situací naprosto v pohodě a dá se stále žít na pohodu i s 8GB RAM, akorát musí člověk aplikace vypínat a nemůže toho mít puštěného tisíc zároveň.

Jinak teda je to jak píše, už Win98 si obsluhovaly paměť samy a normálně jsem měl SDRAM 8MB+8MB+8MB = 24MB a později jsem to vyměnil za 3x16MB. Dual Channel tehdy neexistoval. U sekvenčního přístupu k paměti je to prostě jedno.
Jenom teda u těch grafik je to taky jedno, i tam se to řídí nějakým softwarovým řadičem.
Spíš se 24GB v grafikách neprosadilo proto, že Huang teprve rozpéká troubu na tuhle konfiguraci a eště vydojí nějaké ty Lovelace s 8 gigama. :-)

+1
+1
-1
Je komentář přínosný?

No to není tak úplně pravda... 32GB už trochu dokáže dělat nějaké rozdíly, ještě nejsou nijak extrémně velké, ale někde to už může mít nějaký vliv. Souhlasím jen z části, že mít 32GB je trochu přehnané... nejsou úplně zbytečné, to je zas akorát taková ta situace, kdy ti 16GB nestačí, tak jdeš rovnou do 32, protože nic mezi nedává cenově moc smysl a jsou to takové nestandardní kapacity, co se moc nevyužívají... prostě 32 vemeš, protože víš, že 16 tě už bude omezovat... ani tak ne že by sis snad myslel, že jen hraním her využiješ celých 32GB, ale protože prostě potřebuješ víc než těch 16... to už by ta hra na 16 musela být zcela nehratelná, pokud by nějaká opravdu vyžadovala 32.

+1
0
-1
Je komentář přínosný?

Jo jasný, vždyť píšu, že těch 32GB mám taky. A ty RAM jsou vyjma DDR5 levné, takže není důvod na tom šetřit. Ono teda i ty DDR5 jdou s cenou dolu, takže pohoda.
Mezi 16GB a 32GB zas tak velký rozdíl není, ten bude až mezi 32GB a 64 GB, ale tak daleko ještě pár let v desktopu nebudem. :-)

+1
0
-1
Je komentář přínosný?

Výborně.
Alespoň vím, komu ty 32GB moduly prodám, až budu rozšiřovat paměť nebo se rozhodnu přejít na platformu s DDR5.

PS:
2019: Ryzen 7 3700X, 64GB 3200
2021: Ryzen 7 5800X, 64GB 3600

+1
+1
-1
Je komentář přínosný?

Jojo, 2 GB na desktopu stačí, proto slušné mobily začínají na 6 GB a více, přestože oproti desktopu na nich člověk v podstatě nemůže dělat více věcí současně.

Mně taky přijde vtipné číst diskuze o tom, jak 8 GB na fullHD nestačí... hraju na 1920x1200, GTX770 2 GB, a nějak mi to furt stačí. Asi to bude tím, že už nejsem úplně na nejnovější AAA hry. Třeba GTA V na tom sviští jako prd. Nevím, na jaké nastavení, prostě to funguje dobře.

Těch 24 MB jste měl na jednom kanále, to lze i dneska. Třeba kombinace 2x2+2x1 GB RAM bývala docela běžná.

"Jenom teda u těch grafik je to taky jedno, i tam se to řídí nějakým softwarovým řadičem."
Hardwarovým řadičem.

Není to 24 GB ale 24 Gb (nebo 24 Gbit, jak je v článku).

A nakonec, 2 GB na Ubuntu 22.04 je utrpení. Pokud "jak z praku" vyjadřuje pocit, jak vám pořád dokola do hlavy naráží šutr, pak je to výstižný popis.

+1
+1
-1
Je komentář přínosný?

Tak samozřejmě je vždy řeč o nových a náročných hrách... samozřejmě je spoustu starých nebo nenáročných her, kde to opravdu musí stačit, ale jaksi třeba nechceš furt hrát to samé pořád dokola a chceš třeba zkusit i nějakou novou co zrovna vychází a to už pak hrozí, že ti to na ni už nebude muset stačit. Máš tu i hry, co jsou vyloženě RAM hungry, třeba Cities Skylines, kde když máš nějaký větší projekt, tak to schlamstne třeba těch 16GB jak malinu a prostě potřebuješ 32.

+1
-1
-1
Je komentář přínosný?

O systémové RAM jsem z pohledu her vůbec nepsal. Tam naopak nechápu, respektive vadí mi, jak je využitá k segmentaci trhu. Stojí to pár korun, a třeba Apple to vyvažuje zlatem. Pamětí se sice plýtvá, a to mi vadí, na druhou stranu je levná, není důvod nemít jí dost.

+1
0
-1
Je komentář přínosný?

Jak píše Mike123, nepotřebuješ na PC zvětšovat RAM, pokud nejedeš novinky. Mám to 95% času stejně, ale pak jednou za čas na něco nového chuť dostanu, takže jsem si tu RAM taky zvedl.

Ubuntu 22.04 jede na 2GB RAM naprosto v pohodě a zcela plynule. Dokonce jde v pohodě nahodit Vivaldi browser a spustit v něm DVĚ ZÁLOŽKY. Při třetí už to začne protestovat, ale na mé použití stačí i ty dvě.

Zajímavý detail je to vypíchnutí mobilních telefonu s Androidem, kde teda 2GB rozhodně nestačí, 4GB je na hraně a až 6GB začíná být docela ok. Tak to skutečně je, mohu to z vlastní zkušenosti potvrdit. (Samsung Galaxy S5)
Akorát to nevyjadřuje skutečnost, že je to dané linuxovým jádrem, ale že Google neuvěřitelně zprasil svou (ne)javovskou nadstavbu.

Pro neznalého opravdu paradoxní situace, dnešní mobil s aktuálním Androidem je ale vážně na systémové prostředky vážně náročnější než linux i Windows 11 dohromady!!!

+1
0
-1
Je komentář přínosný?

To jistě nepotřebujete. Mezi novinky ale patří i webový prohlížeč a aktuální weby.

"Pro neznalého opravdu paradoxní situace"
Píše uživatel pojmu "linuxové jádro". Říká se tomu buď prostě správně Linux (což je něco jiného než GNU/Linux) nebo Linux kernel. Android používá Linux. Stejně jako váš domácí router, co má všehovšudy 32 MB RAM, a polovinu z ní volnou.

U toho Androidu je to dané více věcmi. Nerozumím tomu zdaleka tak, abych se prohlásil za znalého, ale ta spotřeba paměti mi přeci jen vrtala hlavou. Hlavními z důvodů je univerzálnost a bezpečnost, která prostě stojí trochu výkonu i paměti. Dalším důvodem je ale třeba běžně mizerné úložiště, na které se snaží co nejméně sahat, a držet si věci v paměti. Což proč ne, pokud to jde. Taky chápu, že pokud Chrome na desktopu začíná na 2 GB RAM, tak na Androidu na tom bude dost podobně. Ale proč některým telefonům trvá dvacet vteřin otevřít aplikaci Telefon, a podobně, to fakt nevím.
Dost si člověk pomůže alternativní ROM, která tolik paměti nežere. Kdysi jsem si hrál s Cyanogen na Galaxy S2, která měla /jen/ 2GB (nebo dokonce 1 GB?) paměti, a se stock Androidem už to fakt nestačilo. Ale čistý Android, respektive Cyanogen, na tom běžel jako víno. Už je to tak 10 let nebo tak.
Každopádně to ukazuje, že Googlácká zprasenina to nebyla, protože ta v tom telefonu zůstala. Přechodem na Cyanogen se odstranila samsungácká zprasenina. Pokud tam vůbec nějaká zprasenina byla.

Ale vaše sebevědomí se mi líbí.

+1
0
-1
Je komentář přínosný?

No, jestli Linux nebo linuxové jádro, fakt slovíčkaříš.

Jinak dnes je na Androidu situace odlišná. Místo Cyanogen máš LineageOS, což je na podobné úrovni jako mají číňani nucené ColorOS a HarmonyOS. Základem je furt Android, akorát máš odebrané googlovské aplikace. HarmonyOS má sice těch změn nejvíc, ale furt je to v základu Android. A jistě Android je v jádru linux, to vím taky.

Každopádně aktuální Linux se dá i s Gnome Shell provozovat na 2GB RAM, za tím si stojím, protože to na noťasu provozuju.
Kdežto aktuálnímu Androidu s google appkama už nestačí ani 4GB RAM a seká se to. No já jsem Google odstřelil a používám LineageOS a je to o něco lepší, takže google zprasené aplikace zjevně žerou hooodně moc, ale i tak to na 2GB telefonu seká ostošest.
Takže zjevně co? Zjevně to dělá ta část Androidu, která tam zůstává mezi jádrem a aplikacema a to je GUI, které LineageOS používá odlehčené, co se dá a ta googlem zprasená část, která se stará o chod Android aplikací.

Prostě Android, ač je základem linux, je tak doprasená záležitost, že to potřebuje k běhu víc RAM než PC s Windowsama. A to je celý ten Google - zaprasená firma!

+1
0
-1
Je komentář přínosný?

Sice víte, co a kde Google v Androidu zprasil, ale plete se vám operační systém a jeho jádro? Jasně že bych rád slovíčkařil, my technici máme rádi ujasněné pojmy, aby nedocházelo k nepřesnostem a nedorozumněním, jako teď právě v tomto případě, kde nevím, co jste myslel. V textu níže.
Budu si vybírat, jo? Protože za reagování na vše mi to nestojí.
"takže google zprasené aplikace zjevně žerou hooodně moc"
Hlavně "google zprasené aplikace" zjevně žerou mnohem více než Googlem zprasený Android, který je sám o sobě ale mnohem mnohem větší. Čím to asi je, že Google zprasil jen své služby, ale už ne Android? Když víte, že to zprasil, asi byste mohl vědět, proč zprasil zrovna tohle a ne něco jiného?

"ta googlem zprasená část, která se stará o chod Android aplikací."
Nejsem si jistý, jak jste to myslel. Respektive tohle chápu, ale není to konzistentní k ostatnímu. Je tam problém v tom, že ta část, která se stará o chod aplikací, je součástí Androidu, ne Google Services. Takže Google kromě svých služeb zprasil ještě běhové prostředí pro aplikace, ale jen ty své? Proč?

Linux je to jádro. Sám o sobě je kernel dost nepoužitelný. Ale jako takový dokáže běžet na obrovském spektru zařízení, i z hlediska paměti. Kde na spodní straně budou jednotky MB RAM, a na horní straně budeme někde na desítkách terabytů. Takže to, že vám *Linux běží na 2 GB RAM, není nic zvláštního. Zvláštní je, že kromě celého operačního systému, který v případě Gnome 2 sežere tak 1 GB RAM po spuštění, ještě utáhne na pohodu (respektive doslova "jak z praku") webový prohlížeč. Z moji zkušenosti tohle už moc na pohodu není. Ale jsme u těch pojmů a slovíčkaření. Vám totiž dva taby v prohlížeči přijdou na pohodu. Mně ani omylem. Nehledě na to, že mám představu, jak takové C2D bez HW šifrování a video dekodérů bude na moderním webu fungovat. Na pohodu ne.

+1
0
-1
Je komentář přínosný?

Těžko ti to dokážu, leda bys někde takovej noťas sám sehnal a mohl se přesvědčit, když mi nevěříš.
V pohodě prostě běží webový prohlížeč na 2GB RAM, pokud to je na linuxu a jak píšu ještě ke všemu jsem nešetřil systémové prostředky ani na GUI.
Linux je prostě fajn, kernel, Gnome Shell i ten Vivaldi a Firefox, které tam mám, na tom běhají tak dobře, že nemám žádný důvod ten noťas s Core2Duo T7250, kterého využití je web a pošta, měnit. Za mě rozhodně spokojenost.

S čím spokojený nejsem, je mobil s Androidem. Odlehčený LineageOS na stejné konfiguraci paměti 2GB a super biglittle procák Snapdragon 801 se spoustou jader a přitom je výsledkem to, že spustím prohlížeč a při třetí otevřené záložce to spadne a prohlížeč se ukončí. Holt na Androidu nedostatek paměti, na nějaké velké "internetování" už to dneska není, ale čert to vem, kdyby se podobně neukončovala telefonní aplikace.

Jinak, já nic takového nepíšu. Je to přesně naopak, zprasený Google Android, zprasené Google Services a zprasené Google aplikace. Prostě všechno na co sáhnou, tak zprasí. Což samozřejmě neznamená, že jiné aplikace tam běhají nějak výrazně lépe, když to je pořád jen ten blbej Android. :-/

+1
0
-1
Je komentář přínosný?

2GB RAM pro GNU/Linux opravu stačí.
HP Compaq xxxx z roku 2006 s původně 152MB + přidáno 1024MB. Dual boot XP / Fedora.
Linux fungoval i grafickým prostředím a šly v tom i hrát hry. Třeba i takové Baldurs gate.
Používáno do roku 2016, kdy jsem pořídil 2C/2T Atom s 4GB RAM. Procesorový výkon zhruba stejný. Grafický o dost vyšší. Předchozí ntb neměl "piksle šejdrem".

4GB Ram se ukázalo málo pro hru z roku 2012 (Rocksmith).

+1
+1
-1
Je komentář přínosný?

Asi zijes 2 dekady v minulosti. Ano, PC pracuju na zakl. boolovej algebry (babru sa s nulami a jednickami) a hodnoty vsetkeho sa akosi ocakavaju binarne okruhle cisla. To uz ale dve dekady neplati. A neni to prekazka pre to, ze PC su stale postavene na binarnej boolovej algebre.

Zacalo to kapacitami a inymi charakteristikami HDD (binarno-dekadicky bordel) na konci 90 rokov. Ake mali HDD vtedy kapacity? Dekadicky kruto-prisne divne, ale staci si uvedomit ze binarne boli okruhle:
2GiB HDD (2147483648 bajtovy) znamy ako 2,1 GB
3GiB HDD (3221225472 bajtovy) znamy ako 3,2 GB
4GiB HDD (4294967296 bajtovy) znamy ako 4,3 GB
6GiB HDD (6442450944 bajtovy) znamy ako 6,4 GB ci 6448 MB (wono tam bol vsade troska bonus)
8GiB HDD (8589934592 bajtovy) znamy ako 8,5 GB
pocty hlav 16, stop 65536 ... NIC Z TOHO uz dnes neni binarne !

A nasledne "debinarizacia" pokracuje kapaitou flash ulozisk, kapacitou jednotlivych flash cipov (ano citame spravne, uz ani flash cipy nemaju kapacitu binarne okruhlu), pokracuje to kapacitou VRAM (11 GiB u nVidie neni ani binarne polo-okruhle a dokonca ani stvrtinkovo-okruhle, to je az binarne osminkovo-okruhle cislo) a sirkou zbernice GPU detto.

RAM moduly pre bezne PC do toho celkovo zapadaju az ako uuuuuuuuuuuuuuuplne posledna novota, lebo aj pred 3 dekadami bolo mozne mat 48 MiB, alebo mensich 24 MiB RAM ako 2x8 MiB moduly a 2x4MiB moduly, no a ako vieme 8 a 4 su krasne binarne okruhle cisla, dnes mozme mat 48 GiB v podobe dvoch 24 GiB modulov.

To ze nieco, nejaky rozsah neni vyuzity cely je najmensi problem .... co taka dlhorocna 40-bitova ci 48-bitova podpora virtualnej RAM u CPU? Odkedy su 48 a 40 binarne okruhle cisla?

Benefit je v jemnejsom deleni portfolia vyrobkov. Osobne by som prijal aj kapacity M.2 SSD jemnejsie delene. Mame 1/2 TB - like (480-500-512 GB) a 1 TB-like (960-1000-1024 GB) modely. Kde je nieco medzi? Nejake 3/4 TB - like modely? 750-768 GB? Detto 1,5 TB-like (1500-1536), dalej 3 TB a 6 TB modely. Nakoniec 12 TB ako presne v strede medzi 8 TB a buducou spickou 16 TB M.2 SSD. Proste existuju iba velke skoky.

A preco je "debinarizacia" vlastne prirodzena? Lebo clovek uvazuje v 10-tkovej sustave, nie 2-jkovej. Clovek ako taky zivy tvor 2-jkovu sustavu nepotrebuje. Ona moze byt schovanma pod kapotou a tvorit princip funguvania von neumanovych deterministickych pablbov, ale BFU ju k zivotu nepotrebuje. Dalsia vec je ze BFU ju ani nechape - pretoze je pre BFU kontraproduktivna.

+1
0
-1
Je komentář přínosný?

Ne. Ne. Ne.
Magnetické disky stojí na magnetickém základu. Kolik se vejde buněk na plotnu jaksi s dvojkovou soustavou nemá žádnou spojitost.
Není divu že jí opustili.

USB flash jiné než binární jsem ještě neviděl.
SSD mělo pokusy o 360GB a podobné šílenosti, ale cenově se nevyplatili.

A k čemu by mi bylo 750GB SSD?
Ušetřím pár korun jen pro to abych ho musel vyměnit dříve než 1TB.
Potřeba kapacit roste dvojnásobně každé 2 roky. To budu každý rok dělat upgrade SSD, RAM, GPU? Ano dělám každý rok upgrade. Ale měním jen jednu věc. A dělám to tak abych na ní několik let nemusel šahat. Ne že každý rok vyměním vše.

Desitkovovou soustavu ocení ti, co počítají na prstech. Protože jich mají 10. Já prsty k počítání nepoužívám. Takže dvojkova mi je bližší než desítková.

BFU to mají jinak a je jich většina. Smutné.
No ale už jsem se smířil s tím že BFU vyhovuje letní čas. Tak nejspíš budeme mít poledne v jednu hodinu. Tak se smířím i s tím že PC budou nebinárni. Moudřejší ustoupí.

+1
+1
-1
Je komentář přínosný?

Jo, natlacena binarna sustava do HDD je umela blbost.

Lenze: "USB flash jiné než binární jsem ještě neviděl."
Chlape ty musis byt riadne mimo. Este raz: kapacity SSD, USB lucov a pamatovach kariet nejsu binarne okruhle cisla (iba sa to snazia marne a absolutne nezmyselne imitovat). To by totiz 256 GB USB kluc musel byt 256 GiB a mat teda kapacitu 274877906944 cili takmer 275 GB. V reale ma mozno 253 GB = 235,6 GiB. Ono sa to proste snazi o nieco v style "1/8TB-like" (120-128 GB = 112-119 GiB modely), "1/4TB-like" (240-250-256 GB = 223-234-238 GiB), "1/2TB-like" (480-500-512 GB = 447-465-477 GiB), "1TB-like" (960-1000-1024 GB = 894-931-954 GiB), "2TB-like" (1920-2000-2048 GB = 1788-1862-1907 GiB) ... a je to absolutne zbytocne. Pokojne mozu existovat aj medzistupne. rovnako ako medzi 2 a 4 TB HDD exsistuje 3 TB model, 6 TB medzi 4 a 8 TB a 12 TB model medzi 8 a 16 TB ...

Ako pisem, dokonca uz ani kapacita jednotlivych NAND flash cipov a celych ciernych puzdier NENI z vyroby binarna! Uplne surovej kapacity vsetkych cipov a vsetkych puzdier je pri nejakom 1 TB SSD nejakych az dokonca 1,3-1,4 TB !!! Nie iba trapnych 1 GiB = 1099511627776 bajtov co je "iba" necely 1,1 TB. Aj samotne XXX-vrstvove NAND cipy (a niekolko z nich je prepojenych v ciernom puzdre, ten cierny svab) vyuzivaju na najhlbsej vrstve tzv. RAID5-like konfigurciu, kde logicky je nejaka (rerlativne velka cast 1/6 ci 1/5) vyuzivana pre potreby redundancie na najhlbsej urovni. Dalsu uroven poskytuje lear leveling a garbage collection.
Takze sice clovek moze mat akoze 1 TB SSD a Wokna ukazu 1 000 000 000 000 bajtov (cili 0,9095 TiB = 931,3 GiB = 953674,3 MiB = 976562500 kiB), surovo je tam vak dajme tomu 1 350 000 000 000 bajtov pamatovych buniek.

Potřeba kapacit roste dvojnásobně každé 2 roky. To jako vazne?
prelom 2008/2009: prvy 2 TB HDD
dnes: 2022-2008=14, cili 7 zdvojnasobeni, co mame 2TB*2^7 = 256 TB
kde v prdeli su tie 256 TB HDD?

2008:4 GiB RAM bolo akurat
2022: opat 7 dvojrocnych zvdojnasobeni, co dava 4GiB*2^7= 512 GiB
kde v prdeli su tie bezne notebooky a bezne PC s 256 GiB RAM? neviem ci mam selektivnu slepotu, ale vidim ako bezne iba 16-32 GB hodnoty pre bezne notebooky a PC

Desitkovovou soustavu ocení ti, co počítají na prstech. Protože jich mají 10. Já prsty k počítání nepoužívám. Takže dvojkova mi je bližší než desítková. Clovece vies co znamena BFU?

+1
0
-1
Je komentář přínosný?

Argumentovat tím že HDD neposouvají svojí kapacitu. Dost ubohé. Když narazili na fyzikální možnosti.
V době přechodu na PMR to byl jiný fofr.
Ano. Né vždy se daří dodržet Mooreho zákon. Běžně to jsou i tři roky.
(Stalo se, že 4 jádra stačili po dobu 10 let.) 2 roky je jen obecné zjednodušení.
První 1TB SSD bylo oznámeno v roce 2013.
Letos očekávám 16TB SSD. Jsme na dvojnásobku každých 30 měsíců.
Potřeba RAM trochu klesá tím jak se přešlo od HDD na SSD. To tu psal už někdo jiný.
Takže tam to je každé 3 roky dvojnásobek.

Ano pojem BFU jsem si rozšířil a používám ho jako nadávku pro lidi s IQ menším než 100.
Ti ostatní jistě pochopili že dnes PC používá úplně každý. Takže Běžný Franta Uživatel je člověk s IQ100 a méně.

+1
0
-1
Je komentář přínosný?

Proste musis uznat ze progres sa z dlhobobeho hladiska (dekady) spomaluje.

Uvedom si ze uplne povodne znenie Moorovho zakona (MZ) z 1965 bolo "kazdy rok". Uz na prolome milenia boli zvesti o konci platnodti MZ, a "zachranili" to s 18-24 mesiacmi, nasledne sa zacalo hovoril o pevnych 2 rokoch. Dnes musime kalkulovat s 2,5-3 rokmi (teda pokial chceme robiut nejake dlhodobe priemery a prehlady).

Ano samozrejme, pokial zoberieme velmi vhodny interval ked nam doslova rozkvitala a "vybuchla" ista technologia, tak v tom intervale to bolo uzasne. Lenze take sialene exponencialne temto nemoze existovat vecne, to by sme uz dnes mali "Hlubinu myšlení":

1998: bezny mainstream HDD cca 2 GB (boli aj trocha vacsie) a o 12 rokov v 2010 HDD bezne mainstream 1 TB, opat boli aj trocha vacsie (t.j. 500x), roberme si dalsich +12 rokov a dnes by sme mali mat bezne 500 TB - 1 PB (petabajtove) HDD .... proste ani to tvoje ospevovane nahradenie LMR s PMR poslednu dekadu a pol nepomohlo, lebo LMR (pozdlzny zapis) koncilo pri 5-platnovom 1 TB HDD v 2007, vsetko nad (4-3-2 platnove 1 TB HDD neskor) a samozrejme aj vyssie kapacity su uz iba vyuzitim PMR (kolmeho zapisu). Nepomohli ani asistujuce šindle SMR, ani tensie platne, ktorych je s saši HDD 8-9-10 mieste 3-4-5, nepomohlo helium, proste nepomohlo NIC tebou spominane aj nespominane, aby bol narast kapacit 2010-2022 rovnaky ako v intervale 1998-2010. V zasade sa nutka povedat (pozerajuc na kapacity) ze posledny tucet rokov 2010-2022 vyvoj na poli HDD defacto zastavil, ked narast kapacit porovnavame s pred-poslednym tuctom rokov 1998-2010. Opak je ale pravdou, ludstco sa uporne snazi vyvijat nove technologia zapisu ako vsetko vyssie spominane, ale proste na zlatu eru 1998-2010 ked kapacity narasti o 3 rády (!!!) sa uz nedostaneme nikdy.

detto frekvencie:
1996-1997: PentiumI 100-166 MHz (MMX) a za 8 rokov Pentium4 3,8 GHz (cca 30x), tymto tempom za dalsich 2,5x8 rokov (t.j. dnes) sme mali mat 30^2,5-krat vacsie frekvencie. t.j. 500 GHz = 1/2 THz pricom uz tu mala byt tera-hertzova vojna ako kedysi giga-hertzova. No a kde su tie terahertzove CPU? opat zlata era frekvecnie bola vycerpana v 1996-2004. Skorsi interval 1988-1996 neni idealny priklad, lebo sme velky posun frekvencii nevideli, pretoze posledne 386 a prve 486 sme mali na 16,66 ci 20 ci 25 MHz, co oproti 100-166 MHz o 8 rokov neskor je iba cca spriemernene 5-nasobok a nie 30 nasobok.

Je to proste o tom zvolit si najvhodnejsi interval aby sme ukazali, kedy mala techznologia svoj boom a zlaty vek, ktory trval v podstate par rokov.

+1
0
-1
Je komentář přínosný?

Točíme se v kruhu.
HDD je umírající technologie a tedy to je špatný příklad. Něco jako diskety nebo CD/DVD/BR.
Letos tu bude 16TB SSD a za 3 roky 32TB.
HDD za 3 roky nedají ani 30TB. A to bude jejich konec.

256 jader na 2GHz je ekvivalent 512GHz jednojádra. Takže výrobci CPU to dají i když intel 10 let přešlapoval na místě s C2Q.

A co je podstatné. Mooreho zákon říká že jeden z parametrů se zdvojnásobí. U disku a RAM to je buď kapacita nebo rychlost. Když to vezmeme na střídačku tak se na těch 18 měsíců dostaneš. Protože nesmíš koukat jen na kapacitu ale i na rychlosti.

U CPU se zvedne buď počet tranzistorů (= počet jader + velikost cache) nebo frekvence nebo efektivita (spotřeba).
Když technologie neumožní zvednout frekvence, tak to výrobci doženou přes IPC a nebo instrukční sady. Nebo zvednou plochu jako Apple. Nebo zvednou spotřebu jako intel.
Ale ten pokrok tam je a Mooreho zákon platí.
Ano, často narazí na limit ale vždy se našla jiná cesta.
Už přes 50 let. Jaký jiný interval než 50 let by jsi chtěl volit?

+1
0
-1
Je komentář přínosný?

No hej, ked sa na to pozerame takto, tak mozno. Ked skombinujeme u CPU 1T vykon, multiT vykon, pocet tranzistorov na jednotku plochy (to je to jedine o com pan Moor v roku 1965 hovoril), spotrebu, frekvencie, latencie, adresovatelny priestor RAM, pomer cena/vykon, pomer spotreba/vykon a dalsich 10 parametrov a pomerov parametrov, tak potom asi hej.

Detto u HDD/RAM kombinovat IOPSy/nahodne pristupy, kontinualny zapis/citanie, pocet tranzistorov na jednotku ploch, spotrebu, frekvencie, kapacitu, pomer cena/vykon, pomer spotreba/vykon ....

Potom by znenie Moorovho zakona mohlo zniet v uzasne volnom duchu:

"v IT sektore je to lespie a lepsie kazde 2 roky"

tak to hej :) to je pravda

+1
0
-1
Je komentář přínosný?

".. Běžný Franta Uživatel je člověk s IQ100 a méně .."
Dovolím si zapochybovat jestli IQ uživatele Samuel je >100.
S jistotou si trougnu prohlásit, že jeho hodnoty EQ a SQ jsou v levé část křivky Gaussova normálního rozdělení.

Na světě jsou stovky a tisíce lidí s IQ>100, kteří používají počítač jako nástroj k tomu, co dělají. A to, jak počítač funguje je nezajímá a /nebo to ke své práci nepotřebují.

+1
0
-1
Je komentář přínosný?

Ano EQ a SQ mám podprůměrné. Tedy <100.
Jak jste z těchto hodnot spočítal moje IQ?

Ano každý člověk má svoje přednosti.
Lidi s velkým EQ a SQ mají můj respekt i když často mají podprůměrné IQ. A právě pro to by neměli rozhodovat o technických věcech.
Jako například kolik VRAM je vhodné pro GPU.
Nebo kdy nastane poledne. Stejně jak já se nesnažím kecat do důchodové reformy.

+1
0
-1
Je komentář přínosný?

@ pietro de: Ano, mas pravdu, ze pocitace umeji zpracovavat vic, nez jen cela binarni cisla. Jen to plati asi uz od pocatku a ne jen poslednich 20 let.

Jsme ve shode, ze nebinarni velikost DDR cipu umoznuje jemnejsi deleni portfolia pameti, odstrani zbytecne velky (hlavne cenovy) skok mezi 16 a 32 GB pametmi a umozni jednoduseji osadit rozumne mnozstvi RAM.

Libi se mi, ze mas ten komentar pekne strukturovany a argumentujes vecne a s konkretnimi cisly. Jen je trochu mimo to tema, o kterem jsem psal.

Nejdriv k pametem. Pri dvoukanalovem radici se 4 pozicemi ram se osazenim kombinace ruznych modulu s binarni velikosti da ziskat nebinarni objem pameti zcela bez problemu uz davno. A pri jednokanslovem zapojeni s vyuzitim 1GB modulu sel udelat i lichy pocet GB. Nebinarni kapacitu jde samozrejme udelat i u grafik, ale bezne se to nedela.

I kdyz podporovane kombinace velikosti modulu jsou omezeny biosem a zrejme i konstrukci pametoveho radice. Tady ale slo o vnitrni konstrukci pametovych cipu a jejich (ne)binarni velikosti.

Stejne tak u disku je dobre nekoukat jen na velikost napsanou na nalepce, ale hlavne na vnitrni konstrukci a jeji vliv na moznou kapacitu.

Je dobre si taky uvedomit, o jakych rychlostech se bavime, protoze to ovlivnuje moznosti technickeho reseni a tedy i snadnost pouziti (ne)binarnich kapacit. Rotacni disky maji stredni pristupovou dobu v jednotkach milisekund, SSD disky o rad mensi a pristupova doba rychlych pameti RAM je 10ns, coz je o 5 radu mene, nez SSD.

Aby byly radice v cipu pameti dostatecne rychle, jsou reseny jako pevne "nadratovana" relativne jednoducha logika. V radicich disku dnes cast funkci zajistuji arm procesory a diky sve rychlosti toho zvladnou docela hodne. Nejen adresovani sektoru, ale treba i premapovani vadnych sektoru na nahradni, nebo konsolidaci uvolneneho mista do ucelenych bloku.

U pevnych disku nebyl technicky duvod k binarnim hodnotam celkove kapacity (temer) nikdy. Kapacita byvala pocitana jako soucin pocet hlavicek x pocet stop x pocet sektoru na stope. I kdyz zpocatku kapacity disku (mozna) binarni byly, protoze radice disku byly udelane pevne nadratovanou logikou a binarnimi citaci.

Kvuli lepsimu vyuziti plochy ploten a dosazeni stejne hustoty dat na cele plotne se zacal pozdeji pouzivat promenny pocet sektoru na stope a preslo se na LBA (Linear Block Array) adresovani sektoru disku. Disk je tedy bran jako souvisla oblast sektoru od 1 do N.

SSD disky se delaly nejdrive z flash pameti s binarni kapacitou a jejich realna kapacita tedy byla binarni. Ale rada ssd disku ma mensi vyzitelnou kapacitu, protoze si vyrobce schovava cast kapacity pro moznost premapovani bloku, ktere kvuli opakovanym prepisum zacinaji byt nespolehlive. Rezervni stopy se nechavaji i u rotacnich disku, jen s mensim objemem, protoze jejich plotny prepisem v podstate nedegraduji.

Potreba zvysit kapacitu i rychlost ssd disku vedla k vyvoji vicekanalovych radicu umoznujicich pouziti vice cipu flash pameti soucasne. A tak mohou z cipu s binarni kapacitou vznikat disky s nebinarni kapacitou.

Protoze pouziti vice flash cipu zvysuje potrebnou plochu i vyrobni naklady disku, zacali vyrobci delat flash pameti ve vice vrstvach v jednom pouzdru.

Zakladni pamet v jedne vrstve ma binarni kapacitu, ale protoze technologie vyroby neumoznuje zvysovat pocet vrstev vzdy na dvojnasobek, je pocet vrstev v pouzdre a tedy i vysledna kapacita nebinarni.

Ono u uvadenim kapacit disku je jeste jedna zvlastnost. Objem dat v pocitacich bylo zvykem udavat v binarnich nasobcich (kB, MB, GB, TB). A tak predpona nasobku znamenala o neco vetsi objem, nez jsme zvykli z dekadickych cisel.

Na zacatku byla kapacita diskova kapacita mala, na skutecne kapacite zalezelo vic nez dnes a tak se uvadela kapacita opravdu v binarnich nasobcich. Kdyz se kapacita zvysila, jeji presna hodnota nebyla tak dulezita a rozdil mezi velikosti binarnich a dekadickych nasobku se zvysili, zacali vyrobci pro uvadeni kapacit disku pouziva misto binarnich dekadicke nasobky. Byl kolem toho trochu poprask a lidi to brali jako podvod, protoze skutecna kapacita byla mensi, nez ta uvadena vyrobcem. Ale zvykli si.

+1
0
-1
Je komentář přínosný?

V počítačové prehistorii (pro mladší ročkínky) resp. v dobách mládí (pro ty starší) se u úložišť (diskety, disky, pásky, ...) uváděla neformátované kapacita a formátovaná kapacita.

Ono se někam musely uložit všechny ty technické informace a CRC součty.

+1
0
-1
Je komentář přínosný?

ono to platilo ozaj iba pred 30 rokmi o paskach ci disketach

dnes bordel prameni z binarnych vs. dekadickych predpon a ci je kapacita myslena binarne alebo dekadicky, hint:

32 GB na HDD je 32 000 000 000 bajtov
32 GB v RAM je 34 359 738 368 bajtov (teda vyse 34 GB), preto su to vlastne GiB a nie GB a oznacenie GB pri RAM je v podstate nespravne, akurat soudruzi u JEDECu to od roku pana 1998 este nepostrehli (odkedy existuju binarne prefixy, prave na rozlisenie takehoto bordelu)

+1
0
-1
Je komentář přínosný?

ne nezvykli:

https://www.alza.sk/seagate-exos-x20-20tb-sata-d6983934.htm#discussionPosts, v diskusii vidime

"opravte si kapacitu disku či uložište, potože spravně by mělo být uvedeno 20 TB = 18,626 GB"
a potom sa "opravil":
"pardon, špatne napsano. ma to byt takhle: 20 000 GB = 18, 626 TB"
proste jedna hovadina za druhou

a pritom skutocnost je takato:
dekadicke prefixy:
20 000 000 000 000 B = 20 000 000 000 kB = 20 000 000 MB = 20 000 GB = 20 TB
binarne prefixy:
20 000 000 000 000 B = 19 531 250 000 kiB = CCA 19 073 486 MiB = CCA 18 626,5 GiB = CCA 18,19 TiB

ktoremu BFU by predsa netrhalo zily keby si kupil 20 TB HDD a Wokienka ukazuju hausnumero 18,19 tzv. "TB", no koho by to nenasralo?

o to viac nasratych bude pri nejakom 50 TB HDD, kde Wokienka ukazu iba 45,47 tzv. "TB", kde v prdeli mam zvysnych 4,5 TB, bude sa pytat 99,99% beznej BFU populacie

+1
0
-1
Je komentář přínosný?

tak i ty DDR5 jdou na trh po kapkách a musí se hledat. Ovšem fungují výtečně. Vzal jsem 2x24GB 5600MT/s a běhají skvěle i na starší Z690, ani nebylo nutné aktualizovat EFI.

+1
0
-1
Je komentář přínosný?

Kolik jste ušetřil proti 2×32GB?

+1
0
-1
Je komentář přínosný?

já měl už předtím 48GB ve 4 modulech a rozhodně to nebylo ideální, frekvence byla jen 4200MT/s stabilně, DDR5 jsou na frekvence o dost citlivější když jsou plné 4 sloty oproti DDR4, na druhém stroji mám také všechny 4 sloty plné a frekvence je stabilní na 3333MT/s.
Šlo mi ale hlavně o kapacitu kdy už pro mě je 32GB na hraně ale 64GB zase zbytečně drahé. Jsou to Corsair takže jsem porovnal stejnou značku a frekvenci, tedy 48GB za 4230,- a 64GB jsou za 5700,-.
Takže na DDR5 doporučují mít osazené jen dva sloty. Blbé ovšem je že se tyhle paměti špatně prodávají. Zkusil jsem nabídnout 16GB 4800 za 1100 a 32GB za 1600 a několik týdnů to visí na aukru i bazoši a prakticky nezájem...

+1
+1
-1
Je komentář přínosný?

OK. 1500Kč je pro někoho už zajímavá částka.
Ale někdo nad tím mávne rukou a vezme 64GB. Lepší než za dva roky dělat další upgrade.

Ten rozdíl se časem zmenšuje.
Na tomhle dojeli 360GB disky. Že se za stejnou cenu dalo koupit 480GB.
S těmito 24GB RAM to dopadne stejně. Jak klesne cena 32GB, tak ztratí smysl.
Menší obraty povedou k horší ceně a bude konec 24GB modulů. Ty 48GB vydrží déle. Než se objeví 64GB moduly.

+1
0
-1
Je komentář přínosný?

netvrdim že by 32GB nestačilo, ale už se to nějak blíží hranici kdy už by to mohlo být nadoraz - a 48GB, tedy +16GB navrch je už slušná rezerva. Za nějaké dva tři roky už bych než 64GB klasiku bral radši 2x48GB.

+1
0
-1
Je komentář přínosný?

Nemýlím-li se, vychází se z toho, že jeden GDDR6 paměťový čip používá vždy 32-bitovou šířku sběrnice. Jestli je příliš složité a "nebinární" vymyslet 24GBit čip, proč např. nelze zúžit sběrnici čipu dejme tomu na 16-bit? Tím by se potom na sběrnici vešlo čipů dvojnásobek a byla by i dvojnásobná kapacita. Nebo hybrid alá GTX 970 :-)

Pamatuji si doby, kdy spousta levných grafických karet byla osazena čipy z obou stran a karty měly na 128-bitové sběrnici 8 čipů. To tam byly nasázené "paralelně" nebo byly užší? To mi hlava nebere.

+1
0
-1
Je komentář přínosný?

Mne zase napadlo, když už ty čipy mají 32bit, osadit tam 4GB+4GB+2GB+2GB (tedy až budou ty 4GB čipy). Ovšem netuším zda to takto paměťový řadič v GPU umí a jak by se to chovalo. Zřejmě je důvod proč to tak nedělají - asi by to bylo jak píšete alá GTX970, v tomto případě by to asi bylo 8GB na 64-bit + 4GB na 64-bit takže prostě strašně nízká propustnost...

+1
0
-1
Je komentář přínosný?

Vždyť něco takového už se dělalo. A byl kolem toho takový shitstorm, že se to dělat přestalo.

+1
+1
-1
Je komentář přínosný?

GTX 550 Ti.

Ale tehdy to ještě prošlo bez většího zájmu, shitstorm byl až u GTX 970, a od té doby už si nikdo mixovat různé kapacity čipů nedovolil.

+1
+2
-1
Je komentář přínosný?

Ale je to škoda, bylo by to nejrychlější řešení. I když by blbečkové měli zase problém pochopit, že 0-8GB jede na 288 GB/s a 8-12GB jede na 144GB/s(aktivní 2 ze 4 řadičů). Furt je to lepší něž 15GB/s u x8 PCIE v4 + zabírání pamětí RAM.
Jinak se pro 12GB na 4x32bit už musí upravovat deska: 4x(2GB+1GB)

+1
0
-1
Je komentář přínosný?

Bylo by to 8 GB na 128bit sběrnici a po zaplnění těchto 8 GB by se ukládaly další 4 GB dat po 64bit sběrnici. Takže by zpomalení nastalo rovněž, jen by karta byla o 4 GB dražší.

+1
+2
-1
Je komentář přínosný?

U starších generací pamětí šlo osadit dva čipy na jednu datovou sběrnici (lišily se jenom adresací). U novějších generací to kvůli vyšší komunikační rychlosti nejde

+1
0
-1
Je komentář přínosný?

Ono to jde, ale je to podstatně složitější na návrh PCB, takže u karet, které nemají opravdu jednoduché PCB s nízkým počtem vrstev to výrazně prodražuje náklady. Používá se to v profi segmentu.

+1
0
-1
Je komentář přínosný?

Pan no-X ví co je profi segment?
Pak nechápu článek, který volá po tom, aby se HW upravil pro potřeby gaming segmentu.

PC se dá používat i na jiné věci, než hraní her.
Ale hold hry hraje každý druhý Čech.
Tak budeme mít zmrzačená PC. Jen pro to aby hráči ušetřili pár korun.

+1
0
-1
Je komentář přínosný?

Nechápu příspěvek. V profi segmentu se clamshell používá běžně a v ceně profi karet se to ztratí. Tam není co řešit. Článek se týká PC grafik, kde je kladen důraz na poměr cena / výkon a zároveň stabilitu FPS.

+1
0
-1
Je komentář přínosný?

V článku:
"neviděli tak důvod v přípravě specifických GDDR6"
Jediný důvod pro přípravu specifických GDDR6 jsou specifické požadavky některých her, kterým 8GB nestačí a víc než 12GB je zbytečný příplatek.

Dříve vývoj HW táhly servery. A tyto super výkonné technologie se časem dostali k nám běžným uživatelům. Buď až zlevnily a nebo v nějaké osekané formě. Ale trh se otočil. Vývoj táhnou herní PC. Hlavně PC grafiky. Jde především o poměr cena / výkon a zároveň stabilitu FPS.

Ale existují uživatelé které stabilita FPS nezajímá. Protože hry nehrají. Vývoj specifických GDDR6 bude stát nějaké peníze.
A zaplatí to spotřebitel. Nechci platit vývoj něčeho co nepoužiji.
Můžeme říct OK. Vývoj jde dvěma směry. Jeden směr je herní a druhý profi použití. Ale tohle je špatně pro oba tábory. Hráče i profíky.
Protože náklady na vývoj zaplatíme dvakrát.
A když si náhodou ve volném čase budu chtít zahrát, tak si budu muset koupit druhou grafiku určenou na hry. Druhou k té mé profi kartě. A obě budou stát 50 000Kč. Zaplatím 100 000 za konfiguraci na kterou stačila karta za 40 000 protože měla společný vývoj. Těch 10 000 jsou náklady na vývoj které se nepodařilo rozpustit mezi hráče a profi uživatele.

+1
0
-1
Je komentář přínosný?

Cpát hrení a profi funkce do jednoho rpoduktu není dobrý nápad.
Názornou ukázkou je Vega.

Rozdělení na herní RDNA a výpočtové CDNA pomohlo oboum větvím.

+1
0
-1
Je komentář přínosný?

Na RDNA vs CDNA jsem si vzpomněl už když jsem to psal.
Ano, argument beru.
(Navíc se tu zrodila třetí větev pro AI.)
Ale herní high-end zdražil.
Nejspíš za to může BTC. Ale ceny se drží nahoře i když BTC padlo.
Co když za zdražením stojí rozdělení trhu?
Protože vývoj je s každou generací náročnější.
A nemůže se rozpustit v lukrativním profi segmentu.

+1
0
-1
Je komentář přínosný?

Ha, okurková sezóna je tady, není o čem psát, tak pojďme mlátit slámu problémů prvního světa. Můj odhad počtu lidí, které REÁLNĚ trápí neexistence 24Gbit GDDR6: lim=0.

+1
0
-1
Je komentář přínosný?

Mimochodem v několika tvých článcích se objevují zmínky o budget PC z firemních repasů, napsal jsi nějaký článek, který by se tím zabýval (výběr, kde, atd. ... ?) Nemám s tím žádnou zkušenost, ale jako PC pro mou mámu a dcerku by to mohlo dostačovat.

+1
0
-1
Je komentář přínosný?

Když se koukám na nabídku (chci AMD Ryzen), tak se žádný slušný stolní do 10K koupit nedá, buď AMD není a nebo je to první generace APU nebo předražený model s bez APU. Když dám dohromady Deskmini X300 s novými komponenty, jsem na podobné ceně s plnou zárukou a komponenty, které si sám vyberu. Něco jsem opomněl, něco mi uniká?

+1
0
-1
Je komentář přínosný?

Je několik možností

1) Toho HW s AMD se prodalo málo
2) Ten HW s AMD lidi ještě pořád používají
3) Zůstatková cen AMD prý padá rychleji než u Intelu a nevyplatí se to prodávat
4) kombinace předchozích

+1
0
-1
Je komentář přínosný?

Na Ryzen v repasu je ještě brzy. Ale něco jako Coffee Lake, případně navíc s nějakým slušným GPU, už ano. Osobně jsem před časem nahazoval 4core APU AMD staré 8 let v ultra-mini-sff (cca 2900kč), nedávno pak Ivy Bridge 3770 (cca 3600Kč plus vlastní SSD a další RAM ze šuplíku). To první funguje přijatelně dobře pro běžný desktop, to druhé je zcela v pohodě pro cokoli, co dělám já.

EDIT: neodpověděl jsem na otázku: nějaký zevrubný výběr jsem nedělal. Tyhle věci typicky beru na gigacomputeru (neb spokojenost), nově jsem zkusil technimax (spokojenost, mají VYNIKAJÍCÍ kvalitu zabalení zásilky, ale bacha na to, že ty velké uvádané ceny jsou bez DPH, s DPH je to malým písmem pod tím :-)).

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.