Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k AMD: Kdybychom Ryzen 9 3950X vyráběli jako monolit, vyšel by více než 2× dráž

Vzhledem k tomu jak velké plochy zabírají GPU, obzvlášť ty výpočetní, kdyby se jim povedlo něco podobného aplikovat i do tohoto světa, určitě by to znamenalo nemalé úspory. No, jsem na to zvědavej, HW se nám posouvá hezky (kromě těch SSD). Bohužel se to samé nedá říct o softwaru :(

+1
+1
-1
Je komentář přínosný?

Jsou tu dva problémy. První je, že u GPU se mezi jednotlivými částmi čipu při renderingu sdílejí (přelévají) řádově větší objemy dat než u CPU. Pokud by se GPU mělo rozdělit, musí se řešit, jak tato data mezi jednotlivými částmi sdílet. V principu by nebyl problém použít datově širší a rychlejší rozhraní, jenže to by si řeklo o řádově více křemíku než u CPU a konzumovalo by řádově více energie než u CPU. Takže by tyto nevýhody ve výsledku převážily nad výhodami. AMD i Nvidia investují a hledají řešení, ale to samo o sobě neříká, kdy přijde, jestli bude mít hmatatelný dopad na situaci na trhu, nebo jestli vůbec přijde. Druhý problém spočívá v tom, že dané řešení musí být transparentní. U procesorů transparentní není, aplikace vždy musí podporovat využití více jader / vláken, jinak čiplety nic nepřinášejí. Ve světě GPU už se ukázalo, že jak není podpora podobných technologií transparentní (viz SLI/CrossFire), nebude fungovat, protože se o ni vývojáři starat nebudou.

+1
0
-1
Je komentář přínosný?

Tak samozřejmě, proto nečekám, že takové řešení bude/bude hned. Datový tok je tam velký, další věc by byla latence (ta by hrála velkou roli u GPU pro hry, u výpočetního řešení by se "zvětšil" buffer, což by mohlo narazit na hranici rentability). Transparentnost, to už veselejší. Nicméně nějaká modularita bude z hlediska budoucnosti asi potřeba, protože hlad po počítání na GPU je nemalý. Je pravda, že výpočty se dají "rozumně" rozložit už v současné době mezi více GPU a tak největší smysl dává takové řešení asi pro grafiky, ale třeba mě v tom vyvedeš z omylu :)

+1
0
-1
Je komentář přínosný?

Pro výpočty lze použít podobné řešení jako u procesorů, takže čipletové výpočetní GPU by nebyl problém již nyní. Problém je, pokud se tam má něco vykreslovat.

+1
+1
-1
Je komentář přínosný?

čiplety dorazí s 8K @ 144Hz.

+1
0
-1
Je komentář přínosný?

U SSD sa to tiez hybe. Spolu s CPU a GPU su tri hlavne veci, kde sa to najviac hybe. Kam by si chcel posuvat SSD? V com ti dnesne SSD nestacia(cenu neratam)?
S tym SW suhlasim.

+1
+3
-1
Je komentář přínosný?

U SSD mě štve to, že před řekněme 10 lety šlo ve spotřebáku ala czc/zelenej zmrd/alfa/... koupit celkem kvalitní SSD, tedy alespoň 1000 přepisů, rychlost, zdroj s kapacitama. Dneska je to prakticky samé TLC s důmyslným cachováním, aby to nevypadalo tak bídně proti "SATA" SSD. Zkrátka a dobře, mimo vyzobávání drobků ze serveroven, co se objeví na ebayi nebo zapadném eshopu nemá běžnej smrtelník šanci sehnat kvalitní disk (mimo optane).

Roste kapacita, cena začala stagnovat, kvalita klesá, tak bych to shrnul. To je v podstatě jedinná komponenta v desktop HW, kde to podle mě stojí za prd (a částečně i naše staré dobré rotující disky).

+1
0
-1
Je komentář přínosný?

Artaeli, za posledních 10 let stoupla kapacita SSD 100x ale počet přepisů klesl jen cca 2,5x tedy je to s životností pořád OK. Navíc vždy si můžeš připlatit za Samsung Pro kde ti výrobce tvých 1000+ přepisů nabídne. Nehledej problém kde není.

+1
+3
-1
Je komentář přínosný?

100× nestoupla, v roce 2011 jsem kupoval krucinála M4 ve 128GB verzi (64, 128, 256 a 512GB verze v 2,5" pouzdru). Endurance je 72TB u 128, 256 a 512GB verze, což je divné, protože logicky by měla růst, u 64GB verze je logicky poloviční, tedy 36TB/20GB/den. To mi vychází na 560 přepisů, u 25nm MLC flashky (mimochodem, je to evidentně dost podhodnocené).

Je rok 2020, do ntb se běžně montují 256GB SSD, v mainstreamu vede 1TB verze, která ale není 12,8GB (jak jsi uvedl, že dneska jsou 100× větší). Počet přepisů u moderních 3D Nand TLC je kolem těch 600 přepisů/buňku, u MLC se uvádí jednotky tisíců, u SLC jsou to desítky až stovky. To už je docela rozdíl, což? (ostatně, o tom co snese SSD víme z wiftova testu - 40GB intel SSD s podobnýma flashkama, tehdy do něj napral 123TB dat, tedy cca 1600 přepisů). Takže druhá nepravda.

Navíc nebavím se jen o přepisech, ale podívej se na DPS takových intel 320 disků, nebo krucinál M550, podívej se, kolik je tam keramik/tantalů a srovnej to s tím, co se osazuje dneska na disky. Zdroj s filtrací, aby to nemělo divoký zvlnění a tj vše. Disky byly chlazení, dneska ty M.2 kartičky nejsou, až se výrobci desek to odhodlali řešit po svém. To mi taktéž nepřijde úplně normální.

Už víme na co narážím? :)

+1
0
-1
Je komentář přínosný?

Takže kapacita šla nahoru 10x a životnost zhruba taky. Zapisuješ 10x víc dat?
Mě prostě nikdy netrápilo, disk jsem nikdy neošoupal ani z 10 %. Buť chcípnul na nFoce řadič nebo morálně zastaral. Jinak ta M4 128GB stála v roce 2011 skoro 5 tisíc.
Pořád se bavíme o spotřební elektronice, je to tak velký odpad, jaký jsou lidé ještě ochotni koupit.

+1
+1
-1
Je komentář přínosný?

V roce 2011 nestála 5k, resp. ne celý, kolem léta spadla na 3k2, za 5k bych to nekoupil ;)
No a když je disk velký, tak na něj logicku zapíšu víc dat. Navíc já ty disky posílám "o počítač" vedle. Upřímně, nebaví mě to opakovat se, ale asi musím...
Mimo to, že s klesající velikostí samotné paměťové buňky a rostoucím počet napěťových hladin klesá počet přepisů (protože se nám ztenčila izolační bariéra samotné buňky, tak konáme i víc přepisů, protože flashka se nezapisuje po bitu, ale po blocíck, které mají minimálně 4kb), ale zhoršuje se i data retention. Ten je u současných TLC krámů - odhaduji, jeden rok, po tom roce, kdy je disk odpojen, může dojít ke změně 1 bitu. MCU ala atmega má data retention interní flash 20 let, čili po 20 letech může dojít ke změně informace, pokud ji tam znovu nenahrajem. Nejde tedy jen o to, že je to větší zmetek v počtu zápisů, ale i schopnosti uchovat informaci.

Zdá se vám 1 rok moc? No, doma mám několik strojů a vzhledem k tomu že se teď staví, zapínám desktop tak jednou za tři měsíce, maximálně. Je doma moc prachu. Nicméně, mám vizi dvou serverů, jeden co pojede furt a bude na internetu, druhej, čistě lokál, na kterém se budou konat maximálně cold storage zálohy a nějakej ten virtuál (síť naprosto mimo internet, fyzicky). A teď si představ, že třeba půlroku budu mít tak málo dat změnených, že to nebude stát za řeč, abych to zálohoval (hodím to třeba jen na nejbližší disky a flashku). A že ten půlrok uteče jako voda. Je to už trochu hraniční případ využití SSD, ale když se podíváme na SAS disky a jejich cenu, tak ani moc ne ;)

Ano, je to spotřebák. A myslím že se shodneme, že spotřebka se nemusí nutně dělat tak sračkově, jak se někdy dělá. A tohle je případ, kdy se to celé ojebalo natolik, až to není vůbec rozumné. Stejně jako telefony, kterej beru jako nejhorší možnou spotřebku a investici vůbec. Věc, která když přežije svoji křehkost, tak pojde na nepodporu softwaru. Problém je, že disky tohle pomalu kopírujou a osobně, já už posledních několik let neupgraduju zásadně disky, protože jsou hlučné nebo pomalé, ale vyměňuji "přetočené" magnetické a doplňuju další SSDčka, takže mě životnost sakra zajímá.

Disky totiž nejsou v současné době v situaci, jako před 20 lety, kdy nemělo velkej smysl provozovat postarší 40GB HDD vedle moderního 500GB. Jednak byl většinou hlučnější, ale určitě žravější a hlavně sakra pomalej. Jenže SSDčka na tohle moc netrpí, mocných 500MB/s, tedy maximálka SATA3 bohatě stačí a není to taková brutalita, jako 13MB/s starého 20GB 5k4 disku proti 130MB/s moderního HDD. Už to prostě není takovej oser. Osobně, já žádné SSD neposlal vyloženě pryč nebo do důchodu, prostě šlo do jiného PC/"serveru", a byl bych rád, kdyby tomu tak bylo i nadále (což nebude, mám jedno 1TB TLC, které je v rámečku ala velká flashka, když pojde, nebude mě to trápit).

+1
0
-1
Je komentář přínosný?

I před těmi 10 lety někteří řešili počet přepisů.

První SSD jsem začal používat v roce 2012, pořád ho mám a pořád funguje.
Je to (tuším) Intel 520 a udávaná životnost je (5 let, 20 GB denně =) 36,5 TBW.

Můj nejnovější SSD je WD Blue s udávanou životností 300 TBW.

Tj. oproti tomu nejstaršímu o řád víc.
Nějak tu klesající kvalitu nevidím.

+1
+1
-1
Je komentář přínosný?

tj hezké, ale nevidím tam kapacitu. Ono je docela rozdíl, jestli budu jezdit porovnám poruchovost dvou aut, ale jedno stálo v garáži a druhé vozilo beton přes celou europu. Druhá věc je, že se dřív endurance dost podhodnocovala. Protože dle intelu by můj i750 (20nm MLC) vydržel méně, než moderní 1xnm TLC disky. Necítíme tam ten rozpor? A kdyby to nestačilo, nahoře jsem se znovu zopakoval, což jsem učinil už v jiné diskuzi jednou.

+1
0
-1
Je komentář přínosný?

Kapacity jsou Intel 120 GB a WD 500 GB.

Čili tam zlepšení je i relativně ke kapacitě, ale připomínám, že TBW relativně ke kapacitě je vcelku nesmyslná hodnota.

Větší disk neznamená, že budu od rána do večera kopírovat soubory sem a tam.

„Protože dle intelu by můj i750 (20nm MLC) vydržel méně, než moderní 1xnm TLC disky. Necítíme tam ten rozpor? “

Ne, vždyť to je jen oficiální potvrzení toho, co říkám já.
Prostě moderní SSD mají delší životnost (i díky tomu, že jsou větší).

+1
0
-1
Je komentář přínosný?

Prosil bych o nevytrhávání z kontextu, děkuji. Rozporujete fyziku. Viz. komentáře výše, životnost buňky ovlivňuje šířka/tloušťka dielektrika/izolantu. Čím menší proces (čili menší struktura), tím se zákonitě musí i zmenšit šířka izolační bariéry. Ta bariéra se s každým zápisem opotřebovává a klesá ji odpor, takže už neplní svůj účel tak dobře, jako když je struktura nová. No a čím více nám klesá odpor, tím více se projevuje přirozené "vybíjení", tedy svod do jiných struktur a náboj se vytrácí, což je velkej problém. Proč?

Protože TLC má 3 bity, tedy 2^3 = 8 napěťových úrovní, kdežto MLC je pouze 2^2, tedy 4 napěťové úrovně. SLC má samozřejmě napěťové úrovně jen dvě. V životě není nic 100% (kromě smrti teda) a pokud si vezmeme na paškál dvoustavovou 5V logiku (tzn. TTL, nebo 5V CMOS), tak Log1, tedy H je brán jako 5 - 2V, 2-1,5V je zakázaný stav a pod 1,5V máme Log0, tedy L. Čím máme menší napětí a čím je více napěťových úrovní k rozlišení, tím hůře se nám rozpoznává logická úroveň a zároveň tím rychleji dojde v případě horších vlastností izolační bariéry k "vyřazení" dané buňky, protože neudrží informaci dostatečně dlouho a dochází pak ke změně informace. Chápeme? Tohle je prosím fyzika, nevymýšlím si tu žádné bludy. Prostě čím více logických stavů a čím je tenčí ta izolační vrstva, tím rychleji dochází k chybám a tedy je potřeba snížit pomyslené číslo přepisů buňky.

Co tohle u novějších disků kompenzuje? Lepší logika, která je schopna lépe opravovat chyby (ke kterým docházelo všude, ale s rostoucí miniaturizací to roste). Nicméně nevyčaruje nám tisíce až statisíce přepisů jako u MLC a SLC. Stejně jako nám lepší logika nevyčaruje rychlejší TLC čipy. Je to fyzikálně nemožné. A jestliže začnete popírat fyziku, tak už fakt není žádná smysluplná diskuze možná.

Ano, rychlost umíme ohnout cachováním, jenže buď máme dynamickou SLC cache, čili zapisujeme furt do té samé flashky, ale rychleji a s vyšší výdrží (proč asi sakra? Protože nerozlišujeme tolik úrovní a logicky nemusíme tak precizně nastavovat i číst hodnoty, protože ta tolerance mezi Log1 a Log0 jsou doslova obří = nepodporuje to náhodou moje tvrzení výše?). Nicméně jakmile dojde k zápisu do "TLC buněk", rychlost spadne, analogicky.

Zajímalo by mě, jak může mít větší SSD na stejném procesu a se stejnou logikou (součástkama) mít vyšší životnost. Takové SSD musí mít zákonitě stejný počet přepisů, takže TBW vzrostou, to ano, protože nám vzrostla kapacita SSD. Jenže pokud budeme pracovat s násobně více daty než u menšího disku, tak jsme furt na stejných číslech. Co je na tomhle k nepochopení? Ano, když budu potřebavat přenášet 200L vody a budu to tahat 5L hrncem a budu ho plnit po okraj, tak logicky ho ošoupu víc a mnohem víc se nachodím, než když vezmu 20L hrnec, který budu taktéž plnit po okraj. Žádná energie se nám nikam neztratí, žádný blackbox neexistuje, stejně jako neexistuje žádná magická formule, co by to záhadně vylepšila. Pokud si to nemyslíte, opět, rozporujete s fyzikou.

Víc už k tomu fakt nedokážu říct, aby to bylo zřetelné a jasné. Jinak vrstvené čipy nám pomohly v tom smyslu, že zřejmě zvětšili izolační bariéru, ale furt tu máme problém s počtem logických úrovní, takže i kdyby se dostali na úroveň MLC nebo SLC čipů (šířkou té bariéry), pořád bude docházet k minimálně 2-3× většímu opotřebení, tedy nové disky opravdu nemají více přepisů než ty staré. A ostatně, wift to dokázal v REÁLNÉM testu. Moderní disky nikdo takhle netrápí (resp. nečetl jsem to a upřímně mě to ani moc nezajímá, protože vedlejší efekt je právě ta pomalost, už i kvůli tomu mě takové disky tolik nezajímají).

A poslední věc je data retention. Tady to nemusím sáhodlouze rozepisovat, rychlejší "vybíjení" náboje jsem popsal výše, takže je logické, že se informace s časem poškodí daleko rychleji u TLC čipu než u MLC nebo SLC. Ledaže by jste mi byl schopný tvrdit, že se voda ze zavřeného hrnce vypaří rychleji než z otevřeného, za předpokladu identických podmínek a teploty.

Kdyby přišli se super technologií a flashky v TLC režimu byly rychlejší, nějak se jim podařilo vyrobit superizolant a náboj se s časem nevytrácel, tleskal bych... a samozřejmě srazit i cenu. Bohužel se tak neděje a současná elektronika má zkrátka své limity a lze si tak pouze vybrat mezi rychlostí a výdrží na úkor kapacity a naopak, vůči jednotné ceně samozřejmě.

+1
0
-1
Je komentář přínosný?

Artaeli, pointa ostatních byla v tom, že SSD je dneska tak levné spotřební zboží, že dneska bežného člověka nemusí životnost celého disku (jak morální tak fyzickou) vůbec trápit a ani to nemusí tak řešit že by četl např. takhle dlouhej tvůj koment o životnosti buněk. A to je rozhodně krok kupředu.

+1
0
-1
Je komentář přínosný?

Tak na to mám nahlížet jako na těžkej spotřebák, tak ano. Po dobu morální životnosti mainstreamu to BFU nezlikviduje. Jenže pak se mi nelíbí, že z mého pohledu se mi zužil výběr. Do mého PC jsou akceptovatelné disky typu Optane nebo 970 Pro, problém je, že Optane je logicky nechutně drahej (je dražší jak i750 v době vydání) a M.2 kartičky nemusím, protože je problém s jejich chlazením. Celkově mi je mimo "mobil" tenhle formát proti srsti.

Jenže obávám se toho, že vzhledem k pomalosti nasazení QLC a opravdu velkého poklesu životnosti takového disku, bude mainstream na TLC a je otázkou, jak dlouho výrobcům bude dařit vrstvit čipy. Protože to, co přijde potom, bude možná i pro mainstream málo. Píšu záměrně možná, proto jsem pesimistou :)

+1
0
-1
Je komentář přínosný?

Já to taky právě řešil taky kdysi, u svého prvního systémového SSD. Koupil jsem Intel 520 120GB SATA, vybíral jsem podle předpokládané životnosti a záruky. Na disk jsem měl záruku 5 let, dneska po 6,5 letech (PC i SSD jelo něco přes 3 roky nonstop) a pravidelná zaplněnost okolo 85%, jen 31 TBW, health píše 99%. Tím pádem mě přestala jakákoli životnost buňek zajímat a zajímám se o disk jako celek. (např. za tu dobu mi odešly 3 SSD ADATA a jedna flashka ADATA. SSD byly MLC i TLC, většinou max. 1 rok staré - takže tady je jasno co už nekupuju)

+1
0
-1
Je komentář přínosný?

Já mám wear většinou do 10%, jenže jak jsem psal výše, izolace se zhoršuje a disk posléza začně rychleji zapomínat. A vzhledem k tomu že občas tu a tam nějakej disk odpočívá skoro rok.. :)

K ADATA, snažím se tomu vyhnout, ale v jednom stroji na kterém příliš nezáleží je. Občas se náhle odpojil, zabilo to podle mě celé sata rozhraní, po resetu vždy OK. Problém byl, že cokoli nacachovaného v cache disku se neuložilo. Už se to tu řešilo v jiném vlákně. Klidně i den (víc jsem sám nezkoušel) drží v DRAM cache nějaké data a ty se poté neuloží, nehezké.

+1
0
-1
Je komentář přínosný?

„ Jenže pokud budeme pracovat s násobně více daty než u menšího disku, tak jsme furt na stejných číslech. Co je na tomhle k nepochopení?“

No, tady jste zjevně Vy nepochopil, že podstatné není množství dat, ale množství zápisů, které neroste stejnou rychlostí jako množství dat.

Příklad: Budu na disk ukládat fotky, každý den zhruba stejný objem dat. V den A zaplním polovinu disku, pak v den B celý disk a koupím si 2x větší.
Budu mít 2x větší disk, na něm 2x víc dat, ale objem zápisů je pořád stejný (až na jednorázový přesun dat na nový disk).

Samozřejmě i množství zapsaných dat postupně roste, ale u běžného uživatele mnohem pomaleji než kapacita disků, protože spousta dat (fotky, filmy, většina souborů aplikací) se zapíše jednou a pak se už jen čtou.

Jinak jedna buňka může mít nižší počet přepisů, ale z pohledu uživatele mě zajímá životnost disku jako celku.
Nižší životnost jedné buňky se vyváží prostě tím, že na ní není potřeba zapisovat tak často (protože větší kapacita).
Kromě toho si větší disk může dovolit i větší cache.
(Navíc na větším disku budu nejspíš mít i víc neobsazeného místa, takže má optimalizační software větší prostor na práci.)

+1
0
-1
Je komentář přínosný?

Vycházím z toho, že uživatel bude na disku pravidelně ukládat a mazat. V případě ležáku TLC vydrží večnost, akorát se občas tu a tam "občerství" informace, právě vlivem odsávání náboje (teda doufám že to disky interně hlídají). Já se nepovažuju za velkého "stahovače", nebo hráče, co má na stroji 10 50GB her a podobně, ale přesto, jsem po koupi dalších disků a navýšení kapacity s rezervou 1TB zaplnil i tu.

Spousta BFU taktéž zafláká disk opravdu hodně a pak se musí neustále přepisovat to málo, co zbylo, čímž nám rostou právě ty přepisy, proto na datech záleží (tohle je už slovíčkaření).

Tu a tam jsem měl možnost nahlédnout někomu na jeho stroj, když se řešil problém, stejně jako jsem dělal servisáka/technika. Neviděl jsem celou planetu, nejsem bůh a já nevím co, ale moje praxe je taková, že SSDčka jsou "vždy malá" a často zaflákaná. Dokonce si i pamatuju docela ojetýho samsunga evo (číslo neřeknu, ale wear level byl docela nízko - ve smyslu zbývajících přepisů) s tím, že uživatel tvrdil, že ho má necelé dva roky (a byl samozřejmě zaflákanej).

Životnost disku je v podstatě taková, dokud stačí životnost flashek a neselže řadič. Problémové řadiče LSI - SandForce jsou doufám za zenitem a zatím jsem nenarazil na moderní mrtvé SSD (což je fajn). Tolik by ten disk měl reálně vydržet. Individuální životnost jedné buňky je důležitá, protože řadič a FW disku se stará o to, aby měly všechny rovnoměřný počet přepisů. Čili hypoteticky, pokud by jedna měla umřít, měly by umřít všechny. Vynutit přepis jedné buňky v podstatě ani nelze, protože bude neustále docházet k přesunům dat na disku tak, aby k tomu nedošlo.

Větší cache samozřejmě pomáhá, ale teď je důležité, co tu cache tvoří. Jestli je to DRAM, tak tam není co řešit. Pokud je ovšem pouze tzv. slc-cache, pak i ta má určitou životnost a hlavně je tvořena nevyužitou částí disku, čili pokud zaflákáme disk, cache je malá a aby byla k dispozici, opět se konají přesuny dat interně, bez vědomí uživatele, což určitě víš a to víc nechápu, proč tam pak řešíš tu životnost jedné buňky.

Reálný stav je takový, že současné TLC disky jsou takovými zvláštními hybridy. Musí mít cache, jakoukoliv, jinak jsou pomalejší než "stará generace" SATA disků. Reálně ale tak pomalé nejsou, protože ty cache mají (jak DRAM, tak SLC, která se dynamicky "vyrábí" na TLC buňkách). Je to levné a BFU to stačí, jenže principiálně je to šílenost a jakmile se k tomu někdo bude chovat jinak, tak to opravdu vyčerpá (ty přepisy). Někdo namítne, je tu Optane. Samozřejmě že je, jenže pak to nabourává zřejmě vaší (nebo někoho jiného, už nevím) myšlenku, že současné SSD jsou lepší než ty předchozí generace. A to byl začátek našeho sporu.

Čili současné disky nejsou lepší, než ty staré. Mají nižší počet přepisů, horší vlastnosti ve smyslu (a nejen uvedených) udržení informace a náchylnosti na pokles rychlosti (cache). A za tím si zkrátka stojím :)

+1
0
-1
Je komentář přínosný?

Nová SSD mají horší data retention time, to je nezpochybnitelné. Co se týká rychlosti, tak to není tak jednoznačné - moderní TLC je i s vyřazenou cache rychlejší než 10 let staré SSD (ať srovnáváme stejné výrobce - třeba 512GB M4 dá zápis max 275MB/s, 500GB MX500 záčíná na tom co SATA 3 dovolí neboli něco nad 500MB/s a po zaplnění cache jde na 400MB/s, NVMe ani nezmiňuji, tam jsou kvalitní TLC při zaplnění cache na rychlosti kolem 1GB/s). S životností to taky není úplně pravda, když vezmu zase ty Crucialy, 512GB M4 má dle datasheetu 72TBW a 500GB MX500 má 180TBW. Pokud se na to podívám z pohledu uživatele a při běžném způsobu používání, tak moderní SSD se chovají líp než ta stará (nemluvě o tom, že dnešní SSD mají poruchovost pod 1%, o čemž jsme si před 10 lety mohli jenom nechat zdát)

+1
0
-1
Je komentář přínosný?

Samozřejmě, že i větší disk je možné zaflákat. Ale, ještě jednou, problém není objem dat, ale počet zápisů.

Třeba na 500GB disk nahrát 500 GB filmů a pak na ně koukat není pro životnost SSD problém.

Problém by mohl být, kdybych mě větší disk vedl k tomu, že místo 1 filmu si za stejnou dobu stáhnu 10 filmů.
A já tvrdím, že tohle většina uživatelů nedělá, větší kapacita SSD není důvod razantně navýšit objem ukládaných dat za den.

Což se ostatně dá ověřit podle SMART, třeba mně vychází poměr zápisů na rok pro ten starý 120GB a ten 500GB disk prakticky stejný.
Mimochodem asi 1,4 TB/rok, čili dosavadním tempem zbývají tomu 120GB disku zápisy ještě na ~18 let a tomu 500GB na víc než 200 let :-).

Takže bych řekl, že alespoň pro domácí uživatele netřeba počet přepisů SSD řešit.

+1
0
-1
Je komentář přínosný?

A tak já jsem na tom podobně, opotřebení po x letech do 5-10%, ročně zapíšu tak 3TB na ten 400GB i750, teď ještě méně, když u toho prakticky nesedím. O to víc mě pak zajímá data retention. Tyhle MLC potvory vydrží tisíce přepisů, o tom si iluze nedělám, navíc věřím i tomu, že jsou schopni uměle zkrouhnout DWPD, aby dražší enterprise modely vypadali podstatně lépe (mám v tom desktopu i disky typu 2-3 DWPD).

Jenže problém QLC je, že má pod 200 přepisů, myslím že ty první dokonce pod 100 (kolem 60 nebo 70), a to už je podle mě fakt málo a hrozí, že to někdo do záruky "ojede". Já, jakožto nestahovač, pokud mám na 400GB disku ročně cca 2-3TB, tak pokud to extrapoluji na 1TB oddíl, tak jsme na až 6TB/rok, čili 10 let a ámen. A to se bavím opravdu o případu extrémně nenáročného člověka v množství zapsaných dat, bez swapu (ten je fakt vypnutej na tej mašině) a bez hiberfilu (zaplácne to místo a stejně to nepoužívám, nemluvě o době, jak dlouho by se celá ram ukládala i na nvme disk).

A opravdu znám jedince, co dokázala ojet nějakého samsunga evo po pár let, takže určitě to nebude každej, kdo na to narazí, ale myslím že se to bude stávat a jestli se bude razit cesta QLC buňkama, tak je možné, že i BFU si toho všimnou (navíc bych se obával, že dřív než samotné umření disku bude doprovázeno pomalostí a snahou obnovit "zapomenuté" bity).

Nicméně to řešíme jen ty přepisy. Doprovodným efektem je horší rychlost mimo cache, což už cítit je. To je ostatně další důvod, proč upřednostním starší disk. Jinak mimochodem, ty Crucinály M4 byly v zápisu pomalejší z důvodu, že řadiče marvell neuměli kompresi dat, což SandForce od LSI uměli (jen jsou extrémně nespolehlivé). Proto sice vytáhl ve čtení docela hezké čísla, ale v zápisu to bylo kolem 200MB/s. Samozřejmě, ty flashky měli pomalejší OnFi rozhraní, které časem také zrychlovalo a takové M550 bych nazval "hi-endem" SATA SSD (popř. ještě M600, ale ty už neměli takové "průmyslové" kvality). Pak se začalo škudlit, cpali tam TLC flashky, vymyslely se SSD bez DRAM, byly úplně bez cache a rovnou se to rvalo do flashek, případně se cachovalo do RAM počítače. Brrr.

PS: teď jsem se podíval, intel 660p 200 přepisů ofiko.

+1
0
-1
Je komentář přínosný?

Je bych to viděl na skleněné krystaly. Dájí se v tom uchovávat data i energie, obojí ve značném množství...
Viděl jsem to v nějakým sci-fi ;)
//ehm, sorry, nedalo mi to, asi moc vtipný kaše k snídani...

+1
+1
-1
Je komentář přínosný?

Hele a víš že skleněněj krystal je blbost bo sklo je amorfní materiál žejo :0)
Nicméně nějaké projekty, jak ukádat data přímo do krystalické mřížky materiálu by z hlediska kapacity neškodily jen mi není jasné co by tam kdo chtěl ukládat, pokud by totiž do té mřížky úmyslně vkládal poruchy tak by to asi nebylo moc stabilní.

+1
+2
-1
Je komentář přínosný?

Bezva clanek, proto asi u APU Renoir AMD zvolilo polovicni L3 cache, cimz udrzeli velikost pod kontrolou a nepridavali dalsi CU jednotky pro Vegu, ale jen zvedli efektivitu a upravili ji.

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.