Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k První generace HAMR disků Seagate nabídne jen 4TB kapacitu

Jen tak zběžně nejsem bohužel z oboru, připomíná mi to způsob zápisu u magnetooptických disků. Tam se zrovna tak ohřívá kolem 200°C, podle toho jaký materiál a pak se zapíše em polem. Takto "zamrzlá" informace by měla vydržet i dost nepříznivé vnější vlivy. Ale i magnetooptické disky měli vadné sektory. Nepsali tam něco o životnosti, myslím tím porovnání počtu přepisů vůči klasickým pevným diskům?
A krom toho mě napadá. Opotřebení hlavičky by mohli zmenšit zvolením vhodného materiálu pro plotnu, případně vrstvu, která by měla menší Curriovu teplotu, při které je citlivá na magnetizaci, ale to tam místní chlapi asi ví .)

+1
+5
-1
Je komentář přínosný?

Ono to nepřipomíná, ono to tak je. HAMR/TAMR prostě JE magnetooptika, jen v miniaturním provedení. Rozdíl je v jednom detailu: v magnetooptice se data čtou laserem, v HDD to vypadá, že zůstane čtecím elementem hlava detekující kolem ní prolétající magnety.

+1
+2
-1
Je komentář přínosný?

Já můžu konstatovat jediné: staré U320 SCSI disky (kapacity 18-146GB, rychlosti 10K a 15K) mi dožívají teprve teď, po cca 8-12 letech služby. Samozřejmě, čas od času některý umřel, typicky ještě v záruce (tj. do 3 let od nákupu), ale pak byla doba těch cca 6-10 let, kdy jely "furt" a bez jediného výpadku. Až nyní začínají odcházet do křemíkového nebe.

Oproti tomu vše nad kapacitu 300GB (dnes vše SAS), tj. 600, 900GB se mi jeví jako hodně nestálé, pohled na vadné/vylágrované bloky, které musí řešit řadič je celkem tristní. Dřív vadný blok zamenal pro disk hru "ten musí jít z kola ven", dnes se označí vadný blok a jede se dál. Že to i tak chcípá a data nejdou "najednou" přečíst a musí se vzít z kopie nebo dopočítat, na to jsem si ještě nestačil zvyknout a mám z toho hodně rozporuplné pocity. :-)

+1
+12
-1
Je komentář přínosný?

No hlavne je dnes zivotnost disku umerna read/write aktivite, takze je fakticky jako SSD - ctenim/zapisem se opotrebovava. Jestli vas zajima proc, tak si dejte do googlu "why specify workload", vyhodi vam to PDFko od westernu. Zkracena verze je, ze kdysi hlavicky drzeli konstatni vzdalenost od povrchu, dnes je promenliva - >10nm pri seeku a pri read/write se priblizi na 1-2nm...

+1
+15
-1
Je komentář přínosný?

Pěkné počtení. Škoda že tyhle informace člověk nemá běžně k ruce :)

+1
+8
-1
Je komentář přínosný?

ono to snad už ani není mechanikou (mám 2,5" HDD co běžel 5 roků a ustavičně parkoval hlavy, až mu SMART stáhl mechanickou odolnost na nulu, ale i tak funguje.

Co je problém: velikost/plocha a vůbec počet magnetických domén použitých pro záznam jednoho bitu. On ten problém totiž přetrvává i u HDD, stejně jako se projevuje u zmenšujícího se NAND flash.

+1
-4
-1
Je komentář přínosný?

Tak jsem si to PDF přečetl, a bylo to psáno dosti jinak. Čím blíže jsou hlavičky k disku, tím větší je pravdědpobnost, že škrábnou disk. Za normálních okolností jsou hlavičky >10nm nad diskem, při čtení/zápisu se přibližují na 1–2nm. V prvním případě je pravděpodobnost škrábnutí disku menší, ve druhém větší.

Protože každé škrábnutí disku znamená neopravitelnou chybu, pak počet chyb je úměrný délce času strávené čtením/zápisem × pravdědpobnost škrábnutí disku. Jsou.li hlavičky v jiném režimu výše nad diskem, škrábnou disk a vyrobit chybu mohou také, ale s výrazně menší pravdědpobností.

Nicméně z toho nevyplývá, že počet chyb je úměrný přeneseným datům při čtení/zápisu, protože daný odvozený vzorec neukazuje lineární závislost. Pro daný případ, který zmiňovali a po zjištění parametrů rovnic metodou nejměnších čtverců jim vyšlo: Přenesete-li nějaký objem dat, vyjde z toho chybovost hard disku nějaká. Přenesete-li 10 × tolik dat, pak chybovost disků se zvýší jen asi 3,9 ×.

Tedy čtením/zápisem hard disků se disk neopotřebovává, pouze se hlavičky dostanou blíže k plotně a roste riziko poškrábání plotny hlavou, a to buď při elektronice, která nedokáže dobře udržet patřičnou směrodatnou odchylku v chybách nastavení vzdálenosti hlavičky nebo pokud do disku kopete. Přenesete-li málo dat za rok, toto riziko je větší, než když budete číst/zapisovat jako blázni obrovské toky dat. Není tu tedy přímá úměra, je to přibižně exponenciální funkce s exponentem menším než jedna.

Workload je udáván proto, že se proloží dvě křivky: první je závislost MBTF na datovém toku, druhá je co chtějí mít v datasheetu disku za hodnotu MBTF.

Když budete disk intenzívně používat, dostanete se na mnohonásobky udávané životnosti disku v jednotce přenesených dat. Když budete disk používat málo, dostatnete se klidně mnohem níže. Čím více se hard disk fláká, tím rychleji odejde po menším počtu načtených/zapsaných terabajtů. Je tedy vidět, že závislost je opačná než u SSD – silně zatížené SSD odchází rychleji, než málo zatížené. Hard disku evidentně zátěž svědčí a prodlužuje jeho životnost a zvyšuje spolehlivost.

---

Naučil jsem se číst originální zdroje i původní vědecké práce. Je to docela dobrá prevence proti „tiché poště“ a bludům vzniklým ze zjednodušování a předávání mezi lidem.

+1
+1
-1
Je komentář přínosný?

Toz ... nuze ... drviva vacsina beznej masy zije v sladkej nevedomosti o tomto svete. Svet sa riadi vacsinou nepriamymi umerami a nie priamymi umerami, aj ked to sprvu pripada divne.
y = 1/x, resp. vo vseobecnosti y = k/x je k je konstanta je rovnicka nepriamej umery jak ju pozname zo skoly, resp. inak xy=k (teda sucin dvoch velicin je k). Tu za pozornost stoji odstavec B)

A) zoberme si rychlost zaznamoveho media (latencie ci kontinualka) a jeho kapacitu:

1) registre CPU, latencia 1-2 CPU cykly (zlomok ns), rychlost jednotky TB/s, alebo aj viac, kapacita radovo 100 B ci 1 kB
2) L1 cache CPU, dnesne CPU maju taky rychly cache system, ze pred 15 rokmi by sme z toho odpadli, latencia 3-4 cykly (zlomok ns), kontinualne rychlost citanie/zapis radovo stovky GB/s (najnovsie L1 cache Intelu maju kontinualky az 1 TB/s !!!) a kapacita zopar 10 ci zopar 100 kB
3a) L2 cache CPU, latencia 10-12-14 cyklov CPU (cca 10 ns), kontinualny pristup stale aj stovky GB/s, latencia desiatky cyklov CPU (cca 30-50), kapacity radovo MB
3b) L3 cache CPU, latencia desiatky cyklov CPU (stovky ns), kontinualny pristup stale okolo 100 GB/s (ale uz sa v pomalosti blizi k rychosti RAM), latencia desiatky cyklov CPU (cca 30-50), kapacity radovo MB ci 10 MB
4) RAM, latencia tisice CPU cyklov (radovo cca 50-100 ns), kontinulany pristup 1 - 30 GB/s od suchej single channel 266 MHz DDR2 po tripple/quad channel DDR4 3200 MHz, kapacita radovo GB ci desiatky GB
5) SSD, latencia statisice CPU cyklov (radovo cca 0,1 mikrosek), kontinualny pristup radovo 100 az 1000 MB/s (30 MB prve SSD az 550 MB/s posledne bezne SSD), kapacita radovo niekolko 100 GB
6) HDD, latencia miliony/desiatky milionov cyklov CPU (radovo 10 milisek), kontinualny pristup radovo 100 MB/s (od 20 MB/s pri suchom 60-80 GB modeli spred 10. rokov po 150-170 MB/s dnesnych diskov), kapacity radovo jednotky TB
7) zalohovacia paska, latencia miliadry/desiatky miliard cyklov CPU (az niekolko desiatok sekund! sa musi pretacat), kontinualny pristup radovo 100 MB/s, kapacity radovo TB, ci az desiatky TB

Krasna nepriama umernost: cim vacsia kapacita, tym nizsie rychlosti (pristupove doby aj kontinualne) a naopak.

B) mnozstvo informacia a ich trvacnost:

Vztah nie je samozrejme uplne presny (napr. linearny ci logaritmicky), avsak korelacny koeficient je prilis velky aby sme ho ignorovali. Cim viac informacii na mediu, tym ma mensiu zivotnost, plati to od napisov v kameni z cias stareho egypta spred 3 tisicroci pred Kristom (mnozstvo informacii radovo 1 kB, trvacnost radovo 10000 rokov) ci papyrusove zvitky az po heliove ci sindlove 8-10 TB HDD. Do minulosti by sme dokonca mohli ist az po zaznam cisel do vestickej vrublovky (kost vlka spred 35 tisic rokov, kde su zaznacene prirodzene cisla do 20 ako zarezy). Vsetka cest niektorym diamantovym super-hyper trvacnym DVD, ktore sa snazia vytrcat od regresnej priamky.

A opat krasna nepriama umernost: cim vacsia kapacita tym mensia trvacnost a naopak. Data na 10 TB disku iste nevydrzia 35 tisic rokov, ani 5 tisic, ani tisic, ani 100 ... aj keby sme sa ohno starali jak o oko v hlave. A data na takom disku volne pohodeneho v prirode (pretoze tie vytesane napisy v kameni volne pohodene v prirode su) tak data na disku nepreziju asi ani jeden rok.

C) mnozstvo informacii a orientacia/vyhladavanie novych/filtrovanie informacii:

Ich sucinom moze vzniknut nieco ako "efektivita spracovavania a narabania s informaciami" a sucin tychto velicin je cca radovo konstantny (opat vsak len fuzzy priblizne), t.j. ked sa jedna velicina zvacsi (napr. mnozstvo informacii), druha sa zmensi (schopnost orientacie/vyhladavania/filtrovania novych informacii) no a opacne. Nech zije Google, ktory chvalabohu "kazi" toto pravidlo a vytrca mimo regresnej priamky.

D) ze by sme zabrdli do kvantovej mechaniky, podla ktorej urcit zaroven presnu polohu a presnu hybnost subatomarnych casti je nemozne? Akoze nam to vyzera princip neurcitosti zapisany rovnickou: (detla_d)*(delta_p) > 2*pi*h .. t.j. nepresnost v urceni polohy KRAT nepresnost v urceni hybnosti je vzdy vacsia ako konstanca 2*pi*h (kde h je planckova konstanta) ... zasa sucin dvoch vecilin: nepresnost v urceni polohy a nepresnost v urceni hybnosti. Chvala panu bohu (ci inej nadprirodzenej entite), ze planckova konstanta je tak mala, inak by boli kvantovo-mechenicke prejavy na poriadku dna aj v makroskopickych meritkach.

E) sucin univerzalnosti stroja a jeho spotreby (resp. ak chceme tak aj efektivity v opacnom zmysle) je opat fuzzy konstantny. Cim viac univerzalny stroj/suciastka, tym mensia efektivita a vyssia spotreba. CPU moze mat sice spotrebu 125-130 W (ak ide naplno), ale zato je sakramentsky univerzalny, ze by sa Turing v hrobe obracal. GPU moze mat sice efektivitu 50x vacsiu, ale zato nie vsade, iba pri grafickych operaciach, resp. customizovanych GPGPU vypoctoch, ktore sa nam krkolomne podarilo optimalizovat rozchodit, ale Total Commander ci OS si na GPU nespustim. Moze existovat super-hyper hardverovo specializovany cip s este 100x lepsou efektivitou oproti VGA (spotreba 0,01 W na GFLOP), ale taky cip vie robit len jednu jedinu konktretnu ulohu/vypocet ci triedu uloh (napr. akcelerovat multimedia konkretnymi kodekmi ci akcelerovat patricne kryptograficke algoritmy pri tazeni *coinov) a okrem toho bez prepacenia nevie ani hovno (lebo ani OS na nom nenabootoje).

+1
+14
-1
Je komentář přínosný?

Stláskal jste páté přes deváté a hodinky s holínkami.

Pokud vyrobíte rychlé úložiště, obvykle na něho jako obchodníci uvalíte mastnou cenu za jednotku kapacity. A na trhu se objevují menší kapacity, protože větší si lidé nemohou dovolit.

Pokud vyrobíte pomalé úložiště, pak vám nezbyde, než ho prodávat levně a tusíž si lidé budou kupovat úložiště s vysokými kapacitami.

Jinak řečeno, úložiště ani náhodou nesplňují vaše A, B, C. Pouze v mainstreamu se udrží určitá modelová řada pro různé účely použití díky neviditelné ruce trhu. Řada dalších úložišť pak vyvrací vaše A, B, C, jen nemají masová použití.

A to nemluvím o vašem použití Heisenbergovy relace neurčitosti, protože to je pouze fyzikální mez, ke které jsme se ani zdaleka nepřiblížili, takže nepřesnosti jsou dány zcela jinými příčinami.

Ad E) Dnešní procesor s TDP = 100 W je mnohem univerzálnější součástkou, než starý ENIAC, který potřeboval celou elektrárnu jen pro sebe. Tedy opět jste netrefil zákonitost.

+1
-1
-1
Je komentář přínosný?

Myslim ze pate cez devate tu splieta niekto iny. Pisal som o

- kapacita vs. rychlost ulozista
- kapacita vs. trvanliovst ulozenych dat

Kde som pisal o kapacita vs. cena ulozista? Tam mimochodom ziadna priama ani nepriama umera neplati, plati ina zakonitost graficky znazornena ako nesumerny obrateny zvon, ked velmi male kapacity (v prepocte na jednotku kapacity) su ovelaaa drahsie jak stredne velke a najvacsie kapacity su o trocha drahsie jak stredne velke kapacity.

Bolo by dobre si uvedomit, preco neexistuje uloziste s kapacitou napr. 100 PB (petabajtov), kontinualkou 100 TB/s, nahodnym pristupom 10 bilionov IOPS, cenou tisic €, spotrebou 100 W pri zapise, nonvolatilne, s trvacnostou ulozenych dat 100 000 rokov. Preto ze by stalo sto miliard €, alebo preto, ze to jednoducho dnes nedokazeme vyrobit, ak niekedy vobec?

Ohladne Heisenbergovy relace neurčitosti asbolutne nechapem co mate na mysli. Daaaaaaaaaaaaaaaaaaaavno vieme odsledovat jeden jediny foton, jeden jediny elektoron, sledovat a previest tak dvojstrbinovy experiment, takze nechapem aka "teoreticka mez, ku ktorej sme sa nepriblizili". Ak vam to este nikto nepovedal, nas problem je PRESNE OPACNY! Pri vyrobe cipov sa NECHTIAC ku kvantovo-mechanickym nezelanym efektom priblizujeme. Nechtiac!

Kvantovo-mechanicke podivne spravanie sa je typicke je pre velmi male/lahke veci (elementarne castice ci cele atomy ci dokonca jednoduchsie molekuly) a cim vacsie/tazsie objekty, tym viac su kvantovo-mechanicke podivnosti potlacane, resp. menej pravdepodobne. Uz daaaaaaaaaaaaavno bol robeny dvojstbinovy experiment s celymi atomami, ci dokonca jednoduchsimi molekulami, ci aj molekulami skladajucimi sa z niekolkych desiatok atomov, teda krasne mame molekulu skladajucu sa z niekolkych desiatok atomov ktora ma krasne kvantovo-mechanicke povidnosti jak jeden jediny elektron, napr. raz sa taka molekula prejavuje jak castica, inokedy jak vlna. Dokonca sme take daleko, ze kvantovo-mechanicke podivnosti sme dokazali aj so strukturami pozostavajucihc z mnohych miliard/bilionov atomov!!!

Jaka teoreticka mez, na ktoru sme este nedosiahli? Kvantovo-mechanicke efekty vyuzivame uz cele dekady.

+1
+5
-1
Je komentář přínosný?

Mužu přidat mojí zkušenost, mám tu pole s 2x180 diskama 1TB 7200ot SATA, dodává zabalený IBM, co je vevnitř nikdo neví. Aktuálně běží 5. rok, letos bez problémů, výměny byly hlavně druhej rok, postupně to narůstalo a pak se to postupně uklidnilo a teď už dlouho nebylo potřeba žádnej vyměnit. Odřazujou se na základě SMARTu a nějaký vnitřní kontroly, ale žádnej zatim neumřel natvrdo (ale to disky co se nevypínaj nedělaj)
Největší genocida byla, když jednou v rámci testů bylo pole vyplý a nechalo se vychladnout, stejně tak to vychladnutí nepřežilo pár serverů stejnýho stáří.

+1
+5
-1
Je komentář přínosný?

k tomu umírání natvrdo: to bych řekl, že je tak 50/50. Dost často uhnije elektronika a disk pak mlátí hlavičkami.

ad genocida: jj, člověk má leckdy docela bobky to vypnout, původní plán na hodinku odstávky se může změnit v celonoční noční můru. ;-)

+1
+1
-1
Je komentář přínosný?

Nemčinu síce neovládam, ale v zdroji sa podľa mňa píše, že 4TB je kapacita jednej platne. Z tohto článku som naopak nadobudol dojem, že sa táto kapacita vzťahuje na celkovú kapacitu 3,5" HDD prvej generácie.

+1
+8
-1
Je komentář přínosný?

Máte pravdu, v původním článku se mluví konkrétně o plotnách a nikoliv celém disku. Opět klasická ježkovina, kdy se polovina informací ztrácí v překladu a autor nám předkládá s vážnou tváří úplně nová fakta, které ve zdrojích uvedené nejsou.

+1
+12
-1
Je komentář přínosný?

uz by to konecne chtelo ukladat na krystaly abych mohl stahnout vsechny ty internety

+1
+8
-1
Je komentář přínosný?

neni to poprve co tady ctu souslovi "zmenšující se nanometry" a vzdycky se mi otevira kudla v kapse :D nanometr jako delkova jednotka je prece nemenny ;) i kdyz chapu co tim chtel David rict.

+1
-1
-1
Je komentář přínosný?

Tady ale pozor :-) Pokud se porovnají reálné proporce tranzistorů vyráběných na procesech různých výrobců, vychází, že nanometr každého výrobce je jinak dlouhý a především že papírový nanometr leckdy měří několik nanometrů skutečných. Takže v čipech se leckdy dokonce „nanometry zvětšují“ ;-)

+1
+20
-1
Je komentář přínosný?

Hlavně se v Americe používá imperiální nanometr a u nás zase metrický nanometr.

+1
+6
-1
Je komentář přínosný?

Starsi WD mi jedou doted... HAMR, heliovym diskum a vic TB modelum dnes neverim, kdo si ceni sva data tak jedine RAID 1.

+1
-5
-1
Je komentář přínosný?

To jsem fakt jedinej, kdo si po čtyřech hodinách všiml chyby shody podmětu s prisudkem hned na začátku článku? "potrápili"

+1
+7
-1
Je komentář přínosný?

nejsi, ale ta chyba není jednoznačná. Buď se jedná o technologie, a pak to chyba je, nebo se David odkazuje na "SMR a helium", a pak je to dobře.

+1
+1
-1
Je komentář přínosný?

Ale notak. Právě u SMR a helium je to blbě. Vždyť to tahá za oči.

+1
+5
-1
Je komentář přínosný?

Snad jen kdyby SMR a helium byly hipsterske přezdívky ajtaku, to by mi ale článek moc nedával smysl.

+1
+2
-1
Je komentář přínosný?

SMR = šindelový magnetický záznam = rod mužský
helium = rod střední

pokud se píše o dvou různých rodech, vč. rodu mužského, použije se rod mužský. Tj. např. Muži a děti skotačili v minovém poli.

+1
-5
-1
Je komentář přínosný?

to se týče jedině životného rodu - muži jsou (víceméně) živí, záznamy ne

záznamy a děti skotačily v diskovém poli

+1
-4
-1
Je komentář přínosný?

Já na tohle mam 2 dotazy.

- Pokud se tam nevejdou proč neudělat disk větší? V minulosti byly disky co byly 2x tak vysoké, můžou kildně udělat i 5,4" formát, kdo vzpomíná na quantum bigfoot? Velké diyk nebyly nikdy výkonnostní rekordmani, ale tohle stejně budou jen velká úložistě dat.

- Pokud to dobře chápu tak HAMR předehřejvá plotnu jen při zápisu, čtení ne, tzn čtenim by se opotřebovával citelně méně, tzn byl by skvělej cold storage, ala kam se nezapisujou každej den TB dat ale ty co tam dáš tam dlouho seděj a můžejš je easy číst. Tak se totiž u mě používaj všechny HDD už pár let. Jsou to úschovny dat, filmů, instalátorů, driverů, her co se nehrajou každej den, atd. Samé read operace. Kam je potřeba zápis, IO či se to používá deně, to sedí na SSD.

Problém současných SSD je to že když jsou dlouho offline bez náboje, resp u některých degradace probíná i s nábojem (viz kauza degradace Samsung 840 EVO, kterej musí sám sebe pořád interně přepisovat jinak se data vytratěj), Tzn SSD je extra nevhodné na "uložit a nikdy po x let nepřepsat, jen občas přečíst", v tom selže, a v tom naopak tyto HDD budou excelovat. Těžko s nimi budeme nahrazovat 15K RPM Serverové performace SAS disky...

+1
+7
-1
Je komentář přínosný?

Problém je v tom, že z*íčenej OS Windows 10 má potřebu při čtení dat i zapisovat. Třeba informace o tom, kdo je naposledy četl. Takže tvá logika je bezchybná pouze ve světě kde OS dělá jen to co nezbytně musí.

+1
+5
-1
Je komentář přínosný?

Magnetický zápis je vždy spolehlivější a stabilnější, než zápis elektrickým nábojem. Tak tomu bylo, je a bude, dokud bůh totálně nezmění fyzikální zákony na zcela jiné.

Zápis elektrickým nábojem, ať se to úložiště jmenuje RAM, nebo SSD, je vždy jen dočasné uložení dat, která se samovolně ztrácejí. Pouze se za pomoci nejmodernější kvantové fyziky a technologie podařilo tu dočasnost u SSD prodloužit na řádově rok.

I proto si myslím, že SSD jsou spíše štěk, který bude časem jedno obrovské zklamání. Ačkoli nejbližší 10, max. 15 let budou na scéně.

HAMR není nic jiného, než využití toho, že při zvyšování teploty se snižuje koercivita. Zvýšením teploty místa je možné přesněji cílit zápis magnetickým polem, protože zahřáté místo daleko dychtivěji nabývá magnetické indukce podle vnějšího pole než okolní chladné místo. Teoreticky se tak dá zvýšit hustota dat na plotně.

Hard disk se neopotřebovává ani čtením ani zápisem. Pouze je to mechanický stroj, a tak se sem tam něco škrábne, a když je škrábanců moc, tak je po hard disku.

+1
+5
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.