Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Rekapitulace: pevné, flashové i jiné disky v roce 2015 i 2016

Stale zostavam pri WD Red :-) maximalne ked tak prejdem na RAID :-) asi som stara skola :-)

+1
+4
-1
Je komentář přínosný?

Odpověď na HAMR je jasná - neobjeví se ještě aspoň 2 roky:
http://anandtech.com/show/9866/hard-disk-drives-with-hamr-technology-set...

Jinak SATA3 považuji za definitivní rozhraní pro točivé disky. Za posledních 10 let se jejich rychlost zvedla pouze 2-3x (z cca 75MBps se dostaly ke 200MBps). Takže SATA3 jim klidně dalších 10, spíše 15 a teoreticky i 20(!) let bude stačit (vývoj se zpomaluje...výrazně). A do té doby snad z domácích počítačů zmizí. Možná, že se objeví nové rozhraní, ale nebude pro ně potřeba.

Moje věštecká koule mi říká, že zabijákem HDD se stanou během 3 let superlevná SSD s cenou i kolem 500Kč a dostačující kapacitou (120/240GB). V tu chvíli se přestanou HDD dávat do levných nb a Tesco sestav a stane se z nich paradoxně luxusní zboží, kterého se prodá zlomek. a spíše profesionálům. V tom mají SSD výhodu, že nejsou zdola limitovány cenou mechanických součástek.

+1
+3
-1
Je komentář přínosný?

Tak zrovna ti, co kupuji uzasne levne ntb na nich dost casto chteji mit skladiste filmu, cili jim 120/240 GB asi stacit nebude.

+1
-13
-1
Je komentář přínosný?

Skladiště filmů je marginální specifikum rozvojových zemí jako např. Česko. V jiných zemích fungují online půjčovny způsobem, dostupným i pro BFU.

+1
-2
-1
Je komentář přínosný?

Což je samozřejmě hloupé zjednodušování. V půjčovnách rozhodně není všechno. Ripy, které se válí všude možně, většinou nepocházejí od nás ani z divokého východu. Tak proč jsou vytvářeny, když o ně podle tohoto tvrzení není zájem?

+1
+6
-1
Je komentář přínosný?

Nevím, asi mám kolem sebe statistiky podivné okolí. Během posledního kvartálu mě oslovily kned 3 domácnosti, cože s tím jejich pomalým NTB. Samozřejmě výměna HDD za SSD..Zvláště když v NTB žhaví i7 procesory. A ty filmy měli všichni do jednoho na přenosných festplaten či jak to říkali:-). Ono se jim to nějak líp sdílelo, když tak cestovali s děckama po rodinných návštěvách.. brali jen ty přenosné hdd a napojovali je do nějakých smart TV (prý Samsung).

A výrobci NTB fakt OSTUDA!! je to hrůza koupit nový NTB a hned vyhazovat tu příšeru HDD za SSD. Tohle píšu na levňoučkém pracovním HP s okamžitě transplantovaným SSD od jeho již mrtvého předchůdce. Jen si to zkuste za 15 tis najít lehký 13-14" NTB s SSD a všemi možnými vstupy. (VGA,HDMI,LAN, USB, čtečka.. otisky prstů.. a asi jsem na něco zapoměl..). Hodně štěstí při hledání :).

+1
+15
-1
Je komentář přínosný?

Já jen doufám, že v roce 2016 budou konečně výrobci osazovat notebooky SSD normálních velikostí za normální peníze. Letošek byl tragický, viz třeba notebook Dell za 100 tisíc s 256 GB SSD:
http://www.czc.cz/dell-precision-m6800-hneda_4/170593/produkt

+1
-1
-1
Je komentář přínosný?

Jenomže zrovna tenhle notebook umí 2 pevné disky. Běžně se dává druhý točivý HDD.

+1
+1
-1
Je komentář přínosný?

já naivně doufám že konečně zlevní kapacity nad 3TB - jediný disk s normálníma otáčkama za slušnou cenu je pouze Toshiba za 4,5Kk. Ostatní přes 6Kk jsou nechutně předražené. Bohužel 7,2Kk otáčkové disky se začínají stávat luxusním artiklem....

+1
-4
-1
Je komentář přínosný?

Zlevni, az se to povede vecpat na 1 plotnu.

Tyhle ty 3 a viceplotnove disky jsou jen katastrofa ktera ceka na to aby se stala - driv nebo pozdeji se zadre motor a je sranda z toho zachranovat data, kdyz se ty plotny nesmi vuci sobe pootocit.

+1
-12
-1
Je komentář přínosný?

Letošek byl v oblasti ukládání naprostý převrat, projevilo se to hlavně v servrové oblasti.

Dvě věci: NVMe a mnohovrstvé SSD čipy umožňují velké a neskutečně rychlé kapacity, což mění celé paradigma ukládání. Úplně to zlikvidovalo celou jednu třídu točivých disků - ty nejlepší 10k a 15k s vysokou zatižitelností, prostě ty "pravé enterprise" SAS2 dualport. SSDéčka začínají pošilhávat i po další kategorii - a sice po enterprise 4TB a větších discích pro vyšší zátěž, tj. HGST 7K4000, WD RE4, Seagate ESx - i ty začínají být nahrazovány SSD. V této roli se začaly v enterprise segmentu využívat laciné spotřební SSD, pro nižší zátěž, velkokapacitní enterprise SSD pro vyšší zátěž a spolehlivost - již asi měsíc je na trhu 15.3TB Samsung, další výrobci se přidají velmi brzy.

Točivé disky tak zůstávají pouze ve dvou kategoriích - velké nízkozátěžové disky na "cold storage" a archivační disky.

Další s tím spojená věc je růst datové chybovosti velkých disků, s růstem kapacity. UBER už je srovnatelný s kapacitou disků, takže běžné metody zajištění spolehlivosti přestaly fungovat. Klasický RAID5, 6, 50, 60, ... je definitivně mrtev a nahrazen metodami ukládání s integrovanou datovou integritou. Jako je ZFS a další. S tím je spojen také přechod od dedikovaného k rozptýlenému ukládání. Jako je třeba Ceph, kde je možné spolehlivost lépe škálovat už na úrovni objektů nebo souborů - všechno může mít jednu kopii, dvě, ... podle požadavků. Už se nemusí stavět oddělené sítě SAN s diskovými poli nebo servery, ale nastoupila hyperkonvergence, kdy jsou disky rozptýlené přímo ve výpočetních serverech, přímo v hypervizor mašinách. Výhodou je snadné škálování, protože s přidaným serverem se automaticky přidává i disková kapacita.

Takže když se to shrne, v oblasti ukládání se změnilo všechno. Technologie i paradigma. A to jsme teprve na začátku, velký vliv má i standard NVDIMM a nastupující rychlá SSD nových technologií - 3D Xpoint a memristory.

+1
+34
-1
Je komentář přínosný?

Děkuji za skvělý komentář. Používáte i REFS jako Windows alternativu ZFS ?

+1
-8
-1
Je komentář přínosný?

RAID 5 je mrtvý už řadu let, při cenách disků v posledních patnácti letech není absolutně důvod degradovat výkon pole touto metodou za cenu "záchrany" trochy kapacity. Že se furt že setrvačnosti používá je věc druhá.

+1
-18
-1
Je komentář přínosný?

Zakaznikovi nevysvetlis ze prisel o data jen proto, ze nejaky expert chtel usetrit par korun a nenastavil spare disky.

+1
-12
-1
Je komentář přínosný?

Spare disk je samozrejmost. Jeho absence neni pricina problemu s R5, ale debilita uzivatele.
Pricina problemu s R5 pri pouziti disku o velkych kapacitach (typicky levnejsich SATA je velka pravdepodobnost vyskytu nepravitelnych chyb (pred ukoncenim rebuildu).

+1
0
-1
Je komentář přínosný?

No, já nenavrhuju přestat používat spare disky, ale nacpat je do RAID 1 nebo 10. Ty budou vždycky rychlejší, mají rychlý rebuild a většinou není potřeba žádné voodoo, když po pěti letech odejde řadič a není k dispozici jako náhradní díl.

+1
+3
-1
Je komentář přínosný?

Komentar je zajimavy (zejmena druha polovina), neslo by vse rozvest a udelat nejaky obsahlejsi serial clanku kde by bylo vse zminene (a treba i vice pokud jeste mate neco v rukavu) vysvetleno dopodrobna vcetne prikladů pouziti, nasazeni, reseni problemu atd. (takove to "how to"), porovnani se "starymi a definitivne mrtvymi" metodami?
Myslim ze redakce by takove clanky neodmitla (a pokud ano tak se jiste najde jina ktera ne).

+1
+37
-1
Je komentář přínosný?

Presne, tohle by se vazne hodilo.

+1
-8
-1
Je komentář přínosný?

Zakladni problem je v tom, ze ze stara technologie je mrtva jsou presvedceni zejmena prodejci tech novych skvelych reseni.

Co uz zapominaji prozradit, ze je treba kompletne nova infrastruktura a takove zvyseni kapacity rozhodne nespociva v tom jen nekde nekam nabouchat nejake police s diskama. Ono to skvele reseni je take pomerne hodne drahe, takze obrovske mnozstvi firem radsi zustane u te takzvane mrtve technologie, ktera je ale mnohem levnejsi.

+1
+7
-1
Je komentář přínosný?

Taky nezapomínejte na to, že v 90% zcela dostačují klasické zálohy, tzn. jednou denně v noci nějakým skriptíkem data vyexportovat, zazipovat a někam překopírovat. :-)

+1
+4
-1
Je komentář přínosný?

Ano prosím, výborný návrh. Nechť nějaký guru nových technologií vnese světlo mezi staromilce jejichž invence v řešení skončila na 16 ks HHD RAID60. Protože kvůli času na rebuild, je možné používat tak maximálně 2TB WD Re4 disky. I těm to trvá 4 hodiny:-(. Nuže sem se sérií článků, které nás přenesou do budoucnosti. Protože už opravdu nevím jak dál. Používat 4TB disky do HW raid polí je prostě opruz. Dlouhý rebuild a degradace výkonu. Vskutku místo tvrzení - jiná technologie je lepší a ta stávající zombie, pojďte krok za krokem ukázat jak na to.. A slibuji, že autora budu uctívat :-).

+1
-3
-1
Je komentář přínosný?

Píšu o tom knihu, měla by vyjít někdy ... až bude dopsaná, oponovaná, redigovaná, ... :-)
Možná do léta.

S těmi články, proč ne, musel bych to sepsat předem a dát najednou - nerad bych si nad sebou upletl ještě další bič povinností něco sesmolit k určitému datu, ono do toho člověku vždy něco vleze a pak nezbývá než nastavovat dny nocemi ...

V krátkosti - ke konkrétnímu problému 16ks HDD RAID60 z >2TB disků: Kapacita disků stoupla radikálně, ale rychlost čtení/zápisu mnohem méně. Tím pádem dávat cokoliv většího než cca 1TB HDD do vyšších schemat RAID polí - do čehokoliv nad RAID10 - je krajně nerozumné, protože resilvering pole trvá věčnost a během něj stoupá pravděpodobnost dalšího maléru. MImoto zatížení disků při resilveringu se přičte k provoznímu zatížení, protože většinou není možné pole odstavit od provozu, není zrcadleno jiným polem. MTBF/AFR je funkcí zátěže, čím větší záhul disky dostanou, tím je spolehlivost horší, roste (AFR) více než lineárně, někdy až exponenciálně. Málokdo věnuje pozornost tomu, že větší HDD mají sice relativně slušné MTBF/AFR, ale to platí jen do určité zátěže - pro NAS disky je to pouhých 120TB (čtení+zápis)/rok, "enterprise" RE4, ... mají psaných 550TB/rok. Resilvering také představuje silnou špičku v zátěži, zvýší se teplota, ...

Další věc je UBER, tedy nedetekovatelné chyby. To je věc, která poslala RAID5, 6, 50, 60 do muzea. Problém je v tom, že při velikostech dnešních disků je UBER už téměř v řádu velikosti disku (1/10^14 je cca 12.5TB). Při chodu pole vznikají "tiché chyby", které se projeví když se provádí resilvering - nepovede se. Nebo povede, ale filesystém nebo nějaký důležitý soubor bude nečitelný. Aby se tomu zamezilo co nejvíce, musí se používat minimálně RAID6, 60 kde jsou na každý diskový strip dva kontrolní bity a pole projíždet při chodu periodicky "scrubbingem", tedy drbáním, kdy se přečte vždy celý strip pole včetně kontrolních bitů - umí to jednu chybu opravit, dvě detekovat. Problém je při resilveringu, kdy zbyde jen jeden zabezpečovací bit a tím pádem je chyba neopravitelná, pokud se při čtení projeví.

Tedy: jelikož za poslední léta klesla cena na 1GB/Kč, není důvod ani u nízko zatížených "cold storage" nebo o trochu více zatížených "bulk data" disků používat cokoliv jiného než RAID10. Má to nejkratší možný resilvering, který navíc běží jen mezi dvojicí disků, takže zbytek pole nemá degradovaný výkon.

Takže verze 1: předělat pole do RAID10, se stávajícím řadičem a železem. Pokud potřebujete kapacitu, použijte větší disky, měnit to můžete i postupně, protože většina polí umí přidávat do RAID10 disky po dvojicích, bez náročného rebuildu. RAID10 je také nejvýkonnější varianta, počet disků ve stripu zvyšuje téměř lineárně celkový IOPS pole, dokud se nenarazí na nějakou mez, třeba průchodnost sběrnice nebo řadiče. Některé novější řadiče používají i paralelní čtení ze zrcadla, takže počet zrcadel zrychluje čtení. A některé umí i vícenásobné zrcadlení.
Zda používat spare disky či ne, záleží na mnoha faktorech, hlavně jak "chytrý" máte řadič. Některé snímají SMART a podezřelé disky si předem kopírují na spare, takže v okamžiku výpadku je náhradní již téměř připraven, takže resilvering je skoro okamžitý.

To zní sice možná dobře, ale pořád to nechrání před UBER. Při vysokých kapacitách je výskyt těchto chyb zákonitý.
Bránit se tomu jde jen pomocí nějakého paradigmatu s integrovanou datovou integritou. Což jsou některé nestandardní nadstavby RAID polí velkých výrobců, které mají tu velkou nevýhodu, že často nepoužívají standardní velikost sektoru, ale o něco větší, protože tam ukládají pomocná CRC data pro datovou integritu. Tudíž je pak nutné kupovat pouze jimi brandované disky, pochopitelně značně dražší než obyčejné retail typy. Někdy se to liší jen ve firmware. Takže to pominu.

Možnost číslo 2: nasazení ZFS.
To řeší datovou integritu, dokonce včetně kabelů a řadičů. Znamená to přehodit SAS/SATA řadič do HBA modu, tedy bez RAID funkce (některé mají switch nebo se dá nahrát HBA firmware - je to označneo "IF mode"), aby ZFS software - jedna se o ryze softwarové řešení - viděl každý disk zvlášť. Pokud to nejde, musíte dát každý disk jako samostatné "pole" RAID0. A rozjet ZFS.
Pokud máte externí pole, máte smůlu. Mohl byste sice vidět každý disk zvlášť, ale jde o rychlost připojení pole k serveru, ta bude příliš nízká než aby byl každý disk vidět samostatně naplno. Někdy jde přidat kabel nebo jinak vnitřně zapojit řadič/expandér. I s disky přímo v serveru není vyhráno, jsou dvě varianty diskových hot-swap - "direct attach" - to je potřeba, znamená to přímé připojení každého disku k HBA řadiči. A přes expandér, to je špatně. Protože platí to samé jako s externí bednou nebo polem - většinou je to úzké místo.

Tak tedy ZFS. Opět platí to samé jako u standardního pole. Nikdy nedávat HDD větší než 1TB do ničeho jiného než RAID10. Pokud to přesto uděláte, musíte počítat s dobou resilveringu a všemi s tím spojenými nebezpečími. Kromě UBER, samozřejmě, to je u ZFS vyřešeno. Používá se to zcela výjimečně, jen na úschovu nějakých opravdu studených dat, která se vůbec nečtou, pro absolutně minimálně zatížená pole, kde navíc nebude vadit mnohahodinový resilvering. Případně se používají stripované kombinace RAIDZ (to je ona ZFS varianta RAIDu, číslo za Z znamená počet disků navíc, tj RAIDZ1 odpovídá RAID5, RAIDZ2 RAID6 ...). Třeba 2x strip 5x RAIDZ1 (dvě pětidisková RAIDZ pole ve stripu). Nebo se to i zrcadlí.
Může se to škálovat přesně podle požadované spolehlivosti a rychlosti, IOPSu.

Poslední možnost č. 3 je změnit paradigma dále a použít clusterové ukládací systémy a filesystémy, třeba Ceph. To znamená rozdělit disky do jednotlivých mašin, nedávat je do nějakého zrcadla nebo RAIDu, ale zrcadlení/strip/... se dělá ne na úrovni disků nebo partition nebo volumů, ale na úrovni objektů, třeba jednotlivých souborů. Důležitý soubor můžete mít zrcadlený třeba na každém stroji, pro rychlý přístup ho stripovat třeba na 10 strojích, ...

Všechno něco stojí - takže například tyto clusterové ukládací systémy nejvíce "šeredí" s diskovou kapacitou, využitelná kapacita je zlomkem z "raw" kapacity. I když ... záleží jak se to nastaví. Výhoda je, že to nemá strop, můžete to navyšovat skoro donekonečna.

Mimoto všechno, musíte mít k dispoziti něco, na co jde celé pole uložit, před rekonfigurací. Optimální jsou LTO-6 páskové knihovny. Nic jiného prakticky není. Diskovou kapacitu v organizaci musíte mít asi 3x naddimenzovanou, aby se s tím v případě nouze dalo manipulovat, tj. mít třeba jednu kopii všeho (novou verzi systémů) a jednu zálohu. Také je rozumné nezaplňovat filesystémy na více než 60%. Jakmile obsazení doleze na 70%, je rozumné navyšovat kapacity. U moderních filesystémů s COW zápisem je to velmi důležité, protože výkon jde velmi dolů při větší zaplněnosti.

+1
+11
-1
Je komentář přínosný?

Souhlasím s popisovanými návrhy. Jsou však orientovány spíše do podnikového prostředí (což je dobře). Představte si, ale reálnou domácí situaci. Rodinný dům, v něm PC (server, chcete-li). Ten je osazen tunery a zajišťuje - distribuci - streamování TV na jakýkoli počítač, telefon, tablet, na WIN, Androidu, IOS pro prostřednictvím služby DVBViewer běžící na serveru. Dále zajišťuje streamování na opět libovolné zařízení postřednictvím serveru EMBY. Slouží také jako centrální úložiště s HW polem (16x WD RE4 2TB v RAID60) a zdrojem dat pro streamovací služby. Ze softwarových důvodů - kompatibilty (DVBViewer) server běží na WIN platformě. Tudíž i data jsou nutně obsluhována WIN. Obávám se, že ZFS na win není implementováno. Kdybychom byli ve firmě, tak by si řešení zasloužilo dedikované části systému na úložiště, doménový server, aplikační server.. Jenže jsme doma a i jednostrojové kompaktní (no kompaktní, s váhou HW už se pohybujeme v řádu desítek Kg) řešení je v tomto případě nad 100 tis. Kč. Další faktor tvoří spotřeba elektrické energie - počítejme 8-12W na 1 HDD. Při vysokém počtu disků je to na domácí elektrárnu. A podstatný je i tvořený hluk a vyzářené teplo. Takže na jedné straně se kvůli Vámi popisovaným problémům vyhýbám 4TB HDD, na druhou stranu narážím na limity možné expanze úložiště. K tomu problémy se spotřebou a místem. V tomto případě už je na místě přemýšlet o průmyslové skříni. ZFS jak ho sleduji delší dobu vypadá mimořádně slibně, jen nevím o implementaci na windows.. napadá vás jak z toho ven a neživit další server výhradně pro úložiště?? Protože ano 10Gbit síťová infrastruktura a ZFS na linuxovém fileserveru.. a to je nákladově pro domácnost mimořádný luxus. Abych nezapoměl hodně zdraví a úspěhů v novém roce 2016:-).

+1
-2
-1
Je komentář přínosný?

Dovolím si poradit z vlastní zkušenosti. Na domácím serveru nad Windows už několik let provozuji storage spaces v mirror módu a důležitá data mám na REFS virtuálním disku.
ZFS jsem před lety také zvažoval, ale nebyl jsem připraven investovat do pořádného HW s ECC RAM. Dalším důvodem bylo Hyper-V.

Tím mám zajištěnou ochranu před Bit Rot.
Ze začátku jsem byl skeptický, ale dlouhým testováním jsem v to řešení získal důvěru. Rychlost je navíc zcela v pořádku (u storage spaces je velice pomalý jen raid5)

Nějaké informace ke kombinaci REFS a storage spaces
http://blogs.technet.com/b/keithmayer/archive/2012/10/15/refs-in-windows...
http://www.zdnet.com/article/microsoft-takes-wraps-off-new-windows-file-...

https://technet.microsoft.com/en-us/library/hh831724.aspx
ReFS can automatically correct corruption on a parity space when integrity streams are enabled to detect corrupt data and because ReFS examines the second (and third) copies that the data parity spaces contain. ReFS then uses the correct version to correct the corruption.

+1
+13
-1
Je komentář přínosný?

Přeji také PF2016, štěstí, zdraví.

Ano, co jsem psal, bylo v první řadě cíleno na podnikové nasazení. Ale zásady jsou stejné i v SOHO, tedy většina z nich.

Jak jste to popsal, ve všem máte pravdu. Těžko to můžete udělat lépe a levněji, než to máte - je to asi optimální konfigurace, tedy až na problém s UBER chybami disků. Hlavně jste udělal dobře, že jste použil WD RE4 a ne o mnoho tříd horší NAS disky, třeba WD RED(+). RE4 mají také o řád lepší UBER, mimo mnohem větší zatižitelnosti a tím i vyšší spolehlivosti v popisovaném provozu. Ovšem zcela nejlepší (ve spolehlivosti ještě několikrát lepší) jsou HGST Ultrastary, 2/4TB 7K4000, u těch bych se "nebál" ani té 4TB kapacity, byť v RAID60 poli (což je do jisté míry porušení všech doporučení). Změnit to na RAID10 by bylo samozřejmě lepší, ale ... Takže nejjednodušší východisko, které by Vám mohlo nějaký čas vydržet, je postupně nahrazovat 2TB WD RE4 těmi 4TB Ultrastary, a jinak to nechat, jak to je. Mají MTBF 2mega, UBER 1/10^15 a dle všech zkušeností odcházejí i v silném provozu mnohem méně (i 10x) než WD RE4. Dlouho nebyly v retail prodeji, protože celou výrobu odebírali oni "tier-1" výrobci (a Velký bratr).

Ono když se staví úložiště, ze všeho nejdůležitější je mít co nejlepší disky. Všechny další "opičky" jsou sice pěkné, ale ... Když šetřit, tak ne na discích, ty pořídit co nejlepší je možné v rámci rozpočtu. To je základní axiom celé "storage vědy", bohužel většinou se to dělá opačně, rozpočet se utratí za různé technologické "zázraky" a na pořádné disky nezbude. A pak se lidé diví, že to nefunguje jak má.

Pokud máte na RAID60 poli zapnutý scrubbing (říká se tomu různě, každý výrobce to nazývá jinak), v případě videodat lze problém ignorovat, protože pokud se chyba neprojeví přímo ve filesystému nebo při resilveringu pole, poškození ve videosouboru znamená ztrátu jen části streamu (třeba do dalšího I-frame) a navíc se dá film většinou získat znovu. Hlavní nebezpečí bych viděl v provozních podmínkách, tedy v chlazení a dodržení provozních teplot. Jakmile teplota stoupne nad 50°C, spolehlivost rychle klesá. Nemá to rádo ani zimu, příliš vychlazené instalace mají také menší spolehlivost. A každé vypnutí/zapnutí znamená vychladnutí a náběh do pracovní teploty, při větší instalaci (>100-200 disků) při náběhu pokaždé nějaký disk lehne.

ZFS není portováno na Windows, ale jak popisuje "Pan_Filuta", možnosti jsou v StorageSpaces a ReFS.

Případně, jak píšete, v dedikování ukládacího serveru - což je při rozšíření instalace zdaleka nejrozumnější. Zde je možnost použít ZFS, třeba přes FreeNAS nebo OmniOS+napp-it (nebo přes nějaký linux). Lokální síť můžete udělat přes 10GbE, když budete mít jen dva servery, můžete je propojit napřímo bez switche, takže zaplatíte jen cenu karet a SFP+ DAC kabelu mezi nimi (SFP+ karty jsou pořád levnější než 10GBaseT a kromě toho netopí, takže bych se raději vydal touto cestou). Případně jsou na trhu nové switche od D-Linku DGS 1510 (dokonce L3, má to Cisco IOS kompatibilní CLI a web nadstavbu s kompetním nastavením !), které mají 4x 10GbE SFP+ (které můžete použít k propojení serverů), k tomu 24x 1000BaseT, za cca 10 tisíc korun - dříve nevídaná věc, protože cokoliv s takovým vybavením stálo 100k++. Další možnost je podívat se po ebay na Infiniband DDR karty - to umí 20Gbit/s (tj. reálně cca 16Gbps), jedna dvouportová se dá sehnat za cca 1000 Kč, kabel (twinax) stojí pár dolarů - to je zcela nejlevnější a technicky nejlepší řešení (ovšem vyžaduje to znalosti, dá se dohledat po netu), drivery jsou OpenFabrics a dostupné na všechno, pod Windows, dokonce s podporou RDMA. A propojit to bez switche, nabízí se možnost propojit i 3 stroje do trojúhelníku (karty jsou většinou 2-portové). Nebo použít (mezi dvěma stroji) oba porty, pak dostanete 2x průchodnost (i pro jednotlivý přenos, Infiniband umí "FatTree" sdružování). Za cca 3 tisíce (2x karta dva kabely) to věru není špatné, mít ~32 Gbps propojení serverů. ZFS server musíte samozřejmě provozovat na ECC RAM vybaveném stroji, přičemž velikost RAM je docela podstatná, čím více, tím lépe, 16GB je rozumné absolutní minimum. Pro snížení "opotřebení" disků můžete použít do ZFS serveru i cachování přes SSD disky, ale pro Váš druh provozu to asi není to pravé, protože poměr "cache hits" nebude pravděpodobně velký.
Provozní náklady by nebyly asi o mnoho vyšší, záleží jaký byste použil procesor a platformu (jak "žravou") a to zase závisí na tom, jaké máte celkové IOPS a zátěž (i špičkovou).

Kompromisní myšlenka je spojit všechno dohromady a použít virtualizaci, jet jen přes jeden server, třeba nasadit přímo na Ẅindows Hyper-V a ZFS server jet virtuálně (vidící SAS/SATA řadič přímo přes passthrough).
Nebo nasadit jiné virtualizační řešení, ESXi a v něm Windowsy i ZFS server, opět s výhodou periférií přímo přes passthrough. Nebo můžete použít linuxovou virtualizaci, krásný a spolehlivý je např. Proxmox VE.

Osobně bych nejspíše zvolil onu virtualizační cestu, při obnově serveru za nový pořídil nějaký výkonnější a nasadil ono virtualizační řešení. Pole předělal do ZFS RAIDZx stripu/zrcadla - ještě lépe jen do ZFS RAID10, podle požadované kapacity a výkonu. To by nebylo o nic dražší, provozní náklady by byly stejné a mělo by to mnoho výhod. Flexibilitu, kromě jiného.

+1
+2
-1
Je komentář přínosný?

Tedy abych to shrnul, doporučil bych:

Nechat stávající server dožít, průběžné zvyšování kapacity řešit disky 4TB HGST Ultrastar 7K4000. "Co není rozbité, nespravuj", je docela dobré heslo. Při změně na RAID10 by mohlo dojít ke ztrátě dat, hlavně protože to jistě nemáte kam vyprázdnit na nějaké skutečně spolehlivé médium (tj. buď LTO-6 páska nebo jiný server se zaručenou datovou integritou). Hodně řadičů sice umí měnit druh RAIDu za chodu, ale ... tomu bych se vyhnul.

Při koupi nového železa vzít něco s ECC RAM, raději aby to umělo více než 32GB. Čím později budete server kupovat, tím lépe protože dnes neustále rostou výkony a padá poměr cena/výkon. Také se zavádějí DDR4 paměti a brzy bude na trhu spousta laciných bazarových serverů s Xeony v1, v2 a DDR3, které myslím na domácí použití zcela vyhoví a cenově budou zajímavé. I při několikaletém provozu, který mají za sebou, bych se spolehlivosti nebál, s kvalitními součástkami v enterprise deskách nejsou problémy, je to technologicky stavěné na cca 10 let provozu. Nebo si počkejte na AMD Zen. :-)

Nasadit virtualizaci a diskový server udělat pod virtuálním strojem na ZFS, klidně bych použil FreeNAS, protože má nejjednodušší ovládání přes webové rozhraní. Nastavit to, aby to vidělo SAS HBA řadič přímo pomocí passthrough (musíte mít hardware, tedy mainboard a procesor, který to podporuje - Intel VT-d nebo AMD-IOMMU), tím to bude prakticky stejně rychlé jako kdyby to jelo přímo na železe.

Druh virtualizace nerozhoduje, možnosti jsou Hyper-V, Vmware vSphere/ESXi, linux KVM (skvělý Proxmox VE), Xen. Která je Vám bližší, tu zvolte, je to prakticky jedno. Osobně bych asi použil Proxmox VE, protože umí současně linuxové kontejnery (což se hodí pro lightweigh webové servery), umí (pro budoucí rozšíření na dva servery) živou migraci i HA a má jednoduchou konfiguraci přes web. A také je to linux, tedy nemá problém s drivery na cokoliv, jde tam cokoliv nastavit.

Rozjet na tom ZFS server, optimálně jako RAID10, ale když finance nedovolí, nedá se nic dělat, s kvalitními disky a železem by neměl být větší problém ani s RAIDZ2, například 2x strip 8x RAIDZ2, tedy prakticky stejná konfigurace jako provozujete teď. Ale RAID10 má tu výhodu, že se dá rozšiřovat po dvou discích, je nejrychlejší, má nejkratší resilvering.

To je řešení, které je za prvé bezpečnější než to stávající, za druhé odděluje jednotlivé role a je flexibilní. A přitom zachovává nízké pořizovací i provozní náklady, tedy splňuje všechny Vaše požadavky. Při dnešních výkonech procesorů nemusíte mít na napájení ani vlastní elektrárnu.

+1
+12
-1
Je komentář přínosný?

Citujem "Tou asi pro běžného smrtelníka nejzajímavější, byl příchod M.2 slotů a SSD v kombinaci s komunikačním protokolem NVM Express (NVMe) a základními deskami, které do M.2 slotu posílají plné čtyři PCI Express 3.0 linky. Toto řešení nyní nabízí SSD, která jsou násobně rychlejší než to, co je nabízeno pro obstarožní 6,0Gbit/s SATA rozhraní."

Nemyslim si. Bezny smrtelnik to nevnima a ma problem sa uz v tom viznat. To, ze su rychlejsie mu je tiez jedno, kedze vo svojom notebooku ma "poctivy" klasicky 5k4 disk.
Beznemu smrtelnikovi NVMe nic neprinasa, ten nevie naplno vyuzit ani bezne SSD. To plati pre 99% beznych ludi.

+1
+5
-1
Je komentář přínosný?

Krome toho na to bezny smrtelnik nema penize.

+1
-9
-1
Je komentář přínosný?
+1
-4
-1
Je komentář přínosný?

*

+1
-9
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.