Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Epyc Rome dual-socket nabídne až 162 PCIe 4.0 linek o 315 GB/s

A co na to soudruzi v Inteli? Ponivac na rok 2019 je zlepenec dvoch 28C serverovskych kremikov asi konecna.
Ale so spotrebou maju v inteli jasno: najvykonnejsi model 400W papier / kruta, bezna a osvedcena realita +25% teda 500W / s AVX512 pouhych 600W, odporucaju vodu. Cena s ohladom na jeden kus 28C kremika od 20 do 35 tisic $. IBA za server CPU!

+1
0
-1
Je komentář přínosný?

Tak ten by jich mel mit taky vic ne? Kdyz tam ma dva kremiky ...

+1
0
-1
Je komentář přínosný?

Dostane se 2x rychleji do křemíkového nebe :D

+1
+1
-1
Je komentář přínosný?

a sebou celou desku :)

+1
+2
-1
Je komentář přínosný?

Kazdy z 28 jadrovych kremiku ma 48 PCIe linek, takze ten slepenec dvou bude mit k dispozici max 96 linek, tj. 6 plnych slotu, v Gen3. AMD podle clanku maji 8 slotu v gen4, tj. 2.666x prekonava Intel co se tyce hrube konektivity :)

+1
0
-1
Je komentář přínosný?

Ufff. Před 5-ti lety jsem stavěl velké a rychlé úložiště (NVRAM DIMMy NVDIMM-N a NVMe PCIe kartami cachované ZFS a CEPH, se SAS připojenými SSD a HDD), tenkrát kvůli většímu počtu PCIe na 4-soketových Xeonech, propojených InfiniBandem QDR. Jak tak koukám, dnes by to rychlostí a počtem PCIe zvládly dvě takovéhle 2-soketové EPYC Rome potvory. Cenově to raději ani nepočítám...

+1
0
-1
Je komentář přínosný?

Tak ciste hypoteticky, cenove by 2-socket EPYC system mohl vyjit levneji nez 4-socket Intel, ale to zalezi jake konkretni CPU konfigurace vyda AMD a za jakou cenu. Jestli vydaji neco (relativne) levnejsiho s nizsim poctem jader ale plnym poctem PCI linek, tak soudruzi v Intelu by mohli mit docela problem...

+1
0
-1
Je komentář přínosný?

Tak u takových úložišť jde vždycky o co největší propustnost a co nejmenší latenci. Takže jsou vyžadované co nejvýkonnější procesory, raději méně jader a vyšší frekvence a co nejvyšší IPC; a nízkolatenční sítě mezi uzly, což víceméně vylučuje 10GbE a vede přímou cestou k InfiniBandu. Už jenom PCIe 4.0, nové modely NVMe karet/disků, SAS3 a hojnost PCIe v jednom stroji způsobuje, že původní složitý a mnohouzlový design se pěkně smrskne - nebo lze za stejné peníze postavit čudo s (odhadem) 5x vyšší kapacitou a 5x vyšší datovou propustností (s latencí se to moc nepolepší). Také nový InfiniBand FDR 100 tomu kapku pomůže (třeba i v tom, že na rozdíl od QDR to není třeba tahat 2x).
To původní umělo 4 GB/s stálý zápis/čtení... dnes není problém postavit za stejné peníze cluster s 20 GB/s, při stejné kapacitě. Pokud někoho zajímá, k čemu taková věc slouží - no tak buď do DC jako hlavní úložiště nebo do laborky na ukládání dat z experimentů (třeba DNA sekvencéry blijou data fakt rychle a je jich hodně).

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.