A co na to soudruzi v Inteli? Ponivac na rok 2019 je zlepenec dvoch 28C serverovskych kremikov asi konecna.
Ale so spotrebou maju v inteli jasno: najvykonnejsi model 400W papier / kruta, bezna a osvedcena realita +25% teda 500W / s AVX512 pouhych 600W, odporucaju vodu. Cena s ohladom na jeden kus 28C kremika od 20 do 35 tisic $. IBA za server CPU!
+1
0
-1
Je komentář přínosný?
A co na to soudruzi v Inteli?
Pjetro de https://diit.cz/profil/pjetro-de
9. 4. 2019 - 08:03https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuseA co na to soudruzi v Inteli? Ponivac na rok 2019 je zlepenec dvoch 28C serverovskych kremikov asi konecna.
Ale so spotrebou maju v inteli jasno: najvykonnejsi model 400W papier / kruta, bezna a osvedcena realita +25% teda 500W / s AVX512 pouhych 600W, odporucaju vodu. Cena s ohladom na jeden kus 28C kremika od 20 do 35 tisic $. IBA za server CPU!https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuse#comment-1247483
+
Tak ten by jich mel mit taky vic ne? Kdyz tam ma dva kremiky ...
+1
0
-1
Je komentář přínosný?
Tak ten by jich mel mit taky
mittar https://diit.cz/profil/mittar
9. 4. 2019 - 08:33https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuseTak ten by jich mel mit taky vic ne? Kdyz tam ma dva kremiky ...https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuse#comment-1247492
+
9. 4. 2019 - 09:23https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskusea sebou celou desku :)https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuse#comment-1247528
+
Kazdy z 28 jadrovych kremiku ma 48 PCIe linek, takze ten slepenec dvou bude mit k dispozici max 96 linek, tj. 6 plnych slotu, v Gen3. AMD podle clanku maji 8 slotu v gen4, tj. 2.666x prekonava Intel co se tyce hrube konektivity :)
+1
0
-1
Je komentář přínosný?
Kazdy z 28 jadrovych kremiku
danieel https://diit.cz/profil/danieel
9. 4. 2019 - 10:58https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuseKazdy z 28 jadrovych kremiku ma 48 PCIe linek, takze ten slepenec dvou bude mit k dispozici max 96 linek, tj. 6 plnych slotu, v Gen3. AMD podle clanku maji 8 slotu v gen4, tj. 2.666x prekonava Intel co se tyce hrube konektivity :)https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuse#comment-1247600
+
Ufff. Před 5-ti lety jsem stavěl velké a rychlé úložiště (NVRAM DIMMy NVDIMM-N a NVMe PCIe kartami cachované ZFS a CEPH, se SAS připojenými SSD a HDD), tenkrát kvůli většímu počtu PCIe na 4-soketových Xeonech, propojených InfiniBandem QDR. Jak tak koukám, dnes by to rychlostí a počtem PCIe zvládly dvě takovéhle 2-soketové EPYC Rome potvory. Cenově to raději ani nepočítám...
+1
0
-1
Je komentář přínosný?
Ufff. Před 5-ti lety jsem
kvolaa https://diit.cz/profil/kvolaa
9. 4. 2019 - 13:04https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuseUfff. Před 5-ti lety jsem stavěl velké a rychlé úložiště (NVRAM DIMMy NVDIMM-N a NVMe PCIe kartami cachované ZFS a CEPH, se SAS připojenými SSD a HDD), tenkrát kvůli většímu počtu PCIe na 4-soketových Xeonech, propojených InfiniBandem QDR. Jak tak koukám, dnes by to rychlostí a počtem PCIe zvládly dvě takovéhle 2-soketové EPYC Rome potvory. Cenově to raději ani nepočítám...https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuse#comment-1247663
+
Tak ciste hypoteticky, cenove by 2-socket EPYC system mohl vyjit levneji nez 4-socket Intel, ale to zalezi jake konkretni CPU konfigurace vyda AMD a za jakou cenu. Jestli vydaji neco (relativne) levnejsiho s nizsim poctem jader ale plnym poctem PCI linek, tak soudruzi v Intelu by mohli mit docela problem...
+1
0
-1
Je komentář přínosný?
Tak ciste hypoteticky, cenove
franzzz https://diit.cz/profil/franz-z
9. 4. 2019 - 18:36https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuseTak ciste hypoteticky, cenove by 2-socket EPYC system mohl vyjit levneji nez 4-socket Intel, ale to zalezi jake konkretni CPU konfigurace vyda AMD a za jakou cenu. Jestli vydaji neco (relativne) levnejsiho s nizsim poctem jader ale plnym poctem PCI linek, tak soudruzi v Intelu by mohli mit docela problem...https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuse#comment-1247747
+
Tak u takových úložišť jde vždycky o co největší propustnost a co nejmenší latenci. Takže jsou vyžadované co nejvýkonnější procesory, raději méně jader a vyšší frekvence a co nejvyšší IPC; a nízkolatenční sítě mezi uzly, což víceméně vylučuje 10GbE a vede přímou cestou k InfiniBandu. Už jenom PCIe 4.0, nové modely NVMe karet/disků, SAS3 a hojnost PCIe v jednom stroji způsobuje, že původní složitý a mnohouzlový design se pěkně smrskne - nebo lze za stejné peníze postavit čudo s (odhadem) 5x vyšší kapacitou a 5x vyšší datovou propustností (s latencí se to moc nepolepší). Také nový InfiniBand FDR 100 tomu kapku pomůže (třeba i v tom, že na rozdíl od QDR to není třeba tahat 2x).
To původní umělo 4 GB/s stálý zápis/čtení... dnes není problém postavit za stejné peníze cluster s 20 GB/s, při stejné kapacitě. Pokud někoho zajímá, k čemu taková věc slouží - no tak buď do DC jako hlavní úložiště nebo do laborky na ukládání dat z experimentů (třeba DNA sekvencéry blijou data fakt rychle a je jich hodně).
+1
0
-1
Je komentář přínosný?
Tak u takových úložišť jde
kvolaa https://diit.cz/profil/kvolaa
10. 4. 2019 - 10:42https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuseTak u takových úložišť jde vždycky o co největší propustnost a co nejmenší latenci. Takže jsou vyžadované co nejvýkonnější procesory, raději méně jader a vyšší frekvence a co nejvyšší IPC; a nízkolatenční sítě mezi uzly, což víceméně vylučuje 10GbE a vede přímou cestou k InfiniBandu. Už jenom PCIe 4.0, nové modely NVMe karet/disků, SAS3 a hojnost PCIe v jednom stroji způsobuje, že původní složitý a mnohouzlový design se pěkně smrskne - nebo lze za stejné peníze postavit čudo s (odhadem) 5x vyšší kapacitou a 5x vyšší datovou propustností (s latencí se to moc nepolepší). Také nový InfiniBand FDR 100 tomu kapku pomůže (třeba i v tom, že na rozdíl od QDR to není třeba tahat 2x).
To původní umělo 4 GB/s stálý zápis/čtení... dnes není problém postavit za stejné peníze cluster s 20 GB/s, při stejné kapacitě. Pokud někoho zajímá, k čemu taková věc slouží - no tak buď do DC jako hlavní úložiště nebo do laborky na ukládání dat z experimentů (třeba DNA sekvencéry blijou data fakt rychle a je jich hodně).https://diit.cz/clanek/epyc-rome-dual-socket-nabidne-az-162-pcie-4-linek/diskuse#comment-1247843
+
A co na to soudruzi v Inteli? Ponivac na rok 2019 je zlepenec dvoch 28C serverovskych kremikov asi konecna.
Ale so spotrebou maju v inteli jasno: najvykonnejsi model 400W papier / kruta, bezna a osvedcena realita +25% teda 500W / s AVX512 pouhych 600W, odporucaju vodu. Cena s ohladom na jeden kus 28C kremika od 20 do 35 tisic $. IBA za server CPU!
Tak ten by jich mel mit taky vic ne? Kdyz tam ma dva kremiky ...
Dostane se 2x rychleji do křemíkového nebe :D
a sebou celou desku :)
Kazdy z 28 jadrovych kremiku ma 48 PCIe linek, takze ten slepenec dvou bude mit k dispozici max 96 linek, tj. 6 plnych slotu, v Gen3. AMD podle clanku maji 8 slotu v gen4, tj. 2.666x prekonava Intel co se tyce hrube konektivity :)
Ufff. Před 5-ti lety jsem stavěl velké a rychlé úložiště (NVRAM DIMMy NVDIMM-N a NVMe PCIe kartami cachované ZFS a CEPH, se SAS připojenými SSD a HDD), tenkrát kvůli většímu počtu PCIe na 4-soketových Xeonech, propojených InfiniBandem QDR. Jak tak koukám, dnes by to rychlostí a počtem PCIe zvládly dvě takovéhle 2-soketové EPYC Rome potvory. Cenově to raději ani nepočítám...
Tak ciste hypoteticky, cenove by 2-socket EPYC system mohl vyjit levneji nez 4-socket Intel, ale to zalezi jake konkretni CPU konfigurace vyda AMD a za jakou cenu. Jestli vydaji neco (relativne) levnejsiho s nizsim poctem jader ale plnym poctem PCI linek, tak soudruzi v Intelu by mohli mit docela problem...
Tak u takových úložišť jde vždycky o co největší propustnost a co nejmenší latenci. Takže jsou vyžadované co nejvýkonnější procesory, raději méně jader a vyšší frekvence a co nejvyšší IPC; a nízkolatenční sítě mezi uzly, což víceméně vylučuje 10GbE a vede přímou cestou k InfiniBandu. Už jenom PCIe 4.0, nové modely NVMe karet/disků, SAS3 a hojnost PCIe v jednom stroji způsobuje, že původní složitý a mnohouzlový design se pěkně smrskne - nebo lze za stejné peníze postavit čudo s (odhadem) 5x vyšší kapacitou a 5x vyšší datovou propustností (s latencí se to moc nepolepší). Také nový InfiniBand FDR 100 tomu kapku pomůže (třeba i v tom, že na rozdíl od QDR to není třeba tahat 2x).
To původní umělo 4 GB/s stálý zápis/čtení... dnes není problém postavit za stejné peníze cluster s 20 GB/s, při stejné kapacitě. Pokud někoho zajímá, k čemu taková věc slouží - no tak buď do DC jako hlavní úložiště nebo do laborky na ukládání dat z experimentů (třeba DNA sekvencéry blijou data fakt rychle a je jich hodně).
Pro psaní komentářů se, prosím, přihlaste nebo registrujte.