Diit.cz - Novinky a informace o hardware, software a internetu

Nvidia uvádí DGX GH200 AI Supercomputer jako 1 EFLOPS řešení. Jenže…

V době uvedení výpočetního GPU Hopper ohlásila Nvidia také tzv. Grace Hopper superchip alias Hopper GPU a Grace CPU (ARM) na jednom PCB. Zahájení jeho výroby nyní ohlásila, k tomu i superpočítač…

Nejde však o jeden konkrétní superpočítač stavěný na míru pro konkrétního zákazníka, ale standardizovaný produkt pro sériovou výrobu. Prezentován je jako řešení, které dosahuje výkonu 1 EFLOPS. Jenže 1 EFLOPS superpočítačů je na světě pár a rozhodně se taková řešení nevyrábějí sériově. Kde je háček?

Výkon superpočítačů se tradičně uvádí pro univerzální výpočetní výkon při přesnosti FP64 / double-precision. To je v případě Hopper 30 TFLOPS na jedno GPU, takže by k dosažení 1 EFLOPS bylo zapotřebí zhruba 35 tisíc těchto čipů. Což samozřejmě sériově vyráběno nebude. Jak to tedy je?

Aby Nvidia mohla vydat ohromující tiskovou zprávu avizující 1 EFLOPS řešení (AMD má >1 EFLOPS superpočítač v provozu, druhý bude spuštěn letos, Intel spustí Auroru rovněž letos), poněkud přiohla terminologii a čísla. Pokud totiž hodnotu 1 EFLOPS vydělíme v tiskovce uvedeným počtem GPU (256), dostaneme se na údaj 4000 TFLOPS. Při pohledu do naší tabulky umístěné pod odstavcem už jste možná sami přišli na to, že této hodnoty GPU Hopper dosahuje, ale nikoli v univerzálním výpočetním výkonu, nikoli v přesnosti FP64 a nikoli v klasických výpočtech.

 AMD
MI250X
AMD
MI300
Nvidia
Tesla V100
Nvidia A100Nvidia
H100
GPUAldebaranRigelGV100GA100GH100
architekturaCDNA 2CDNA 3VoltaAmpereHopper
formátOAMOAMSXM2SXM4SXM5
CU/SM220?80108132
FP32 jader14080?5120691215872
16896
FP64 jader--256034568448
INT32 jader--512069128448
Tensor Cores880?640432528
takt (boost)1700 MHz?1530 MHz1410 MHz1980 MHz
 ↓↓↓ T(FL)OPS ↓↓↓
FP16
383?31,478120
BF16
383?39120
FP32
95,7
47,8
?15,719,560
FP64
47,8?7,89,730
INT4
383????
INT8383????
INT16?????
INT32??15,719,530
FP8 tensor?2000/4000*
FP16 tensor383?125312/624*
1000/2000*
BF16 tensor383?312/624*
1000/2000*
FP32 tensor95,7?19,560?
TF32 tensor
?156/312*
500/1000*
FP64 tensor
95,7?19,560
INT8 tensor
383?624/1248*
2000/4000*
INT4 tensor
??1248/2496*
?
 ↑↑↑ T(FL)OPS ↑↑↑
TMU-??320432528
LLC16 MB?6 MB40 MB50 MB
sběrnice8192bit?4096bit5120bit5120bit
paměť128 GB128 GB32 GB / 16 GB40 GB80 GB80 GB
HBM3,2 GHz?1,755 GHz2,43 GHz3,2 GHz4,8 GHz
pam. prop.3277 GB/s?900 GB/s1555 GB/s2048 GB/s3072 GB/s
TDP500 W
560 W
?300 W400 W700 W
transistorů58,2 mld.
?21,1 mld.54,2 mld.80 mld.
plocha GPU2× ?4× ?815 mm²826 mm²814 mm²
proces6 nm5nm12 nm7 nm4nm
datum11. 2021202320175. 202011. 20202022-23

Hodnoty 4000 TFLOPS je dosahováno v přesnosti FP8 (tedy 8× nižší), pouze při tenzorových operacích a pouze při využití tzv. sparse neboli sparsity režimu. Ten lze uplatnit u výpočetních modelů, kde se předpokládá, že polovina dílčích výpočetních výsledků nebude mít na přesnost finálního výsledku příliš zásadní dopad a jako takové jsou tyto výpočty vynechané (proto je výsledný „výpočetní“ výkon dvojnásobný - vzdáleně to může připomínat DLSS).

Jaký tedy bude skutečný výpočetní výkon v jednotkách srovnatelných s ostatními superpočítači? 256 (GPU) × 30 (TFLOPS FP64) = 7680 TFLOPS = 7,68 PFLOS = 0,00768 EFLOPS.

Diskuse ke článku Nvidia uvádí DGX GH200 AI Supercomputer jako 1 EFLOPS řešení. Jenže…

Čtvrtek, 1 Červen 2023 - 00:57 | tombomino | ..kdyz se koukam na Kozenaka, tak nejak mam pocit...
Středa, 31 Květen 2023 - 18:00 | melkor | Je potřeba zákazníky patřičně motivovat ke koupi...
Středa, 31 Květen 2023 - 07:29 | skaven | k tomu ACE, co som videl z prezentacie, bolo to o...
Úterý, 30 Květen 2023 - 23:23 | DDR0 | první a první ve skoku na špek tendenčnímu článku...
Úterý, 30 Květen 2023 - 22:35 | melkor | Hodnota peněz. Díky ČNB, České koruně a českým...
Úterý, 30 Květen 2023 - 22:32 | melkor | miles, feets, square feets, pounds .. přibližná...
Úterý, 30 Květen 2023 - 21:46 | Kutil | Ty nejběžnější imperiální jednotky buď na pár...
Úterý, 30 Květen 2023 - 21:43 | Kutil | Padají peníze, tak moc?
Úterý, 30 Květen 2023 - 21:42 | Kutil | Tak si počtu.
Úterý, 30 Květen 2023 - 20:35 | Pjetro de | to sice moze byt pravda ze na AI je nieco ine,...

Zobrazit diskusi