Diit.cz - Novinky a informace o hardware, software a internetu

188GB HBM3 Nvidia H100 NVL vznikla na míru pro Chat-GPT

Zdroj: Nvidia

Nvidia se pochlubila novou verzí akcelerátoru Hopper, která vznikla na míru pro Chat-GPT. Zajímavá je teoreticky až 2× vyšší energetickou efektivitou a nezvyklou kapacitou paměti, 2× 94 GB HBM3…

Nvidia loni uvedla akcelerátory Hopper ve dvou základních podobách. Jednak jako SXM5 moduly a jednak jako PCIe karty. Jako obvykle dosahuje SXM5 varianta vyššího výkonu i TDP, neboť je na modulu podstatně více prostoru pro velký radiátor chladiče. Nová varianta označená jako NVL má však opět podobu PCIe karty, respektive karet. Nvidia H100 NVL jsou totiž dvě PCIe karty spojené můstkem NVLINK. Nejde však o původní H100 PCIe. Nvidia k tomuto řešení sáhla patrně pro vyšší výpočetní denzitu takového řešení. Zkrátka méně prostoru zabraného chladičem ~ prostor pro více GPU. Jak vyplývá z parametrů, energetická efektivita má být 2× vyšší (2× více výkonu při stejném TDP díky dvojici karet s TDP polovičním oproti SXM5 provedení). Lze však očekávat, že realita bude trochu níže, protože reálné a papírové takty se budou patrně nezanedbatelně lišit.

 Nvidia A100Nvidia
H100
GPUGA100GH1002× GH100 „NVL“
architekturaAmpereHopper
formátSXM4SXM5PCIe2× PCIe
CU/SM1081321142× 132?
FP32 jader691215872
16896
145922× 16896?
FP64 jader3456844872962× 8448?
INT32 jader6912844872962× 8448?
Tensor Cores4325284562× 528?
takt1410 MHz1980 MHz1750 MHz1980 MHz?
 ↓↓↓ T(FL)OPS ↓↓↓
FP16
78120 1341022× 134
BF16
39120 1341022× 134
FP32
19,560 67512× 67
FP64
9,730 34262× 34
INT4
????
INT8????
INT16????
INT3219,530 34262× 34
FP8 tensor1979/3958*1513/3026*1979/3958*
FP16 tensor312/624*
989/1979*757/1513*989/1979*
BF16 tensor312/624*
989/1979*757/1513*989/1979*
FP32 tensor19,560? 67?51?2× 67?
TF32 tensor
156/312*
495/989*378/757*2× 495/989*
FP64 tensor
19,567512× 67
INT8 tensor
624/1248*
1979/3958*1513/3026*2× 1979/3958*
INT4 tensor
1248/2496*
???
 ↑↑↑ T(FL)OPS ↑↑↑
TMU432528 4562× 528
LLC40 MB50 MB2× 50 MB?
sběrnice5120bit5120bit6144bit
paměť40 GB80 GB80 GB2× 94 GB
HBM2,43 GHz3,2 GHzHBM3
5,23 GHz
 HBM2E
3,2 GHz
HBM3
5,1 GHz
pam. prop.1555 GB/s2048 GB/s3350 GB/s 2048 GB/s2× 3,9 TB/s
TDP400 W700-800 W 350 W700 W
transistorů54,2 mld.80 mld.2× 80 mld.
plocha GPU826 mm²814 mm²2× 814 mm²
proces7 nm4nm
datum5. 202011. 20202022?H2 2023

Protože jsou jazykové modely Chat-GPT velké, osadila Nvidia poprvé GPU GH100 všemi šesti HBM moduly (tzn. plně využila 6144 bit sběrnici) a použila navíc HBM3 (oproti HBM2E na původní PCIe variantě). To by teoreticky odpovídalo 6× 2× 16 GB = 192 GB paměti, jenže reálně specifikace uvádí 188 GB. Jak toho lze dosáhnout, když žádné 15,66GB moduly HBM neexistují? Nvidia se nejspíš dohodla s některým výrobcem pamětí, který jí dodává moduly s deaktivovanými vadnými buňkami, což by mohlo znamenat mírně nižší kapacitu, ale i podstatně výhodnější cenu.

Přestože Nvidia hovoří o vydání H100 NVL, reálně mají být tyto akcelerátory dostupné někdy ve druhém pololetí letošního roku.

Zdroje: 

Diskuse ke článku 188GB HBM3 Nvidia H100 NVL vznikla na míru pro Chat-GPT

Pondělí, 27 Březen 2023 - 13:17 | Waffer47 | Realny clovek je 1000x prinosnejsi, radsi si na...
Pátek, 24 Březen 2023 - 17:24 | Wladows | Poběží na tom i Skynet?
Pátek, 24 Březen 2023 - 13:16 | no-X | To jsou pěkné teorie, které by dávaly smysl, ale...
Pátek, 24 Březen 2023 - 12:50 | melkor | A pak, že Sci-Fi je brak. 87 let od vydání a...
Pátek, 24 Březen 2023 - 11:23 | TyNyT | a tohle sedí taky: Přes tento střízlivý úsudek...
Pátek, 24 Březen 2023 - 11:19 | TyNyT | Na konci protokolu shrnula odborná komise...
Pátek, 24 Březen 2023 - 10:40 | jk2 | Dle mých zkušeností je nutné výsledky z Chat-GPT...
Pátek, 24 Březen 2023 - 10:37 | danieel | Ta pamet bude mit spise chybejici kanal. Kazdy...
Pátek, 24 Březen 2023 - 10:21 | RedMaX | Ptali se Chat-GPT a říkal, že je současný český...

Zobrazit diskusi