Samsung ohlásil HBM-PIM, paměti s integrovaným AI akcelerátorem
Samotné HBM paměti asi není potřeba představovat. Rychlé řešení s nízkými latencemi, které těží z velmi širokého IO rozhraní vycházejícího přímo z křemíku, bez potřeby dalšího rozhraní s pouzdrem, dalšího rozhraní s PCB, spojů v PCB, dalšího rozhraní mezi PCB a CPU/GPU, rozhraní pouzdrem CPU/GPU a křemíkem. To dává HBM nejen vysoké kapacity datových přenosů, ale zároveň snižuje energetické nároky těchto přenosů. Které jsou dále sníženy nízkými fyzickými takty HBM paměti.
Samsung však nabyl dojmu (v principu oprávněného), že lze ještě více času (latencí) a energie ušetřit, pokud se data vůbec nemusejí přesouvat z modulů HBM (k procesoru). Vyvinul paměti nazvané HBM-PIM (=Processing In Memory), které integrují obvod pro akceleraci umělé inteligence (AI). Některé výpočty tak lze realizovat přímo na úrovni pamětí.
S pamětmi HBM2 „Aquabolt“, tedy efektivně 2,4GHz HBM2, které Samsung akcelerátorem vybavil (v blíže nespecifikovaném testu a testovacím systému) bylo dosaženo více než 2× vyššího výkonu oproti klasickým 2,4GHz HBM2. Zároveň klesla spotřeba o 70 %. Podrobnosti chce společnost zveřejnit na International Solid-State Circuits Virtual Conference (ISSCC) příští týden.
Paměti využívají stávající hardwarové rozhraní i komunikační protokol, nevyžadují podle Samsungu žádné změny na straně systému. Dosud však nic nevíme o specifikacích integrovaného AI akcelerátoru. HBM-PIM plánuje testovat Argonne National Laboratory a Samsung očekává, že jejich validace bude hotová do konce letošního roku.
V tomto kontextu však nebude od věci trochu mírnit nadšení. Důvody vysvětlí pár ocitovaných nadpisů jako Samsung urychluje vydání HBM3 z ledna 2018 nebo Samsung vydal 3,2-4,2GHz HBM2E z února 2020.