HMB to skrót od High-Bandwith Memory, czyli „pamięć o szybkiej przepustowości”. Prace nad nią są bardzo zaawansowane, ponieważ masowa produkcja ma zacząć się w pierwszej połowie 2024 roku. Do stworzenia innowacyjnego układu wykorzystana została technologia 3D, pozwalająca na zwiększenie ilości warstw.
Samsung i Micron wspólnie dla przyszłości
HMB3E 12H DRAM to moduł pamięci stworzony w 12-warstwowym stosie przy wykorzystaniu technologii 3D. W stosunku do używanych dotąd modułów 8-warstwowych mamy zauważalną różnicę – jest w stanie zwiększyć o 50% zarówno pojemność, jak i wydajność. Przepustowość wynosi tu 1280 GB/s, a pojemność to czyste szaleństwo – wynosi aż 36 GB! Kluczem do osiągnięcia takich wyników było zastosowanie nieprzewodzącej folii kompresyjnej (TC NCF).
Folia taka pozwala na zredukowanie pustki pomiędzy poszczególnymi warstwami. Jej grubość wynosi zaledwie 7 mikrometrów, a pozioma gęstość została podniesiona o 20%. W efekcie całość ma lepsze właściwości termalne i działa niezawodnie. Jak szacuje Samsung, moduł HBM3E 12H umożliwi szkolenie pamięci szybsze aż o 34% w stosunku do przeciętnie używanych obecnie modeli.
Czytaj też: Malutka, ale jak zasuwa! Micron pokazał najmniejszą na świecie pamięć UFS
Układy HBM3E będą częścią rdzeni Tensor w GPU Nvidia H2000, a mają one trafić do pierwszy odbiorców w drugim kwartale 2024 roku. Dlaczego? Mają stanowić “optymalne rozwiązanie dla akceleratorów SI”, które wymagają coraz więcej pamięci DRAM. Podsumowując – SI dostanie kolejny mocny impuls do rozwoju.
Samsung już obecnie rozsyła pierwsze moduły do wybranych partnerów – zapewne w celu testów praktycznych. A szefostwo Microna cieszy się, że nowe rozwiązanie wesprze mocno sprzedaż oraz pozwoli zaspokoić rosnące wymagania kontrahentów.