Samsung menjadi yang pertama memperkenalkan HBM3E 12-stack di tengah permintaan tinggi dari AI

Samsung menjadi yang pertama mengenalkan 12-stack HBM3E di tengah permintaan tinggi dari AI

Samsung mengumumkan pada hari Selasa bahwa mereka telah mengembangkan DRAM HBM3E 12-stack pertama di industri, menjadikannya memori bandwidth tinggi dengan kapasitas tertinggi hingga saat ini. Perusahaan teknologi asal Korea Selatan tersebut mengatakan bahwa HBM3E 12H DRAM menyediakan bandwidth maksimum sebesar 1.280GB/s dan kapasitas sebesar 36GB. Bandwidth dan kapasitas tersebut naik sebesar 50% dibandingkan dengan HBM3 8-stack, kata Samsung.

HBMs terdiri dari beberapa modul DRAM yang ditumpuk secara vertikal, masing-masing disebut sebagai stack atau lapisan. Dalam kasus terbaru Samsung, setiap modul DRAM memiliki kapasitas sebesar 24 gigabit (Gb), setara dengan 3 gigabyte (GB), dan terdapat dua belas modul. Pembuat memori Samsung, SK Hynix, dan Micron bersaing untuk menumpuk lebih banyak modul sambil membatasi tinggi tumpukan untuk membuat chip se-tipis mungkin dengan kapasitas yang lebih besar.

Ketiga perusahaan tersebut berencana untuk meningkatkan produksi HBM mereka tahun ini, dengan pasar chip memori yang tampaknya sudah melewati siklus turun, dan untuk memenuhi permintaan tinggi dari popularitas kecerdasan buatan (AI), yang telah meningkatkan permintaan untuk GPU – terutama yang dibuat oleh Nvidia – yang dipasangkan dengan HBMs ini.

Menurut Samsung, perusahaan menerapkan film non-conductive thermal compression (TC NCF) yang canggih untuk membuat HBM3E 12-stack memiliki tinggi yang sama dengan yang berisi 8-stack untuk memenuhi persyaratan paket. Film tersebut lebih tipis dari yang sebelumnya digunakan dan menghilangkan celah antara tumpukan serta celah di antara mereka dikurangi menjadi tujuh mikrometer, kata perusahaan, memungkinkan HBM3E 12-stack menjadi lebih padat secara vertikal sebesar lebih dari 20% dibandingkan dengan 8-stack.

Samsung mengatakan TC NCF juga memungkinkan penggunaan “bumps” kecil dan besar, di mana selama penyambungan chip, “bumps” kecil digunakan di area sinyal dan yang besar di tempat yang memerlukan disipasi panas.

MEMBACA  Samsung akan menghadirkan fitur AI ke Galaxy S23 dan model lipat, dengan satu kejutan besar

Perusahaan teknologi tersebut mengklaim bahwa kinerja dan kapasitas yang lebih tinggi dari HBM3E 12H akan memungkinkan pelanggan untuk mengurangi total biaya kepemilikan untuk pusat data. Untuk aplikasi AI, kecepatan rata-rata pelatihan AI dapat ditingkatkan sebesar 34% dan jumlah pengguna bersamaan layanan inferensi dapat ditingkatkan sebesar 11,5 kali lipat dibandingkan dengan HBM3 8H, kata Samsung.

Perusahaan telah memberikan sampel HBM3E 12H kepada pelanggan dan berencana untuk memulai produksi massal dalam paruh pertama tahun ini.