Seorang pria berjalan melewati logo SK Hynix di lobi kantor perusahaan di Bundang, Seongnam pada 29 Januari 2021.
Jung Yeon-Je | AFP | Getty Images
SK Hynix, salah satu produsen chip memori terbesar di dunia, pada Kamis mengatakan bahwa laba kuartal kedua mencapai level tertinggi dalam 6 tahun karena mempertahankan kepemimpinannya dalam chip memori canggih yang kritis untuk komputasi kecerdasan buatan.
Berikut hasil kuartal kedua SK Hynix dibandingkan dengan LSEG SmartEstimate, yang dibobotkan terhadap perkiraan dari para analis yang lebih konsisten akurat:
Pendapatan: 16,42 triliun won Korea (sekitar $11,86 miliar), dibandingkan dengan 16,4 triliun won KoreaLaba operasional: 5,47 triliun won Korea, dibandingkan dengan 5,4 triliun won Korea
Laba operasional dalam kuartal Juni mencapai level tertinggi sejak kuartal kedua 2018, membalikkan dari kerugian 2,88 triliun won pada periode yang sama tahun lalu.
Pendapatan dari April hingga Juni meningkat 124,7% dari 7,3 triliun won yang tercatat setahun yang lalu. Ini adalah pendapatan kuartalan tertinggi sepanjang sejarah perusahaan, menurut data LSEG yang tersedia sejak 2009.
SK Hynix pada Kamis mengatakan bahwa kenaikan terus menerus dalam harga keseluruhan produk memorinya — berkat permintaan yang kuat untuk memori kecerdasan buatan termasuk memori bandwidth tinggi — menyebabkan peningkatan pendapatan sebesar 32% dibandingkan dengan kuartal sebelumnya.
Raksasa Korea Selatan ini memasok chip memori bandwidth tinggi yang mengakomodasi chip AI untuk perusahaan seperti Nvidia.
Saham SK Hynix turun hingga 7,81% pada pagi hari Kamis.
Penurunan tersebut terjadi karena indeks Kospi Korea Selatan turun hingga 1,91% setelah saham teknologi AS terjual habis semalam, mengikuti laporan pendapatan Alphabet dan Tesla yang mengecewakan. Laporan-laporan tersebut menandai pandangan pertama investor tentang bagaimana performa perusahaan-perusahaan megakap selama kuartal kedua.
“Di paruh kedua tahun ini, diperkirakan permintaan yang kuat dari server AI akan terus berlanjut serta pemulihan bertahap di pasar konvensional dengan peluncuran perangkat PC dan mobile yang didukung AI,” kata perusahaan tersebut dalam panggilan laba pada Kamis.
Memanfaatkan permintaan AI yang kuat, SK Hynix berencana untuk “meneruskan kepemimpinannya di pasar HBM dengan memproduksi massal produk HBM3E 12 lapisan.”
Perusahaan akan mulai memproduksi massal HBM3E 12 lapisan ini pada kuartal ini setelah memberikan sampel kepada pelanggan utama dan berharap untuk mengirimkan kepada pelanggan pada kuartal keempat.
Pasokan Terbatas
Penjana memori seperti SK Hynix telah secara agresif memperluas kapasitas HBM untuk memenuhi permintaan yang melonjak untuk prosesor AI.
HBM memerlukan kapasitas wafer yang lebih banyak daripada produk DRAM dinamis reguler – jenis memori komputer yang digunakan untuk menyimpan data – yang dikatakan SK Hynix juga mengalami kesulitan pasokan yang ketat.
“Kebutuhan investasi juga meningkat untuk memenuhi permintaan DRAM konvensional serta HBM yang memerlukan kapasitas wafer lebih banyak daripada DRAM reguler. Oleh karena itu, tingkat capex tahun ini diperkirakan akan lebih tinggi dari yang kami perkirakan pada awal tahun,” kata SK Hynix.
“Sementara kelebihan kapasitas diperkirakan akan meningkat tahun depan karena meningkatnya investasi industri, sebagian besar akan digunakan untuk meningkatkan produksi HBM. Jadi situasi pasokan yang ketat untuk DRAM konvensional kemungkinan akan berlanjut.”
SK Kim dari Daiwa Capital Markets dalam catatan 12 Juni mengatakan bahwa mereka mengharapkan “pasokan HBM dan memori yang ketat akan bertahan hingga tahun 2025 karena bottleneck dalam produksi HBM.”
“Oleh karena itu, kami mengharapkan lingkungan harga yang menguntungkan akan berlanjut dan SK Hynix akan mencatat laba yang kokoh pada tahun 2024-25, mendapat manfaat dari daya saingnya dalam HBM untuk unit pemrosesan grafis AI dan SSD enterprise tipe high-density untuk server AI, yang mengarah pada penilaian ulang saham,” kata Kim.
Pasokan chip memori bandwidth tinggi telah terhimpit berkat adopsi AI yang meledak yang dipicu oleh model bahasa besar seperti ChatGPT.
Boom AI diperkirakan akan membuat pasokan chip memori high-end tetap ketat tahun ini, para analis telah memperingatkan. SK Hynix dan Micron pada Mei mengatakan bahwa mereka kehabisan chip memori bandwidth tinggi untuk tahun 2024, sementara stok untuk tahun 2025 juga hampir habis terjual.
Model bahasa besar memerlukan banyak chip memori berkinerja tinggi karena chip tersebut memungkinkan model-model ini untuk mengingat detail dari percakapan sebelumnya dan preferensi pengguna untuk menghasilkan tanggapan yang mirip manusia.
SK Hynix sebagian besar telah memimpin pasar chip memori bandwidth tinggi, setelah menjadi satu-satunya pemasok chip HBM3 ke Nvidia sebelum saingan Samsung dilaporkan lulus uji untuk penggunaan chip HBM3-nya dalam prosesor Nvidia untuk pasar Tiongkok.
Perusahaan tersebut mengatakan bahwa mereka berharap dapat mengirimkan generasi berikutnya HBM4 12 lapisan mulai paruh kedua tahun 2025.