Kesepakatan Nvidia dan Meta Menandai Era Baru Kekuatan Komputasi

Tanyakan pada orang apa yang diproduksi Nvidia, dan kemungkinan besar jawaban pertama mereka adalah “GPU.” Selama beberapa dekade, pembuat chip ini telah dikaitkan dengan komputasi paralel canggih. Kemunculan AI generatif dan lonjakan permintaan GPU yang menyertainya memang menjadi berkah bagi perusahaan.

Namun, langkah terbaru Nvidia menandakan bahwa mereka tengah berupaya mengunci lebih banyak pelanggan di segmen pasar AI yang kurang intensif secara komputasi—pelanggan yang belum tentu membutuhkan GPU paling kuat untuk melatih model AI, tetapi justru mencari cara paling efisien untuk menjalankan perangkat lunak AI yang bersifat agen. Nvidia baru-baru ini menghabiskan miliaran dolar untuk melisensi teknologi dari startup chip yang fokus pada komputasi AI latensi rendah, serta mulai menjual CPU mandiri sebagai bagian dari sistem superchip terbarunya.

Kemarin, Nvidia dan Meta mengumumkan bahwa raksasa media sosial tersebut setuju untuk membeli chip Nvidia senilai miliaran dolar guna menyediakan daya komputasi untuk proyek infrastruktur masif mereka—dengan CPU Nvidia sebagai bagian dari kesepakatan itu.

Kesepakatan multitalun ini merupakan perluasan dari kemitraan erat yang telah berjalan antara kedua perusahaan. Meta sebelumnya memperkirakan bahwa pada akhir 2024, mereka akan membeli 350.000 chip H100 dari Nvidia, dan pada akhir 2025 perusahaan akan memiliki akses ke total 1,3 juta GPU (meski tidak jelas apakah semuanya chip Nvidia).

Sebagai bagian dari pengumuman terbaru, Nvidia menyatakan bahwa Meta akan “membangun pusat data hyperscale yang dioptimalkan baik untuk pelatihan maupun inferensi, mendukung peta jalan infrastruktur AI jangka panjang perusahaan.” Ini mencakup “penyebaran skala besar” CPU Nvidia dan “jutaan GPU Blackwell dan Rubin dari Nvidia.”

Perlu dicatat, Meta adalah raksasa teknologi pertama yang mengumumkan pembelian skala besar atas CPU Grace Nvidia sebagai chip mandiri, suatu opsi yang disebutkan Nvidia saat mengungkap spesifikasi lengkap superchip Vera Rubin baru mereka pada Januari lalu. Nvidia juga menekankan bahwa mereka menawarkan teknologi yang menghubungkan berbagai chip, sebagai bagian dari pendekatan “soup-to-nuts” mereka terhadap daya komputasi, seperti dikatakan seorang analis.

MEMBACA  Paus Leo XIV Mulai Kunjungan ke Turkiye dengan Doa dan Pesan Persatuan

Ben Bajarin, CEO dan analis utama di firma riset pasar teknologi Creative Strategies, mengatakan langkah ini menandakan Nvidia menyadari bahwa semakin banyak perangkat lunak AI yang kini perlu berjalan di CPU, mirip dengan cara aplikasi cloud konvensional bekerja. “Alasan industri sangat optimis terhadap CPU dalam pusat data saat ini adalah AI agenik, yang menuntut hal baru pada arsitektur CPU tujuan umum,” ujarnya.

Laporan terbaru dari buletin chip Semianalysis menggarisbawahi poin ini. Analis mencatat bahwa penggunaan CPU semakin cepat untuk mendukung pelatihan dan inferensi AI, mengutip salah satu pusat data Microsoft untuk OpenAI sebagai contoh, di mana “puluhan ribu CPU kini diperlukan untuk memproses dan mengelola petabyte data yang dihasilkan GPU, sebuah kasus penggunaan yang tidak akan diperlukan tanpa kehadiran AI.”

Namun Bajarin mencatat, CPU tetaplah hanya satu komponen dari sistem perangkat keras AI paling canggih. Jumlah GPU yang dibeli Meta dari Nvidia masih melebihi jumlah CPU.

“Jika Anda salah satu hyperscaler, Anda tidak akan menjalankan seluruh komputasi inferensi Anda di CPU,” kata Bajarin. “Anda hanya perlu perangkat lunak apa pun yang dijalankan cukup cepat di CPU untuk berinteraksi dengan arsitektur GPU yang sebenarnya menjadi penggerak komputasi tersebut. Kalau tidak, CPU justru menjadi hambatan.”

Meta menolak berkomentar tentang perluasan kesepakatan mereka dengan Nvidia. Dalam panggilan hasil kinerja terkini, raksasa media sosial itu menyatakan mereka berencana meningkatkan pengeluaran untuk infrastruktur AI secara dramatis tahun ini menjadi antara 115 miliar hingga 135 miliar dolar, naik dari 72,2 miliar dolar tahun lalu.