Nvidia Ingin Kuasai Penuh Pusat Data AI Anda

Nvidia.

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.


**Poin Penting ZDNET**
* Nvidia memamerkan lima rak peralatan yang mencakup semua aspek infrastruktur AI.
* Nvidia berargumen bahwa ekonomi AI lebih baik ketika semua komponen berasal dari Nvidia.
* Ambisi Nvidia yang meluas mencakup robotika dan bahkan AI di luar angkasa.


Gambaran yang Nvidia suguhkan kepada media untuk konferensi GTC di San Jose, California, pekan ini adalah sederetan 40 persegi panjang yang mewakili berbagai jenis rak server pusat data. Tanpa label, rak-rak itu berdiri seperti rak buku berisi karya lengkap Shakespeare, atau, yang lebih seram, seperti barisan pasukan.

Pesan implisit dari dinding rak yang mengesankan ini adalah bahwa Nvidia, jika belum, pada akhirnya akan menguasai semua pemrosesan di pusat data, dari ujung ke ujung.

Baca juga: OS inilah yang secara diam-diam menggerakkan semua AI — dan sebagian besar pekerjaan TI masa depan

Di atas panggung, CEO Nvidia Jensen Huang menggunakan pidato kuncinya pada hari Senin untuk mengumumkan perluasan penawaran chip dan sistem perusahaan. Lini produk yang ada mencakup chip CPU Vera, chip GPU Rubin, dan kini, jenis rak peralatan baru bergabung, untuk inferensi ultra-cepat yang disebut LPX.

Rak baru khusus untuk inferensi AI

Rak LPX, yang akan tersedia tahun ini, terdiri dari chip yang dirancang Nvidia menggunakan properti intelektual yang dilisensikannya pada Desember lalu dari startup AI Groq seharga $20 miliar.

Pendekatan Groq yang telah ditransformasi, diimplementasikan dalam Nvidia Groq 3 LPU, akan digunakan dalam LPX dikombinasikan dengan GPU Rubin untuk mencapai keseimbangan optimal antara kecepatan inferensi dan total data yang dapat ditangani.

“Groq 3 LPU dapat menggabungkan FLOPS [operasi floating-point per detik] ekstrem dari GPU dan bandwidth LPU menjadi satu,” ujar Ian Buck, Kepala Hiper-skala dan Komputasi Kinerja Tinggi Nvidia, dalam pengarahan media.

Baca juga: Serangan cloud semakin cepat dan mematikan — ini rencana pertahanan terbaik Anda

MEMBACA  Trump membantah pernah mengatakan 'tahan dia.' Seth Meyers membuktikan sebaliknya.

LPU Groq asli, yang merupakan singkatan dari “language processing unit,” memiliki 500 megabita SRAM on-chip, bentuk memori cepat yang jauh lebih besar daripada cache memori chip biasa. SRAM dapat menyimpan bobot — alias parameter neural — dari model bahasa besar, serta “KV cache,” hasil perhitungan perantara yang mempercepat inferensi.

Dengan menggunakan LPU dalam rak bersama GPU, SRAM LPU dapat mengambil data yang paling dibutuhkan, mengurangi kebutuhan meminta data dari DRAM off-chip yang harus dilakukan GPU. Cache SRAM lokal itu secara dramatis menurunkan latensi, waktu bolak-balik untuk mengambil dan mengeluarkan jawaban atas kueri, kata Buck.

“Hal-hal yang membutuhkan kueri seharian akan diproduksi dalam waktu kurang dari satu jam,” ujarnya.

Mengubah ekonomi AI

Nvidia mengklaim LPU juga dapat melakukan pemrosesan kueri dengan efisiensi yang jauh lebih baik. Lembaga riset pasar TechInsights melaporkan, berdasarkan silikon Groq yang ada sebelum kesepakatan Nvidia, bahwa “energi per bit” LPU untuk akses memori adalah sepertiga picojoule, atau 20 kali lebih sedikit daripada 6 picojoule GPU untuk mengakses DRAM.

Untuk jumlah uang yang sama per token, LPU Groq di rak LPX akan menghasilkan 35 kali lebih banyak token per detik per megawatt daya, kata Buck, menggunakan contoh 500.000 token yang diproses per detik dengan harga $45 per juta token.

Baca juga: Alasan Anda akan membayar lebih untuk AI pada 2026, dan 3 tips menghemat uang untuk dicoba

Peningkatan drastis dalam pengambilan dan pengiriman token itu juga mengarah pada peningkatan 10 kali lipat dalam pendapatan dolar yang dapat dihasilkan penyedia AI per detik per megawatt, kata Buck.

Meski tidak disebutkan secara eksplisit, mengurangi penggunaan DRAM off-chip semakin penting mengingat harga DRAM sedang melonjak saat ini.

Lebih baik jika semua dibeli dari kami

Rak LPX adalah bagian dari presentasi keseluruhan Huang kepada dunia AI: bahwa perusahaan menawarkan ekonomi yang lebih baik dengan menjual semua bagian dari persamaan — bukan hanya chip Vera, Rubin, dan LPU, tetapi juga perangkat lunak yang berjalan di atasnya.

MEMBACA  Ponsel Berkamera Gimbal Ini Hal Paling Aneh yang Saya Lihat di MWC Sejauh Ini

“Dari lima lapisan kue energi, chip, infrastruktur itu sendiri, model, dan aplikasi, infrastruktur multi-lapis inilah yang mendorong pendapatan dan penciptaan lapangan kerja,” kata Buck dari Nvidia kepada wartawan.

LPX berdiri dalam barisan 40 persegi panjang itu di samping empat rak lain yang dibicarakan Huang, yang membentuk tawaran perusahaannya untuk infrastruktur AI yang lengkap.

Ada Vera-Rubin NVL72, rak yang terdiri dari 72 CPU Rubin dan 36 CPU Vera; rak CPU-only baru, rak CPU Vera, yang terdiri dari 256 CPU Vera dan 400 terabita DRAM; rak penyimpanan data jenis baru, Bluefield 4 STX yang berfungsi sebagai repositori untuk KV cache di semua GPU; dan versi terbaru rak peralatan jaringan Ethernet Nvidia, Spectrum-6 SPX.

Baca juga: Model AI fisik Nvidia membuka jalan bagi robot generasi berikutnya — inilah yang baru

Buck menjelaskan bahwa rak CPU Vera mempercepat semua tugas AI agenik yang terlalu berat untuk CPU x86 berbasis Intel atau AMD konvensional.

“GPU saat ini sebenarnya memanggil CPU untuk melakukan pemanggilan alat, kueri SQL, dan kompilasi kode,” kata Buck. “Eksekusi sandbox ini adalah bagian kritis dari pelatihan dan penyebaran agen di seluruh pusat data, dan CPU tersebut perlu cepat.”

Dia mengatakan rak CPU Vera dapat menjadi satu setengah kali lebih cepat pada tugas CPU single-threaded dibandingkan CPU x86 yang ada. Hasilnya, rak STX akan meningkatkan performa per watt empat kali lipat, menggandakan halaman per detik untuk data perusahaan, dan menghasilkan lima kali token per detik dari memori konteks yang diperlukan untuk pabrik AI yang menjalankan alur kerja GenTech.

“Hasilnya luar biasa,” ujar Buck.

**Nvidia.**

Rak penyimpanan data baru ini, dijelaskan Buck, merupakan “lapisan bersama berjalur lebar tinggi yang dioptimalkan untuk menyimpan dan mengambil data cache _key-value_ masif yang dihasilkan oleh alur kerja LLM dan GenTech.” Meskipun rak ini tersusun dari DPU (_data-processing units_) Nvidia Bluefield, yang merupakan pendamping CPU, STX hanyalah sebuah “arsitektur referensi,” ujar Buck. Artinya, rak fisiknya akan dirancang dan dibangun oleh mitra-mitra Nvidia.

MEMBACA  Belum Menerima Cek Keamanan Sosial April Anda? Apa yang Harus Anda Lakukan

### **Memperluas Ambisi**

Skala dan luas ambisi yang ditampilkan dalam keynote Huang sungguh luar biasa. Seperti dirinci kolega saya Radhika Rajkumar dalam liputannya, Huang juga mempromosikan penawaran Nvidia untuk AI agenik, [NemoClaw](https://www.zdnet.com/article/nvidia-openclaw-nemoclaw-security-stack-gtc-2026/), serta berbagai penawaran untuk [AI fisik](https://www.zdnet.com/article/nvidia-openclaw-nemoclaw-security-stack-gtc-2026/), terutama robotika. Huang bahkan membicarakan AI di luar angkasa, walau detail penerapan server berbasis satelit masih samar, menurut Radhika.

Buck menggambarkan dinding berisi berbagai server tersebut sebagai “sebuah _co-design_ ujung-ke-ujung yang ekstrem untuk memberikan nilai maksimal dari pabrik AI bagi semua beban kerja di seluruh industri AI.”

**Juga:** [Nvidia bertaruh pada OpenClaw, tetapi menambahkan lapisan keamanan – begini cara kerja NemoClaw](https://www.zdnet.com/article/nvidia-openclaw-nemoclaw-security-stack-gtc-2026/)

Ini juga merupakan cara yang cerdik bagi Nvidia untuk memperjelas proposisi nilainya kepada siapa pun yang mempertimbangkan menggunakan CPU dan GPU pesaing AMD, atau peralatan AI eksotis dari penantang startup seperti Cerebras Systems. Dengan portofolio lima rak peralatan yang mencakup semua fungsi pusat data, Huang menyampaikan kepada pelanggan bahwa semuanya akan bekerja lebih efisien dan menghasilkan pendapatan AI lebih besar bila seluruhnya disuplai oleh Nvidia.

Bagi Huang, ini juga merupakan puncak dari pencarian selama puluhan tahun untuk mengambil alih bagian-bagian komputasi dari pemain lama. Di masa lalu, ia berusaha menyerbu pasar server CPU dengan CPU server tangguh seperti Denver. Namun Huang harus mundur ketika kekuatan mapan CPU Intel Xeon terlalu sulit ditaklukkan.

Kini, dengan rak lengkap berisi semua komponen untuk sebuah pusat data, perusahaan Huang siap untuk mendefinisikan era komputasi baru dan mengalahkan perusahaan-perusahaan yang mendefinisikan era sebelumnya.

Tinggalkan komentar