Kecepatan luar biasa Nvidia dalam mengubah (Nvidia’s lightning speed in driving change)

Buka Editor’s Digest secara gratis
Roula Khalaf, Editor dari FT, memilih cerita favoritnya dalam buletin mingguan ini.
Dalam beberapa tahun yang dibutuhkan unit pemrosesan grafis Nvidia, yang pertama kali dikembangkan untuk video game, untuk menemukan jalan mereka ke pusat dunia komputasi, chief executive Jensen Huang tidak pernah berubah. Prediksinya yang berkelanjutan bahwa kebutuhan akan bentuk baru dari “percepatan komputasi” akan menuntut arsitektur chip baru telah datang pada saat generative AI muncul.
Minggu ini, ketika perhatian dunia teknologi sepenuhnya beralih ke Nvidia untuk konferensi teknologi tahunannya, Huang memiliki mantra baru: “Komputasi full-stack”. Dunia mungkin mengenal Nvidia sebagai perusahaan chip, tapi mata CEO-nya telah tertuju pada “stack” komputasi lengkap yang diperlukan untuk AI – bukan hanya prosesor, tapi juga sistem perangkat keras lengkap dan perangkat lunak yang diperlukan untuk mengoptimalkan kinerjanya dan membuatnya berguna.
Saat garis pertempuran seputar chip AI semakin mengeras, dengan pesaing seperti AMD dan pelanggan seperti Microsoft dan Amazon mengembangkan prosesor khusus mereka sendiri, acara minggu ini adalah pengingat bahwa fokus persaingan sudah jauh melampaui chip.
Pendekatan “full-stack” Nvidia dimulai dengan fakta bahwa sebagian besar dari apa yang dijualnya bukanlah GPU individu tetapi sistem lengkap yang dibangun di sekitar chipnya, yang dirancang untuk mengoptimalkan kinerja komponennya. Sebagai pentingnya prosesor adalah koneksi antara chipnya, yang memindahkan data dengan lebih cepat, dan unit pemrosesan pusat yang diperlukan untuk mengelola proses tersebut.
“Stack” teknologi Huang juga meluas ke perangkat lunak, dalam bentuk model pemrograman dan perpustakaan kode untuk memudahkan pengembang mengakses kekuatan chipnya. Dikenal sebagai Cuda, ini telah lama diakui sebagai parit persaingan penting bagi Nvidia – meskipun persaingan akhirnya muncul dalam bentuk ekosistem perangkat lunak pesaing.
Bagi sebagian besar pengembang, yang sudah terbiasa dengan teknologi Nvidia, biaya beralih belum sebanding dengan manfaatnya. Dan semakin banyak alat yang Nvidia dan mitranya ciptakan untuk membawa teknologinya lebih dalam ke industri-industri individual – sesuatu yang saat ini terjadi dengan kecepatan kilat – semakin banyak mereka akan berinvestasi dalam arsitektur chipnya yang mendasar.
Nvidia juga telah bergerak cepat untuk memperluas perangkat lunaknya di luar Cuda. Diantara sejumlah pengumuman terbaru yang mencolok adalah rencana Nvidia untuk menawarkan model AI yang sudah dilatih, yang disebut NIMs. Bertindak sebagai chatbot, atau “co-pilot”, asisten pintar khusus industri ini dirancang untuk diintegrasikan ke dalam proses TI – mirip dengan versi enterprise dari aplikasi konsumen yang diinfuskan AI, yang disebut GPT, yang dikembangkan oleh OpenAI.
Ini adalah contoh terbaru Nvidia bergerak “ke atas stack”, mencapai layanan bernilai lebih tinggi yang membuat teknologinya lebih berguna dan memperluas pasar potensial yang dapat dicapai. Ini juga memperkuat hubungan perusahaan dengan pengembang AI. Ini adalah kebenaran umum dalam dunia teknologi bahwa fokus pengembangan terus bergerak ke level abstraksi yang lebih tinggi, ketika pengembang mencari alat yang memudahkan mereka menggunakan kekuatan komputasi yang berkembang yang tersedia bagi mereka.
Perusahaan AI terkemuka lain juga mengejar tujuan serupa. Pada hari pengembang pertamanya tahun lalu, OpenAI menguraikan alasan mengapa pengembang harus membangun langsung di atas model bahasa mereka yang besar.
Semua ini telah membuat analis Wall Street tergoda untuk menebak pasar Big Tech mana yang akan dituju Nvidia selanjutnya. Banyak pembicaraan tentang apakah Nvidia akan memisahkan perangkat lunak sebagai lini bisnis baru, potensial menambahkan mesin baru untuk pertumbuhannya. Huang juga dihadapkan pada pertanyaan minggu ini tentang apakah Nvidia akan menantang perusahaan seperti Amazon dan Microsoft dengan menjadi penyedia layanan cloud, menjalankan jaringan pusat data sendiri untuk meng-host layanan AI-nya.
Hingga saat ini, Huang telah menghindari menanggapi secara langsung, menyarankan bahwa ia fokus pada gelombang teknologi saat ini dan belum siap untuk menguraikan rencananya untuk masa depan. Mendeploy teknologi Nvidia melalui awan komputasi perusahaan seperti Amazon adalah cara yang lebih cepat untuk masuk ke pasar, daripada membangunnya sendiri. Dan Nvidia sedang melihat perangkat lunak sebagai cara lain untuk meningkatkan penjualan chipnya, bukan sebagai sumber pendapatan terpisah.
Jika Huang benar, beberapa penggunaan AI yang ditunjukkan minggu ini – seperti simulasi manufaktur dan robotika – akan menjadi pasar besar dalam waktu mereka sendiri. Tapi untuk saat ini, fokus pada seluruh stack komputasi untuk memenuhi permintaan yang sangat tinggi akan chip AI masuk akal. Bagi calon pesaing chip, acara minggu ini adalah pengingat yang menakutkan tentang kecepatan dengan Nvidia bergerak dan berbagai teknologi pelengkap yang sedang dibangunnya.
[email protected]

MEMBACA  Beli saham di mana AI adalah inti dari tesis investasi, kata Morgan Stanley