Hugging Face, salah satu nama terbesar dalam pembelajaran mesin, berkomitmen $10 juta dalam GPU bersama gratis untuk membantu pengembang menciptakan teknologi AI baru. Tujuan ini adalah untuk membantu pengembang kecil, akademisi, dan startup melawan sentralisasi kemajuan AI.
“Kami beruntung berada dalam posisi di mana kami dapat berinvestasi dalam komunitas,” CEO Hugging Face Clem Delangue mengatakan kepada The Verge. Delangue mengatakan investasi ini memungkinkan karena Hugging Face “menguntungkan, atau hampir menguntungkan” dan baru-baru ini mengumpulkan $235 juta dalam pendanaan, menilai perusahaan itu sebesar $4,5 miliar.
Delangue mengkhawatirkan kemampuan startup AI untuk bersaing dengan raksasa teknologi. Sebagian besar kemajuan signifikan dalam kecerdasan buatan – seperti GPT-4, algoritma di balik Google Search, dan sistem Full Self-Driving Tesla – tetap tersembunyi di dalam batasan perusahaan teknologi besar. Bukan hanya perusahaan-perusahaan ini didorong secara finansial untuk menjaga model mereka sebagai milik pribadi, tetapi dengan miliaran dolar yang tersedia untuk sumber daya komputasi, mereka dapat menggandakan keuntungan itu dan berlomba melampaui pesaing, membuatnya tidak mungkin bagi startup untuk mengejar.
Hugging Face bertujuan untuk membuat teknologi AI terkini dapat diakses oleh semua orang, bukan hanya raksasa teknologi. Saya berbicara dengan Delangue selama Google I/O, konferensi unggulan raksasa teknologi itu, di mana eksekutif Google memperkenalkan berbagai fitur AI untuk produk propieternya dan bahkan keluarga model open-source bernama Gemma. Bagi Delangue, pendekatan propieternya bukanlah masa depan yang dia bayangkan.
Bagaimana cara kerjanya
Akses ke komputasi merupakan tantangan besar dalam membangun model bahasa besar, seringkali mendukung perusahaan seperti OpenAI dan Anthropic, yang mendapatkan kesepakatan dengan penyedia cloud untuk sumber daya komputasi yang substansial. Hugging Face bertujuan untuk menyamakan lapangan bermain dengan menyumbangkan GPU bersama ini kepada komunitas melalui program baru bernama ZeroGPU.
GPU bersama ini dapat diakses oleh beberapa pengguna atau aplikasi secara bersamaan, menghilangkan kebutuhan untuk setiap pengguna atau aplikasi memiliki GPU yang didedikasikan. ZeroGPU akan tersedia melalui Spaces Hugging Face, platform hosting untuk menerbitkan aplikasi, yang telah menciptakan lebih dari 300.000 demo AI sejauh ini di CPU atau GPU berbayar, menurut perusahaan.
“Sangat sulit untuk mendapatkan cukup GPU dari penyedia cloud utama”
Akses ke GPU bersama ditentukan oleh penggunaan, jadi jika sebagian kapasitas GPU tidak digunakan secara aktif, kapasitas tersebut menjadi tersedia untuk digunakan oleh orang lain. Hal ini membuat mereka efisien biaya, energi, dan ideal untuk penggunaan komunitas. ZeroGPU menggunakan perangkat GPU Nvidia A100 untuk menggerakkan operasi ini – yang menawarkan sekitar setengah kecepatan komputasi dari H100 yang populer dan lebih mahal.
“Sangat sulit untuk mendapatkan cukup GPU dari penyedia cloud utama, dan cara untuk mendapatkannya – yang menciptakan hambatan tinggi untuk masuk – adalah dengan berkomitmen pada angka-angka besar untuk jangka waktu yang lama,” kata Delangue.
Biasanya, perusahaan akan berkomitmen pada penyedia cloud seperti Amazon Web Services selama satu atau beberapa tahun untuk mengamankan sumber daya GPU. Perjanjian ini merugikan perusahaan kecil, pengembang indie, dan akademisi yang membangun dalam skala kecil dan tidak dapat memprediksi apakah proyek mereka akan mendapatkan daya tarik. Terlepas dari penggunaan, mereka tetap harus membayar untuk GPU.
“Ini juga mimpi buruk prediksi untuk mengetahui berapa banyak GPU dan anggaran jenis yang Anda butuhkan,” kata Delangue.
AI open-source mulai mengejar
Dengan AI berkembang pesat di balik pintu tertutup, tujuan Hugging Face adalah memungkinkan orang membangun lebih banyak teknologi AI secara terbuka.
“Jika Anda berakhir dengan beberapa organisasi yang mendominasi terlalu banyak, maka akan lebih sulit untuk melawannya nantinya,” kata Delangue.
Andrew Reed, seorang insinyur pembelajaran mesin di Hugging Face, bahkan membuat aplikasi yang memvisualisasikan kemajuan LLM propieternya dan open-source dari waktu ke waktu seperti yang dinilai oleh LMSYS Chatbot Arena, yang menunjukkan kesenjangan antara kedua model mendekat satu sama lain.
Lebih dari 35.000 variasi model AI open-source Llama Meta telah dibagikan di Hugging Face sejak versi pertama Meta setahun yang lalu, mulai dari “model yang dikuantisasi dan digabungkan hingga model khusus dalam biologi dan Mandarin,” menurut perusahaan.
“AI tidak boleh berada di tangan sedikit orang. Dengan komitmen ini kepada pengembang open-source, kami sangat bersemangat melihat apa yang akan dipikirkan semua orang selanjutnya dalam semangat kolaborasi dan transparansi,” kata Delangue dalam siaran pers.