OpenAI, Intel, dan Qualcomm membicarakan komputasi AI di konferensi legendaris Hot Chips

Intel Senior Principal Engineer untuk desain sistem-on-chip Arik Gihon membawa anggota audiens melalui desain chip pusat data terbaru Intel, Lunar Lake. Tiernan Ray untuk ZDNET

Ilmu dan teknik pembuatan chip yang didedikasikan untuk pemrosesan kecerdasan buatan masih sangat bergairah, seperti yang terlihat dari konferensi chip yang ramai di Stanford University yang disebut Hot Chips.

Pameran Hot Chips, saat ini berusia 36 tahun, menarik 1.500 peserta, sedikit lebih dari separuhnya berpartisipasi melalui feed langsung online dan sisanya di Memorial Auditorium Stanford. Selama beberapa dekade, pameran ini telah menjadi pusat diskusi tentang chip paling mutakhir dari Intel, AMD, IBM, dan banyak vendor lain, dengan perusahaan sering menggunakan pameran ini untuk meluncurkan produk baru.

Juga: Linus Torvalds membicarakan kecerdasan buatan, adopsi Rust, dan mengapa kernel Linux adalah ‘hal yang paling penting’

Konferensi tahun ini menerima lebih dari seratus sumbangan presentasi dari seluruh dunia. Pada akhirnya, 24 presentasi diterima, sekitar sebanyak yang muat dalam format konferensi dua hari. Dua sesi tutorial berlangsung pada hari Minggu, dengan keynote pada hari Senin dan Selasa. Ada juga tiga belas sesi poster.

Presentasi teknologi di panggung dan presentasi poster sangat teknis dan berorientasi pada insinyur. Para audiens cenderung menyebar laptop dan layar ganda seolah menghabiskan sesi di kantor pribadi mereka.

Peserta cenderung membentuk kamp dengan laptop seolah-olah itu adalah kantor sementara.

Tiernan Ray untuk ZDNET

Peserta di Hot Chips 2024

Tiernan Ray untuk ZDNET

Sesi pagi hari Senin, yang menampilkan presentasi dari Qualcomm tentang prosesor Oryon untuk pusat data dan prosesor Lunar Lake dari Intel, menarik kerumunan dan menimbulkan banyak pertanyaan dari penonton.

MEMBACA  Studi menemukan ketidaksesuaian pasokan dan permintaan di pasar perumahan Jerman

Dalam beberapa tahun terakhir, fokus utama adalah pada chip yang dirancang untuk menjalankan bentuk-bentuk kecerdasan buatan jaringan saraf dengan lebih baik. Konferensi tahun ini termasuk keynote dari Trevor Cai dari OpenAI, kepala hardware perusahaan, tentang “Skalabilitas dan infrastruktur yang dapat diprediksi.”

Insinyur infrastruktur OpenAI Trevor Cai tentang manfaat skalabilitas yang dapat diprediksi dari peningkatan daya komputasi yang telah menjadi fokus OpenAI sejak awal.

Tiernan Ray untuk ZDNET Tiernan Ray untuk ZDNET

Cai, yang telah menghabiskan waktunya menyusun infrastruktur komputasi OpenAI, mengatakan ChatGPT adalah hasil dari perusahaan “menghabiskan bertahun-tahun dan miliaran dolar memprediksi kata berikutnya dengan lebih baik.” Itu mengarah pada kemampuan berturut-turut seperti “belajar tanpa contoh.”

“Bagaimana kami tahu itu akan berhasil?” Cai bertanya retoris. Karena ada “hukum skalabilitas” yang menunjukkan kemampuan dapat meningkat secara dapat diprediksi sebagai “hukum daya” dari komputasi yang digunakan. Setiap kali komputasi dilipatgandakan, akurasi mendekati entropi yang “tidak dapat dikurangi,” jelasnya.

Juga: Apa yang bisa diharapkan dari Meta Connect 2024: Quest yang lebih terjangkau, kacamata AR, dan lainnya

“Inilah yang memungkinkan kami untuk melakukan investasi, membangun gugus komputer massal” kata Cai. Ada “hambatan besar” untuk terus bergerak sepanjang kurva skalabilitas, kata Cai. OpenAI akan harus berurusan dengan inovasi algoritma yang sangat menantang, katanya.

Untuk perangkat keras, “Biaya dolar dan energi dari gugus besar ini menjadi signifikan bahkan untuk perusahaan penghasil aliran kas bebas tertinggi,” kata Cai.

Konferensi berlanjut Selasa dengan presentasi dari Advanced Micro Devices dan startup Cerebras Systems, antara lain.