Untuk Membangun Superkomputer AI yang Lebih Baik, Biarkan Ada Cahaya

GlobalFoundries, sebuah perusahaan yang membuat chip untuk orang lain, termasuk AMD dan General Motors, sebelumnya mengumumkan kemitraan dengan Lightmatter. Harris mengatakan perusahaannya “bekerja dengan perusahaan semikonduktor terbesar di dunia serta para hyperscalers,” merujuk kepada perusahaan cloud terbesar seperti Microsoft, Amazon, dan Google.

Jika Lightmatter atau perusahaan lain dapat menciptakan kembali kabel proyek AI raksasa, maka bottleneck kunci dalam pengembangan algoritma yang lebih cerdas mungkin akan teratasi. Penggunaan komputasi yang lebih banyak adalah fundamental untuk kemajuan yang mengarah pada ChatGPT, dan banyak peneliti AI melihat peningkatan hardware lebih lanjut sebagai krusial untuk kemajuan masa depan dalam bidang ini—dan untuk harapan mencapai tujuan yang tidak jelas spesifikasinya yaitu kecerdasan buatan umum, atau AGI, yang berarti program yang dapat menyaingi atau melebihi kecerdasan biologis dalam setiap aspek.

Menghubungkan jutaan chip dengan cahaya mungkin memungkinkan untuk algoritma beberapa generasi di luar batas teknologi terkini, kata CEO Lightmatter Nick Harris. “Passage akan memungkinkan algoritma AGI,” katanya dengan keyakinan.

Pusat data besar yang diperlukan untuk melatih algoritma AI raksasa biasanya terdiri dari rak-rak yang diisi dengan puluhan ribu komputer yang menjalankan chip silikon khusus dan kabel yang mayoritas adalah koneksi listrik di antara mereka. Memelihara pelatihan AI di sejumlah sistem tersebut—semuanya terhubung oleh kabel dan sakelar—adalah usaha rekayasa yang besar. Konversi antara sinyal elektronik dan optik juga menempatkan batasan fundamental pada kemampuan chip untuk menjalankan komputasi secara bersamaan.

Pendekatan Lightmatter dirancang untuk menyederhanakan lalu lintas yang rumit di dalam pusat data AI. “Biasanya Anda memiliki sekelompok GPU, dan kemudian lapisan sakelar, dan lapisan sakelar, dan lapisan sakelar, dan Anda harus menelusuri pohon itu” untuk berkomunikasi antara dua GPU, kata Harris. Di pusat data yang terhubung oleh Passage, Harris mengatakan, setiap GPU akan memiliki koneksi berkecepatan tinggi ke setiap chip lainnya.

MEMBACA  Browser dalam aplikasi bisa menjadi masalah. Inilah mengapa dan bagaimana menghindarinya

Pekerjaan Lightmatter pada Passage adalah contoh bagaimana kemajuan AI baru-baru ini telah menginspirasi perusahaan besar dan kecil untuk mencoba memperbarui hardware kunci di balik kemajuan seperti ChatGPT dari OpenAI. Nvidia, pemasok terkemuka GPU untuk proyek AI, mengadakan konferensi tahunan bulan lalu, di mana CEO Jensen Huang memperkenalkan chip terbaru perusahaan untuk melatih AI: sebuah GPU bernama Blackwell. Nvidia akan menjual GPU dalam “superchip” yang terdiri dari dua GPU Blackwell dan prosesor CPU konvensional, semua terhubung menggunakan teknologi komunikasi baru perusahaan yang disebut NVLink-C2C.

Industri chip terkenal menemukan cara untuk memeras lebih banyak daya komputasi dari chip tanpa membuatnya lebih besar, tetapi Nvidia memilih untuk melawan tren tersebut. GPU Blackwell di dalam superchip perusahaan dua kali lebih kuat dari pendahulunya namun dibuat dengan menyambungkan dua chip, yang berarti mereka mengkonsumsi daya yang jauh lebih besar. Kompromi tersebut, ditambah upaya Nvidia untuk menempelkan chipnya dengan koneksi berkecepatan tinggi, menunjukkan bahwa peningkatan pada komponen kunci lainnya untuk superkomputer AI, seperti yang diusulkan oleh Lightmatter, bisa menjadi lebih penting.