Salah satu masalah utama yang dihadapi kecerdasan buatan adalah interaksi antara memori komputer dan kapabilitas pemrosesannya. Saat suatu algoritma beroperasi, data mengalir dengan cepat di antara kedua komponen ini. Namun, model AI mengandalkan jumlah data yang sangat besar, yang menciptakan hambatan (bottleneck).
Sebuah studi baru, yang diterbitkan Senin lalu dalam jurnal Frontiers in Science oleh Purdue University dan Georgia Institute of Technology, mengusulkan pendekatan novel dalam membangun arsitektur komputer untuk model AI menggunakan algoritma yang terinspirasi otak. Para peneliti menyatakan bahwa menciptakan algoritma dengan cara ini dapat mengurangi biaya energi yang terkait dengan model AI.
“Model pemrosesan bahasa telah berkembang 5.000 kali lipat dalam ukurannya selama empat tahun terakhir,” ungkap Kaushik Roy, profesor teknik komputer di Purdue University dan penulis utama studi tersebut, dalam sebuah pernyataan. “Ekspansi yang sangat cepat dan mengkhawatirkan ini membuat efisiensi AI menjadi hal yang krusial. Itu berarti kita perlu memikirkan ulang secara fundamental cara komputer dirancang.”
Jangan lewatkan konten teknologi non-partisan dan ulasan berbasis lab kami. Tambahkan CNET sebagai sumber pilihan di Google.
Sebagian besar komputer saat ini dimodelkan berdasarkan gagasan dari tahun 1945 yang disebut arsitektur von Neumann, yang memisahkan pemrosesan dan memori. Di sinilah perlambatan terjadi. Seiring semakin banyaknya orang di seluruh dunia yang menggunakan model AI yang rakus data, perbedaan antara kapasitas pemrosesan dan memori komputer dapat menjadi masalah yang lebih signifikan.
Para peneliti di IBM menyoroti masalah ini dalam sebuah postingan awal tahun ini. Masalah yang dihadapi insinyur komputer ini disebut sebagai ‘dinding memori’ (memory wall).
Meruntuhkan Dinding Memori
Dinding memori merujuk pada kesenjangan antara kapabilitas memori dan pemrosesan. Pada intinya, memori komputer kesulitan untuk mengimbangi kecepatan pemrosesan. Ini bukanlah masalah baru. Sepasang peneliti dari University of Virginia menciptakan istilah ini pada tahun 1990-an.
Namun kini, seiring meluasnya penggunaan AI, masalah dinding memori ini menyedot banyak waktu dan energi di komputer-komputer pendukung yang menjalankan model AI. Para peneliti dalam makalah tersebut berargumen bahwa kita dapat mencoba arsitektur komputer baru yang mengintegrasikan memori dan pemrosesan.
Terinspirasi oleh cara kerja otak kita, algoritma AI yang dirujuk dalam makalah ini dikenal sebagai jaringan saraf *spiking* (spiking neural networks). Kritik umum terhadap algoritma-algoritma ini di masa lalu adalah bahwa mereka bisa lambat dan tidak akurat. Namun, beberapa ilmuwan komputer berpendapat bahwa algoritma-algoritma ini telah menunjukkan peningkatan yang signifikan dalam beberapa tahun terakhir.
Para peneliti menyarankan agar model AI memanfaatkan konsep yang terkait dengan SNN, yang dikenal sebagai *compute-in-memory* (CIM). Konsep ini masih relatif baru dalam bidang AI.
“CIM menawarkan solusi yang menjanjikan untuk masalah dinding memori dengan mengintegrasikan kemampuan komputasi langsung ke dalam sistem memori,” tulis para penulis dalam abstrak makalah mereka.
Perangkat medis, transportasi, dan drone adalah beberapa bidang di mana para peneliti yakin peningkatan dapat dicapai jika pemrosesan dan memori komputer diintegrasikan ke dalam satu sistem.
“AI adalah salah satu teknologi paling transformatif di abad ke-21. Namun, untuk memindahkannya dari pusat data ke dunia nyata, kita perlu secara dramatis mengurangi penggunaan energinya,” kata Tanvi Sharma, penulis bersama dan peneliti di Purdue University, dalam sebuah pernyataan.
“Dengan lebih sedikit transfer data dan pemrosesan yang lebih efisien, AI dapat masuk ke dalam perangkat kecil dan terjangkau dengan baterai yang tahan lebih lama,” ujar Sharma.