Hampir semua pengembang kecerdasan buatan (AI) terkemuka fokus membuat model AI yang meniru cara manusia berpikir. Tapi, penelitian baru menunjukan sistem canggih ini bisa jauh lebih boros energi. Hal ini menambah kekhawatiran tentang tekanan AI pada jaringan listrik.
Menurut studi yang dirilis Kamis, model AI dengan kemampuan berpikir (reasoning) rata-rata menggunakan daya 30 kali lebih banyak untuk menanggapi 1.000 perintah tertulis, dibanding model tanpa kemampuan itu atau yang dinonaktifkan. Penelitian ini dilakukan oleh proyek AI Energy Score yang dipimpin oleh ilmuwan Hugging Face, Sasha Luccioni, dan kepala keberlanjutan AI Salesforce Inc., Boris Gamazaychikov.
Para peneliti mengevaluasi 40 model AI terbuka dan gratis, termasuk perangkat lunak dari OpenAI, Google milik Alphabet Inc., dan Microsoft Corp. Beberapa model ditemukan memiliki perbedaan konsumsi energi yang sangat besar, termasuk satu model dari perusahaan China, DeepSeek. Versi ringan model R1 DeepSeek hanya menggunakan 50 watt jam saat kemampuan reasoning dimatikan, kira-kira sama dengan daya untuk menyalakan bola lampu 50 watt selama satu jam. Dengan fitur reasoning diaktifkan, model yang sama membutuhkan 7.626 watt jam untuk menyelesaikan tugasnya.
Kebutuhan energi AI yang melonjak semakin mendapat sorotan. Saat perusahaan teknologi berlomba membangun lebih banyak pusat data yang lebih besar untuk mendukung AI, pengamat industri khawatir ini akan membebani jaringan listrik dan menaikkan biaya energi untuk konsumen. Investigasi Bloomberg pada September menemukan harga listrik grosir naik hingga 267% dalam lima tahun terakhir di daerah dekat pusat data. Ada juga dampak buruk bagi lingkungan, karena Microsoft, Google, dan Amazon.com Inc. sebelumnya mengakui bahwa pembangunan pusat data bisa mempersulit tujuan iklim jangka panjang mereka.
Lebih dari setahun yang lalu, OpenAI merilis model reasoning pertama mereka, bernama o1. Jika perangkat lunak sebelumnya mereka menjawab hampir seketika, o1 menghabiskan lebih banyak waktu untuk menghitung jawaban sebelum merespons. Banyak perusahaan AI lain sejak itu merilis sistem serupa, dengan tujuan menyelesaikan masalah kompleks bertahap untuk bidang seperti sains, matematika, dan pemrograman.
Meskipun sistem reasoning cepat menjadi norma industri untuk tugas yang lebih rumit, sedikit penelitian yang menyelidiki kebutuhan energi mereka. Banyak dari peningkatan konsumsi daya ini disebabkan karena model reasoning menghasilkan teks yang jauh lebih banyak saat merespons, kata para peneliti.
Laporan baru ini bertujuan untuk lebih memahami bagaimana kebutuhan energi AI berkembang, kata Luccioni. Dia juga berharap ini membantu orang lebih memahami bahwa ada berbagai jenis model AI yang cocok untuk tindakan berbeda. Tidak setiap pertanyaan memerlukan sistem AI reasoning yang paling intensif secara komputasi.
“Kita harus lebih pintar dalam cara kita menggunakan AI,” kata Luccioni. “Memilih model yang tepat untuk tugas yang tepat itu penting.”
Untuk menguji perbedaan penggunaan daya, para peneliti menjalankan semua model pada perangkat keras komputer yang sama. Mereka menggunakan perintah yang sama untuk setiap model, mulai dari pertanyaan sederhana — seperti menanyakan tim mana yang memenangkan Super Bowl di tahun tertentu — hingga masalah matematika yang lebih kompleks. Mereka juga menggunakan alat perangkat lunak bernama CodeCarbon untuk melacak berapa banyak energi yang dikonsumsi secara waktu nyata.
Hasilnya cukup beragam. Para peneliti menemukan salah satu model reasoning Phi 4 milik Microsoft menggunakan 9.462 watt jam dengan reasoning hidup, dibandingkan dengan sekitar 18 watt jam saat dimatikan. Sementara itu, model gpt-oss terbesar OpenAI memiliki perbedaan yang tidak terlalu ekstrem. Model itu menggunakan 8.504 watt jam dengan reasoning pada pengaturan “tinggi” yang paling intensif, dan 5.313 watt jam dengan pengaturan diturunkan ke “rendah.”
OpenAI, Microsoft, Google, dan DeepSeek tidak segera menanggapi permintaan komentar.
Google merilis penelitian internal pada Agustus yang memperkirakan rata-rata perintah teks untuk layanan AI Gemini-nya menggunakan 0,24 watt-jam energi, kira-kira setara dengan menonton TV kurang dari sembilan detik. Google mengatakan angka itu “jauh lebih rendah dari banyak perkiraan publik.”
Banyak diskusi tentang konsumsi daya AI berfokus pada fasilitas skala besar yang dibangun untuk melatih sistem AI. Namun, semakin banyak perusahaan teknologi yang mengalihkan lebih banyak sumber daya ke *inference*, atau proses menjalankan sistem AI setelah mereka dilatih. Dorongan ke arah model reasoning adalah bagian besar dari itu karena sistem ini lebih bergantung pada *inference*.
Baru-baru ini, beberapa pemimpin teknologi mengakui bahwa penggunaan daya AI perlu diatasi. CEO Microsoft Satya Nadella mengatakan industri harus mendapatkan “izin sosial untuk mengonsumsi energi” untuk pusat data AI, dalam sebuah wawancara pada November. Untuk itu, ia berargumen bahwa teknologi harus menggunakan AI untuk berbuat baik dan mendorong pertumbuhan ekonomi yang luas.