Overearth/iStock/Getty Images Plus via Getty Images
Poin-poin penting ZDNET
Investasi AI mendorong peningkatan permintaan energi dan berdampak pada jaringan listrik lokal.
Penggunaan energi AI harus dipertimbangkan secara relatif terhadap keseluruhan kebutuhan energi teknologi.
Perusahaan dan individu memiliki beberapa opsi untuk mengelola jejak AI mereka.
AI terasa tak terhindarkan. Teknologi ini ada dimana-mana: Di ponsel cerdas Anda, Google, bahkan alat-alat kerja Anda. Fitur-fitur AI menjanjikan kehidupan yang lebih mudah dan produktif, namun apa arti semua teknologi baru ini bagi lingkungan?
Seiring pertumbuhan investasi AI — begitu pula adopsi pengguna — biaya energi teknologi ini juga meningkat. Terdiri dari sistem komputasi tinggi, AI membutuhkan banyak data, yang perlu disimpan di jaringan komputer besar yang dikenal sebagai pusat data. Sama seperti komputer pribadi Anda, pusat-pusat raksasa itu memerlukan listrik — begitu pula proses melatih model AI, yang mengandalkan lebih banyak komputasi dibanding fungsi komputer tradisional.
Juga: Google ungkap berapa energi yang digunakan satu kueri Gemini – yang pertama di industri
Namun dalam konteks energi yang sudah kita gunakan setiap hari, dari lampu kantor dan laptop hingga media sosial, bagaimana sebenarnya konsumsi itu dibandingkan? Bisakah kebutuhan sumber daya teknologi ini berubah atau ditingkatkan seiring waktu? Apakah waktu yang katanya dihemat sepadan dengan emisi ekstra yang dihasilkan? Dan apa yang harus Anda ketahui tentang jejak AI pribadi Anda?
Kami berbicara dengan para ahli dan peneliti untuk membantu menjelaskan bagaimana AI benar-benar menggunakan energi dan menjawab pertanyaan keberlanjutan Anda, lengkap dengan kiat tentang yang dapat Anda lakukan. Inilah yang perlu Anda ketahui.
Apa itu pusat data?
AI membutuhkan lebih banyak sumber daya untuk berfungsi dibanding jenis teknologi lainnya. Jumlah data yang dicerna sistem AI dan daya komputasi yang dibutuhkan untuk menjalankannya membedakannya dari tugas komputer yang lebih sederhana. Sistem AI pada dasarnya adalah otak sintetis yang perlu diberi makan miliaran data untuk menemukan pola di antaranya. Inilah mengapa model dengan parameter yang lebih besar cenderung lebih baik dalam tugas-tugas tertentu — misalnya, model gambar yang dilatih dengan empat miliar gambar kucing seharusnya menghasilkan gambar kucing yang lebih realistis dibanding yang dilatih hanya dengan 100 juta gambar.
Tapi semua pengetahuan itu perlu disimpan di suatu tempat. Apa yang Anda dengar digambarkan sebagai “cloud” bukanlah nama yang ringan untuk penyimpanan, melainkan pusat data fisik, atau kampus besar yang menampung jaringan komputer yang luas yang memproses dan menyimpan data dalam jumlah besar serta menjalankan kueri kompleks.
Juga: Pusat data AI menjadi ‘sangat besar secara mencengangkan’
Meskipun ladang komputasi besar ini selalu ada, terutama untuk layanan cloud perusahaan, permintaannya lebih tinggi dari sebelumnya seiring perlombaan AI yang mengintensif — dan seiring alat-alat itu sendiri menjadi lebih murah dan lebih mudah diakses.
“Anda memiliki perusahaan besar yang telah mengelolanya sebagai aset properti,” kata John Medina, seorang SVP di Moody’s. “Setiap orang hanya membutuhkan sedikit; mereka tidak membutuhkan kapasitas yang sangat banyak.”
Sekarang, katanya, tekanan ada untuk melayani basis pelanggan yang berkembang pesat. Permintaan itu mendorong peningkatan penggunaan energi, dan semakin banyak parameter yang dimiliki suatu model, semakin banyak komputasi yang digunakannya, kata Vijay Gadepally, anggota staf senior di MIT Lincoln Laboratory dan CTO di Radium, sebuah perusahaan infrastruktur AI.
Juga: Penipu telah menyusup ke respons AI Google – cara mendeteksinya
“Anda membutuhkan lebih banyak komputasi hanya untuk menyimpan model dan dapat memprosesnya,” jelasnya. Daya yang disedot oleh pusat-pusat ini sedemikian besar sehingga daerah sekitar pusat data mengalami distorsi fungsi jaringan dan peningkatan pemadaman listrik. Untuk mengurangi itu, Google telah menyetujui untuk mengurangi penggunaan daya di pusat datanya ketika diminta oleh perusahaan utilitas selama masa kritis, untuk menjaga ruang bebas di jaringan.
Namun, Thar Casey, pendiri dan CEO penyedia listrik Amber Semiconductor, menganggap langkah itu tidak cukup.
“Itu seperti plester luka, karena konsumsi energi hanya akan naik,” katanya. “Tidak ada yang bisa Anda lakukan tentang hal itu.”
Dengan investasi dalam AI yang hanya mendapatkan kecepatan, pertumbuhan pusat data tidak menunjukkan tanda-tanda berhenti. Tak lama setelah menjabat pada bulan Januari, Presiden Donald Trump mengumumkan Proyek Stargate, sebuah inisiatif senilai $500 miliar yang didukung oleh perusahaan-perusahaan termasuk OpenAI, Softbank, dan Oracle untuk membangun pusat data “kolosal” seluas 500.000 kaki persegi. Perusahaan-perusahaan ini dikenal sebagai hyperscaler, kelompok kecil perusahaan dominan seperti Microsoft, Google, Meta, dan AWS yang membangun sebagian besar infrastruktur.
Juga: Masa depan komputasi harus lebih berkelanjutan, bahkan saat permintaan AI memicu penggunaan energi
Namun, Medina mencatat bahwa siklus hype mungkin menggelembungkan sejauh mana pertumbuhan pusat data spesifik AI. “Ketika kita berbicara tentang hyperscaler, pusat data besar, dan pusat data AI, kita menjadi bingung. Sebagian besarnya adalah untuk cloud,” katanya, merujuk pada layanan seperti penyimpanan dan pemrosesan data. Dia mencatat bahwa meskipun ada banyak pembicaraan, pusat data hanya memproses jumlah tugas terkait AI yang relatif sedikit.
Meski demikian, booming AI menggeser standar dasar dengan cara yang membuat relativisme lebih sulit untuk ditentukan. “Di masa lalu, Anda tidak memiliki kebutuhan besar seperti ini. Empat megawatt dianggap hyperscale,” kata Medina. “Sekarang, 50, 100 megawatt adalah minimum itu.”
Berapa banyak energi yang digunakan AI?
Seperti yang diakui Sasha Luccioni, Ph.D., pemimpin AI dan iklim di platform pengembang Hugging Face, dalam sebuah op-ed baru-baru ini, kita masih belum benar-benar tahu berapa banyak energi yang dikonsumsi AI, karena sangat sedikit perusahaan yang mempublikasikan data tentang penggunaan mereka. Google baru saja menerbitkan perkiraan emisi, energi, dan penggunaan air chatbot Gemini-nya, yang lebih rendah dari yang diprediksi; meskipun belum diverifikasi oleh pihak ketiga, dan data itu sendiri tidak publik, perusahaan mengatakan metodologinya memperhitungkan faktor-faktor yang diabaikan oleh perhitungan yang menggembung.
Juga: Setiap model AI gagal dalam kedokteran – dan LMArena usulkan perbaikan
Meski demikian, sumber daya yang digunakan oleh satu kueri individu hanyalah puncak gunung es, mengingat kini ada ratusan juta pengguna chatbot bulanan, dan 30% orang Amerika secara aktif menggunakan AI.
Beberapa penelitian menunjukkan bahwa konsumsi energi sedang meningkat, didorong oleh permintaan AI yang tumbuh. Overearth/iStock/Getty Images Plus via Getty Images
**Poin Penting ZDNET**
Investasi dalam kecerdasan buatan (AI) mendorong peningkatan kebutuhan energi dan berdampak pada jaringan listrik lokal. Sebuah analisis Berkeley Lab 2024 menemukan bahwa konsumsi listrik telah tumbuh secara eksponensial seiring dengan perkembangan AI dalam tahun-tahun terakhir. Server yang dipercepat GPU—perangkat keras khusus untuk AI—berkembang pesat pada 2017; setahun kemudian, pusat data menyumbang hampir 2% dari total konsumsi listrik tahunan AS, dan angka itu tumbuh 7% setiap tahun. Pada 2023, laju pertumbuhan itu melonjak menjadi 18%, dan diproyeksikan mencapai hingga 27% pada 2028. Meskipun kita tidak dapat memisahkan berapa banyak energi pusat data yang dihabiskan untuk AI, tren antara peningkatan konsumsi dan ekspansi AI terlihat jelas.
Boston Consulting Group memperkirakan bahwa pusat data akan menyumbang 7,5% dari seluruh konsumsi listrik AS pada 2030, atau setara dengan kebutuhan 40 juta rumah tangga AS.
Mark James, direktur interim Institut untuk Energi dan Lingkungan di Vermont Law and Graduate School, memberikan perbandingan lain. “Fasilitas semacam ini akan berjalan mendekati kapasitas penuhnya—setiap jam, itu 1.000 megawatt,” katanya. “Itu setara dengan permintaan puncak negara bagian Vermont—lebih dari 600.000 orang—selama berbulan-bulan.”
Saat ini, pusat data global menggunakan sekitar 1,5% listrik dunia, yang kira-kira sama dengan seluruh industri penerbangan. Kemungkinan besar akan melampauinya; sebuah laporan IEA April 2025 menemukan bahwa secara global, penggunaan listrik pusat data telah meningkat 12% setiap tahun sejak 2017, yang “lebih dari empat kali lebih cepat dari laju konsumsi listrik total.” Pusat data, yang didorong secara langsung atau tidak langsung oleh AI, mulai mengambil porsi lebih besar dalam lanskap energi dunia, bahkan ketika penggunaan energi lain tampak sebagian besar tetap.
Bagi sebagian orang, itu adalah alasan untuk khawatir. “Ini akan menjadi masalah karbon dengan sangat cepat jika kita meningkatkan pembangkit listrik,” peringat Gadepally.
Yang lain berusaha menempatkan angka-angka ini dalam konteks. Meskipun ada bukti bahwa AI mendorong biaya energi, penelitian juga menunjukkan konsumsi energi global secara keseluruhan sedang meningkat. Pusat data dan GPU yang lebih baru juga lebih efisien energi daripada pendahulunya, yang berarti mereka mungkin menghasilkan relatif lebih sedikit karbon.
“Pembangunan masif 100, 200 megawatt ini menggunakan teknologi yang paling efisien—bukan peminum daya tua seperti yang lama,” kata Medina. Bahkan saat pusat data berkembang biak, kurva konsumsi yang diprediksi mungkin mulai mendatar berkat teknologi modern.
**Tidak Semua AI Sama**
Dalam penggunaan energi AI, tidak semua jenis AI memiliki jejak yang sama. Kita tidak memiliki akses ke data konsumsi energi untuk model proprietary dari perusahaan seperti OpenAI dan Anthropic (berbeda dengan model sumber terbuka). Namun, di semua model, AI generatif—terutama pembuatan gambar—tampaknya menggunakan lebih banyak komputasi (dan karenanya menciptakan lebih banyak emisi) daripada sistem AI standar.
Sebuah studi Hugging Face Oktober 2024 terhadap 88 model menemukan bahwa menghasilkan dan meringkas teks menggunakan lebih dari 10 kali energi dari tugas yang lebih sederhana seperti mengklasifikasikan gambar dan teks. Studi itu juga menemukan bahwa tugas multimodal, di mana model menggunakan masukan gambar, audio, dan video, berada “pada ujung tertinggi spektrum” untuk penggunaan energi.
**Benarkah Satu Kueri ChatGPT Menghabiskan Satu Botol Air?**
Dalam hal perbandingan spesifik, penelitian tentang sumber daya AI sangat beragam. Satu studi menentukan bahwa meminta ChatGPT untuk menulis email 100 kata menggunakan satu botol air penuh—klaim yang dengan cepat beredar di media sosial.
Tetapi apakah itu benar?
“Mungkin saja,” kata Gadepally. Dia menunjuk bahwa GPU menghasilkan banyak panas; bahkan ketika didinginkan dengan metode lain, mereka masih membutuhkan pendinginan air juga. “Anda menggunakan sekitar 16 hingga 24 GPU untuk model itu yang mungkin berjalan selama 5 hingga 10 menit, dan jumlah panas yang dihasilkan, Anda bisa mulai menghitung,” katanya.
Pada Juni, CEO OpenAI Sam Altman menulis dalam blog bahwa kueri ChatGPT rata-rata menggunakan “kira-kira seperlima belas sendok teh” air, tetapi tidak memberikan metodologi atau data untuk mendukung pernyataan mana pun. Sebagai perbandingan, Google memperkirakan bahwa kueri Gemini median “menghabiskan 0,26 mililiter (atau sekitar lima tetes) air.”
Sistem ini juga tidak menggunakan sembarang air—mereka membutuhkan air bersih, berkualitas tinggi, dan layak minum yang mengalir melaluinya. “Pipa-pipa ini, mereka tidak ingin menyumbatnya dengan apa pun,” jelas Gadepally. “Banyak pusat data berada di daerah dengan daerah aliran sungai yang tertekan, jadi itu sesuatu yang perlu diingat.”
Metode baru seperti pendinginan imersi, di mana prosesor direndam dalam minyak mineral seperti cairan, menunjukkan janji untuk mengurangi penggunaan air dan konsumsi energi dibandingkan dengan metode pendinginan lain seperti kipas. Tetapi teknologinya masih berkembang, dan perlu diadopsi secara luas untuk berdampak.
Dengan sebagian besar data proprietary masih buram, beberapa perbandingan lain ada untuk berapa banyak energi yang digunakan kueri chatbot. Jesse Dodge, seorang peneliti dari lembaga nirlaba Ai2, telah membandingkan satu kueri ChatGPT dengan listrik yang digunakan untuk menyalakan satu bola lampu selama 20 menit.
Studi Hugging Face mencatat bahwa “mengisi daya ponsel cerdas rata-rata membutuhkan 0,022 kWh energi, yang berarti bahwa model generasi teks paling efisien menggunakan energi sebanyak 9% dari pengisian daya ponsel penuh untuk 1.000 inferensi, sedangkan model pembuatan gambar paling tidak efisien menggunakan energi sebanyak 522 pengisian daya ponsel (11,49 kWh), atau sekitar setengah pengisian daya per pembuatan gambar.”
Menurut Gadepally, sebuah model AI yang memproses satu juta token—kira-kira satu dolar dalam biaya komputasi—memancarkan karbon kira-kira sebanyak mobil berbahan bakar bensin saat berkendara sejauh lima hingga 20 mil. Investasi AI mendorong peningkatan kebutuhan energi dan berdampak pada jaringan listrik lokal. Namun, penggunaan energi juga sangat bervariasi tergantung pada kompleksitas perintah yang diberikan. Seorang pakar mencontohkan bahwa permintaan cerita pendek tentang anjing akan memerlukan komputasi yang lebih sedikit dibandingkan permintaan cerita tentang anjing yang duduk di atas unicorn dalam gaya syair Shakespeare.
Bagi yang penasaran dengan konsumsi energi dari setiap kueri chatbot, Hugging Face telah merancang sebuah alat yang dapat memperkirakan penggunaan energi untuk berbagai model _open-source_. Organisasi Green Coding juga mengembangkan alat serupa untuk melacak dampak lingkungan dari teknologi.
**Bagaimana konsumsi energi AI dibandingkan dengan teknologi lain?**
Meskipun konsumsi energi secara keseluruhan meningkat sebagian karena investasi AI, para peneliti menekankan bahwa energi harus dilihat secara relatif. Metrik yang menyatakan bahwa satu kueri ChatGPT menggunakan energi 10 kali lipat dari pencarian Google didasarkan pada estimasi Google tahun 2009 yang sudah kedaluwarsa, yaitu 0,3 Watt-jam (Wh) per pencarian. Sulit untuk memastikan apakah angka ini masih relevan mengingat perubahan kompleksitas pencarian Google dan efisiensi chip.
Seperti diungkapkan oleh ilmuwan data Hannah Ritchie, 0,3 Wh sebenarnya relatif kecil dibandingkan dengan konsumsi listrik harian rata-rata di AS, yaitu sekitar 34.000 Wh per orang. Dengan metrik usang tersebut, satu kueri ChatGPT hanya memakan 3 Wh—bahkan dengan banyak kueri sehari, persentasenya tetap tidak signifikan.
Selain itu, teknologi non-AI pun sudah banyak menggunakan bandwidth pusat data. Aplikasi populer seperti TikTok, Instagram Reels, dan gaming semuanya dihosting dari cloud. Seiring integrasi fitur AI ke dalam berbagai layanan, semakin sulit untuk mengaitkan kebutuhan energi secara spesifik ke AI atau non-AI.
Di dalam dunia AI sendiri, kebutuhan model terus berkembang. Dibandingkan dengan awal perkembangannya, peningkatan energi cukup signifikan, terutama pada tahap _inference_—saat model membuat prediksi setelah pelatihan—yang kini menyumbang biaya terbesar dalam siklus hidup model.
**Apakah penggunaan ChatGPT buruk bagi lingkungan?**
Mengingat AI sudah terintegrasi dalam banyak teknologi, dampak spesifiknya sulit diukur. Keputusan untuk menggunakannya mungkin lebih bergantung pada pertimbangan individu daripada angka pasti. Menurut para ahli, kita perlu menyeimbangkan antara output AI dan penggunaannya. Jika AI dapat menghemat waktu dan energi—misalnya, menulis dalam satu menit alih-alih satu jam—maka trade-off energi mungkin sepadan.
AI juga dapat digunakan untuk memajukan penelitian iklim, pemodelan lingkungan, dan pelestarian spesies terancam. Beberapa pihak bahkan berargumen bahwa produksi video dengan AI lebih hemat karbon dibanding metode tradisional yang melibatkan perjalanan dan infrastruktur berat.
Industri pun mulai merespons kekhawatiran ini. Hugging Face meluncurkan Proyek Skor Energi AI yang menampilkan peringkat energi terstandardisasi dan _leaderboard_ konsumsi model. Namun, ada juga dorongan untuk mengesampingkan perlindungan lingkungan guna mempertahankan keunggulan kompetitif, seperti yang terlihat dalam sejumlah kebijakan terbaru.
Ekspansi data center dan pembangkit listrik baru berpotensi meningkatkan emisi dan beban infrastruktur air dalam jangka pendek. Dalam jangka panjang, hal ini dapat mengurangi investasi dalam energi terbarukan dan memberatkan masyarakat lokal melalui polusi dan dampak kesehatan.
**Adakah alternatif AI yang lebih ramah lingkungan?**
Berbagai organisasi sedang mengeksplorasi cara untuk meningkatkan keberlanjutan AI, baik melalui optimasi model, efisiensi komputasi, maupun penggunaan energi yang lebih bersih. Investasi AI yang masif tengah mendorong lonjakan kebutuhan energi, memberikan dampak signifikan terhadap jaringan listrik lokal. Di MIT Lincoln Lab, tim Gadepally bereksperimen dengan teknik “power-capping“, yakni membatasi daya setiap prosesor secara strategis di bawah kapasitas maksimumnya. Hal ini tidak hanya mengurangi konsumsi energi tetapi juga menurunkan suhu GPU. Startup AI asal Tiongkok, DeepSeek, juga mencapai hasil serupa melalui efisiensi dalam “metode cerdas” bagaimana mereka menjalankan dan melatih modelnya, meskipun model tersebut tetap berukuran sangat besar.
Namun, pendekatan ini memiliki batasan. “Belum ada yang berhasil menemukan cara membuat model yang lebih kecil tiba-tiba mampu menghasilkan generasi gambar berkualitas tinggi dalam skala besar,” ujar Gadepally.
Mengingat permintaan terhadap AI tidak akan surut—terutama dengan maraknya fitur on-device pada ponsel—Gadepally menegaskan bahwa efisiensi dan optimasi adalah solusi sementara saat ini. “Bisakah saya meningkatkan akurasi sebesar 1,5% alih-alih 1% untuk setiap kilowatt-jam energi yang saya masukkan ke dalam sistem?”
Ia menambahkan bahwa beralih ke pusat data yang hanya menggunakan energi terbarukan bukanlah hal mudah, karena sumber-sumber ini tidak dapat dinyalakan dan dimatikan secepat gas alam, sebuah kebutuhan untuk komputasi skala besar. Tetapi dengan memperlambat kurva konsumsi AI melalui taktik seperti power capping, akan lebih mudah untuk pada akhirnya menggantikan sumber energi tersebut dengan yang terbarukan—seperti mengganti lampu rumah dengan LED.
Untuk menuju keberlanjutan, ia menyarankan perusahaan untuk mempertimbangkan fleksibilitas dalam lokasi komputasi, karena beberapa area mungkin lebih hemat energi, atau melatih model selama musim dingin ketika beban pada jaringan energi lokal lebih rendah. Manfaat tambahannya adalah membantu menurunkan suhu prosesor tanpa berdampak signifikan pada kinerja model, sehingga output menjadi lebih andal. Ini juga mengurangi kebutuhan pendinginan menggunakan air bersih. Manfaat seperti ini, serta dampak cost-effectiveness-nya, menjadi insentif bagi perusahaan untuk melakukan perubahan yang berorientasi pada keberlanjutan.
Pada tingkat pusat data, beberapa perusahaan berinvestasi pada efisiensi penghematan sumber daya.
“Jika kita dapat meminimalkan jumlah kebocoran daya di dalam pusat data, kita bisa unggul sedikit dalam jangka panjang,” kata Casey. “Dari saat listrik memasuki gedung pusat data hingga mengaktifkan chip AI, Anda berpotensi kehilangan hingga 40% energi tersebut.” Perusahaannya, Amber, menciptakan infrastruktur silikon modern yang mengurangi kerugian ini, yang sering kali disebabkan oleh semikonduktor yang sudah ketinggalan zaman.
Gadepally meyakini bahwa perusahaan memiliki niat yang benar terhadap keberlanjutan; pertanyaannya adalah apakah mereka dapat mengimplementasikan perubahan dengan cukup cepat untuk memperlambat kerusakan lingkungan.
## Haruskah Anda Menggunakan AI jika Peduli Lingkungan?
Jika Anda khawatir tentang bagaimana penggunaan AI mempengaruhi jejak karbon Anda, jawabannya tidak sederhana. Menghindari alat AI mungkin tidak membantu mengurangi jejak karbon Anda seperti pilihan gaya hidup lainnya.
Andy Masley, direktur kelompok advokasi Effective Altruism DC, membandingkan dampak dari mengurangi 50.000 pertanyaan ke ChatGPT (10 pertanyaan setiap hari selama 14 tahun) dengan aksi iklim lainnya dari jaringan filantropi Founders Pledge.
Hasilnya sangat kecil. “Jika emisi individu yang Anda khawatirkan, ChatGPT bukanlah cara yang efektif untuk menurunkannya,” tulis Masley. “Ini seperti melihat orang yang boros, lalu menyarankan mereka untuk membeli satu butir permen karet lebih sedikit setiap bulannya.”
“Itu bahkan menghemat lebih sedikit daripada ‘hal-hal kecil’ yang bisa kita lakukan, seperti mendaur ulang, menggunakan kembali kantong plastik, dan mengganti lampu kita,” tambah Ritchie dalam postingan Substack yang mengutip Masley. “Jika kita merisaukan beberapa kueri sehari sambil menyantap burger daging untuk makan malam, memanaskan rumah dengan boiler gas, dan mengemudikan mobil bensin, kita tidak akan mencapai kemajuan.”
Dalam gambaran besar, Masley dan Ritchie khawatir bahwa fokus pada konsumsi energi AI dapat mengalihkan perhatian pengguna yang bermaksud baik dari tekanan iklim yang lebih besar dan mendesak.
Gadepally setuju bahwa menghindari AI hanya memiliki dampak terbatas. “Di zaman sekarang, ini hampir seperti mengatakan, ‘Saya tidak akan menggunakan komputer,'” katanya. Namun, ia memiliki beberapa saran untuk meningkatkan masa depan penggunaan energi AI dan menciptakan transparansi yang lebih besar seputar subjek ini. Berikut beberapa pendekatan yang dapat Anda coba:
**Minta transparansi dari penyedia:** Dengan data yang tepat, firma seperti milik Gadepally setidaknya dapat menghasilkan perkiraan berapa banyak energi yang digunakan AI. Individu dapat berorganisasi untuk meminta perusahaan AI membuat informasi ini publik. Lapangan permainan AI hanya menjadi semakin kompetitif; ia mengatakan bahwa secara teoritis, seperti halnya nilai sosial lainnya, jika cukup banyak pengguna menunjukkan bahwa mereka peduli dengan keberlanjutan alat mereka, hal ini dapat menjadi penggerak pasar.
**Bersuara selama proses pengadaan:** Keberlanjutan seringkali sudah menjadi pertimbangan dalam banyak keputusan korporat, terutama ketika bisnis mempertimbangkan vendor dan layanan. Gadepally percaya pada kekuatan menerapkan budaya tersebut ke AI. Jika bisnis Anda melisensikan alat AI, ia menyarankan untuk meminta data penggunaan energi dan keberlanjutan selama negosiasi. “Jika perusahaan besar menuntut ini dalam kontrak multi-juta dolar yang bekerja dengan account executive, ini bisa sangat berpengaruh,” jelasnya, seperti yang sudah mereka lakukan untuk pos lain seperti perjalanan dinas. “Mengapa tidak menanyakan tentang hal ini, yang benar-benar dapat terakumulasi dengan cukup cepat?”
**Gunakan model yang paling kecil mungkin:** Bersikaplah intentional tentang kualitas model yang Anda pilih untuk sebuah kueri relatif terhadap kebutuhan Anda. “Hampir setiap penyedia memiliki beberapa versi model—kita cenderung menggunakan versi dengan kualitas tertinggi yang kita akses,” yang bisa jadi boros, catat Gadepally. “Jika Anda bisa menggunakan sesuatu yang lebih kecil, lakukanlah.”
Sebagai bagian dari ini, Gadepally mendorong pengguna untuk lebih sering menerima hasil yang tidak sempurna. Poin-poin penting ZDNET
Investasi dalam kecerdasan buatan (AI) mendorong peningkatan permintaan energi dan berdampak pada jaringan listrik lokal. Peningkatan prompt secara berulang, misalnya, bisa dilakukan dengan model yang kualitasnya rendah; setelah prompt disempurnakan, baru dicoba dengan model yang lebih mahal dan berparameter tinggi untuk mendapatkan jawaban terbaik.
Di samping tujuan-tujuan tersebut, Michelle Thorne, Direktur Strategi di The Green Web Foundation—sebuah lembaga nirlaba yang “berupaya menciptakan internet bebas bahan bakar fosil”—mendesak perusahaan teknologi untuk meninggalkan bahan bakar fosil secara bertahap di seluruh rantai pasokan mereka dan mengambil langkah untuk mengurangi dampak negatif saat menambang bahan baku mentah.
### Langkah Selanjutnya
Industri secara luas merespons isu keberlanjutan dengan inisiatif seperti Frugal AI Challenge, sebuah hackathon pada AI Action Summit 2025 yang berlangsung di Paris Februari lalu. Google menyatakan dalam tujuan keberlanjutannya bahwa mereka berencana mengisi ulang 120% air tawar yang dikonsumsi di semua kantor dan pusat data mereka pada tahun 2030.
Penelitian menunjukkan bahwa pendekatan “lebih besar lebih baik” dalam AI mungkin tidak benar-benar menghasilkan nilai atau kinerja yang lebih baik, dengan menyoroti adanya law of diminishing returns.
Pada akhirnya, regulasi kemungkinan akan terbukti lebih efektif dalam menyelaraskan ekspektasi dan persyaratan bagi perusahaan teknologi untuk mengelola dampak lingkungan mereka, baik dalam penggunaan AI maupun di luarnya.
Secara jangka panjang, ekspansi AI (serta biaya yang menyertainya) tidak menunjukkan tanda-tanda berhenti. “Kita seolah memiliki nafsu yang tak terpuaskan untuk membangun lebih banyak teknologi, dan satu-satunya pembatas adalah biaya,” ujar Gadepally—merujuk pada Paradoks Jevons, yaitu gagasan bahwa efisiensi justru memicu konsumsi lebih banyak, bukan kepuasan.
Untuk saat ini, masa depan energi AI masih belum jelas, tetapi industri teknologi secara keseluruhan semakin menjadi pemain penting dalam lanskap iklim yang ditandai dengan melonjaknya permintaan dan waktu yang sangat terbatas. Investasi kecerdasan buatan tengah mendorong peningkatan permintaan energi serta memberikan dampak pada jaringan listrik lokal.