Semua yang Perlu Anda Ketahui

Namun, kepadatan komputasi ini datang dengan biaya termodinamika yang berat. Saat industri menjejalkan lebih banyak transistor ke dalam wafer silikon untuk memproses model yang lebih besar, konsumsi daya per chip melonjak drastis. Kita telah berpindah dari era komputasi "tujuan umum" ke komputasi "kinerja tinggi", di mana konsumsi energi adalah hambatan utama bagi performa.

Pasar untuk chip kinerja tinggi ini saat ini didominasi oleh beberapa pemain kunci yang mendorong intensitas energi sektor ini:

  • Nvidia H100 "Hopper": Saat ini menjadi standar industri untuk pelatihan AI. Satu chip H100 bisa konsumsi daya sampai 700 watt saat digunakan penuh. Ketika dipasang di rak server berisi 8 sampai 16 GPU, kepadatan dayanya melebihi apa yang bisa ditangani pusat data lama.
  • Nvidia B200 "Blackwell": Arsitektur generasi berikutnya. Ini janjikan peningkatan performa besar, tetapi juga meningkatkan tantangan panas dengan signifikan, dengan satu chip mampu menarik daya hingga 1.200 watt.
  • AMD Instinct MI300X: Pesaing utama Nvidia, menawarkan konfigurasi memori berkapasitas tinggi yang juga butuh infrastruktur daya dan pendingin yang kuat.

    Penggunaan chip-chip ini pada dasarnya mengubah kebutuhan fisik bangunan pusat data. Rak server lama biasanya menarik daya 5 hingga 10 kilowatt (kW). Rak modern yang penuh dengan GPU Blackwell atau H100 bisa menarik daya antara 50 dan 100 kW.

    Peningkatan sepuluh kali lipat dalam kepadatan daya ini memaksa transisi dari pendinginan udara (kipas meniup heatsink logam) ke pendinginan cair. Udara bukanlah media yang cukup padat untuk membuang panas buangan yang dihasilkan oleh rak 100kW. Akibatnya, generasi pusat data berikutnya dipasangi pipa seperti pabrik kimia industri, dengan aliran coolant langsung ke chip silikon untuk mencegah perlambatan karena panas.

    Pemberontakan Hyperscaler

    Saat hambatan energi semakin ketat dan biaya listrik naik, raksasa teknologi utama—para "Hyperscaler"—berusaha mengurangi ketergantungan mereka pada GPU tujuan umum. Meskipun GPU sangat baik untuk AI, mereka masih menyertakan logika grafis warisan yang tidak diperlukan model AI. "Pemborosan silikon" ini sama dengan watt yang terbuang.

    Untuk mengatasinya, perusahaan-perusahaan beralih ke Application-Specific Integrated Circuits (ASIC). Ini adalah chip khusus yang dirancang dari awal untuk melakukan satu hal: menjalankan jaringan saraf. Dengan menghilangkan fitur-fitur tujuan umum, chip ini mencapai performa per watt yang jauh lebih tinggi, memungkinkan operator pusat data mendapatkan lebih banyak komputasi dari sambungan grid yang sama.

    Para pemain utama telah meluncurkan strategi chip khusus mereka:

  • Google (TPU): Tensor Processing Units milik Google adalah yang paling berpengalaman di bidang ini. TPU generasi ke-6 "Trillium" terbaru secara eksplisit dirancang untuk efisiensi energi, menawarkan peningkatan 67% dalam efisiensi energi dibandingkan generasi sebelumnya.
  • AWS (Trainium & Inferentia): Amazon Web Services memisahkan chipnya. Trainium dibangun untuk tugas berat pelatihan model, sementara Inferentia dirancang untuk tugas "inferensi" (menjalankan model untuk pengguna akhir) yang berbiaya rendah dan berenergi rendah.
  • Microsoft (Maia): Microsoft memperkenalkan Azure Maia 100 AI Accelerator, yang dirancang khusus untuk menjalankan model bahasa besar di cloud Azure. Ini memiliki sistem pendinginan cair "sidekick" unik yang cocok dengan ruang pusat data yang ada.
  • Meta (MTIA): Meta Training and Inference Accelerator dirancang khusus untuk algoritma rekomendasi Meta, mengoptimalkan untuk matematika spesifik yang banyak digunakan dalam peringkat media sosial daripada teks generatif.

    Pergeseran menuju ASIC ini mewakili industrialisasi AI. Sama seperti industri otomotif yang beralih dari bengkel umum ke jalur perakitan khusus, industri pusat data bergerak dari server tujuan umum ke pod AI khusus.

    Chip khusus ini memungkinkan Hyperscaler untuk memisahkan pertumbuhan mereka dari kendala rantai pasokan pasar GPU komersial. Yang lebih penting, mereka memungkinkan desain sistem yang holistik. Karena Google mendesain TPU, rak server, loop pendingin, dan cangkang pusat data, mereka dapat mengoptimalkan aliran pendingin agar sesuai dengan profil panas chip, meraih peningkatan efisiensi yang tidak mungkin dengan perangkat keras standar.

    Melampaui Batas Silikon

    Melihat ke depan lebih jauh, industri menyadari bahwa bahkan silikon khusus memiliki batas fisik. Saat transistor mengecil sampai ukuran atom, resistansi listrik menciptakan panas yang tidak mudah diatasi. Untuk memecahkan kurva energi ini, lab R&D menjelajahi arsitektur eksotis yang sepenuhnya meninggalkan elektronik tradisional.

    Dua teknologi spesifik saat ini berpindah dari teori ke purwarupa:

  • Silicon Photonics: Chip saat ini menggunakan kabel tembaga untuk memindahkan data. Tembaga memiliki resistansi, yang menghasilkan panas. Perusahaan seperti Lightmatter dan Ayar Labs mengganti tembaga dengan cahaya (foton). Cahaya hampir tidak menghasilkan panas dibandingkan listrik dan bergerak lebih cepat, berpotensi memecahkan hambatan energi perpindahan data yang saat ini melanda kluster besar.
  • Komputasi Neuromorfik: Komputer tradisional memisahkan memori dan pemrosesan, membuang-buang energi untuk memindahkan data bolak-balik (hambatan Von Neumann). Chip neuromorfik dirancang untuk meniru arsitektur otak manusia, menggunakan "jaringan saraf spike" di mana pemrosesan dan memori terjadi di lokasi yang sama. Ini menjanjikan pengurangan daya hingga beberapa orde magnitudo untuk tugas pemrosesan sensorik tertentu.

    Pergeseran arsitektur dari CPU ke silikon terakselerasi—dan akhirnya ke fotonik—bukan hanya detail teknis; ini menciptakan pasar energi dua kecepatan. Internet "lama" seperti email dan hosting web akan terus berjalan di server CPU yang efisien dan pertumbuhannya rendah. Ekonomi "baru" AI akan berjalan di infrastruktur terakselerasi yang haus daya.

    Menurut data 2024 dari International Energy Agency (IEA), perpecahan ini sudah terlihat dalam data. Server konvensional diproyeksikan melihat konsumsi listrik tumbuh pada tingkat 9 persen per tahun. Sebaliknya, konsumsi listrik untuk server terakselerasi (GPU, TPU, dan ASIC) diproyeksikan tumbuh 30 persen per tahun. Pada 2030, server terakselerasi ini akan menyumbang hampir setengah dari peningkatan bersih konsumsi listrik pusat data global.

    Konsumsi listrik pusat data terdistribusi di lima kategori utama. Memahami pembagian ini penting bagi investor dan analis yang mencoba mengidentifikasi di mana peningkatan efisiensi—dan pemborosan energi—berada.

  • Server: Server menyumbang sekitar 60 persen dari total permintaan di fasilitas modern. Ini adalah listrik yang benar-benar melakukan "pekerjaan" komputasi. Saat kepadatan chip meningkat, persentase ini naik relatif terhadap sistem bantu, artinya grid semakin langsung terhubung dengan beban komputasi. Ketika model AI sedang dilatih, bebannya konstan dan tinggi; ketika idle, bebannya turun. Variabilitas ini memperkenalkan tantangan baru bagi operator grid yang terbiasa dengan beban industri yang stabil.
  • Pendinginan dan Kontrol Lingkungan: Pendinginan mewakili variabel terbesar dalam efisiensi pusat data, menyumbang antara 7 persen dan 30 persen dari total asupan listrik. Varians besar ini menyoroti pasar yang terbagi.
    • Pusat data "Hyperscale"—kampus besar milik raksasa teknologi seperti Google, Amazon, dan Microsoft—menggunakan teknik canggih untuk menjaga permintaan pendinginan mendekati batas 7 persen itu. Mereka menggunakan penahanan lorong panas, pendinginan udara bebas, dan semakin banyak, pendinginan cair langsung ke chip. Pergeseran ke TPU dan GPU high-end telah membuat pendinginan air menjadi kebutuhan daripada kemewahan, karena udara saja tidak lagi dapat menghilangkan panas yang dihasilkan silikon modern.
    • Sebaliknya, pusat data perusahaan kecil dan fasilitas warisan jauh kurang efisien. Banyak fasilitas lama ini menghabiskan hingga 30 persen dari total asupan listrik mereka hanya untuk melawan hukum termodinamika, menggunakan pengkondisi udara berintensitas energi tinggi untuk mencegah server kepanasan. Sektor ini juga merupakan pendorong utama penggunaan air di pusat data.
  • Penyimpanan, Jaringan, dan Infrastruktur: Sisa daya dibagi antara sistem penyimpanan (5 persen), peralatan jaringan seperti switch dan router (5 persen), dan infrastruktur umum seperti pencahayaan dan keamanan fisik. Meskipun masing-masing kecil, volume data yang disimpan untuk set data pelatihan AI yang sangat besar berarti permintaan energi penyimpanan tumbuh dalam istilah absolut.

    Distribusi internal energi ini—yang sangat berfokus pada silikon itu sendiri—menjelaskan mengapa industri begitu fokus pada efisiensi chip. Setiap watt yang dihemat di tingkat server berdampak ke seluruh sistem, mengurangi kebutuhan akan pendinginan, distribusi daya, dan infrastruktur cadangan. Namun, seperti yang diilustrasikan oleh pembagiannya, "buah yang mudah dipetik" dari efisiensi pendinginan sebagian besar telah dipanen oleh hyperscaler. Perbatasan berikutnya untuk peningkatan efisiensi harus datang dari beban komputasi itu sendiri.

    Pada akhirnya, memahami fisika tingkat mikro dari rak server hanya langkah pertama. Meskipun GPU atau TPU individu adalah keajaiban teknik, penggabungan jutaan chip ini menjadi armada global menciptakan kekuatan makro-ekonomi. Peningkatan efisiensi di tingkat chip saat ini dikalahkan oleh volume penyebaran yang sangat besar, membawa kita dari fisika rak ke fisika grid.

    Untuk memahami dampak penuh pada pasar energi global, kita harus melampaui dinding fasilitas dan melihat permintaan agregat yang ditempatkan komponen-komponen ini pada sistem tenaga nasional. Perjuangan internal antara panas dan komputasi sekarang meluap menjadi perjuangan global untuk kapasitas.

    Pusat data saat ini menempati ceruk yang relatif kecil dalam penggunaan energi global dibandingkan dengan industri berat atau transportasi, tetapi kecepatan pertumbuhannya melampaui hampir semua sektor lain dalam ekonomi global.

    Pada tahun 2024, pusat data global mengkonsumsi perkiraan 415 terawatt-hours (TWh) listrik. Sebagai perbandingan, 415 TWh kira-kira setara dengan total konsumsi listrik tahunan Prancis. Ini mewakili sekitar 1,5% dari konsumsi listrik global. Meskipun angka ini mungkin tampak marginal bagi pengamat biasa, tingkat perubahan menunjukkan adanya krisis yang akan datang.

    Selama lima tahun terakhir, konsumsi telah tumbuh 12 persen per tahun. Melihat ke depan hingga 2030, IEA memproyeksikan permintaan ini akan semakin cepat, menguraikan tiga skenario berbeda yang harus dipantau oleh pemantau pasar.

  • Skenario Dasar: Dalam skenario yang paling mungkin, konsumsi listrik global untuk pusat data diproyeksikan menjadi dua kali lipat, mencapai sekitar 945 TWh pada tahun 2030. Di masa depan ini, sektor ini akan mengkonsumsi sedikit di bawah 3 persen dari total listrik dunia. Penggandaan ini hanya dalam enam tahun akan membutuhkan penambahan kapasitas pembangkit listrik yang kira-kira setara dengan seluruh grid Jerman saat ini.
  • Skenario "Lift-Off": Skenario ini mengasumsikan bahwa kendala rantai pasokan saat ini diselesaikan dengan cepat dan adopsi AI dipercepat tanpa terkendali oleh regulasi atau ekonomi. Dalam kondisi ini, permintaan bisa melonjak menjadi 1.700 TWh pada tahun 2035—mengkonsumsi hampir 4,5 persen dari listrik dunia. Ini akan menempatkan pusat data setara dengan jejak energi seluruh negara India.
  • Skenario Penghalang: Sebaliknya, jika hambatan teknis, perpecahan geopolitik, atau adopsi AI yang lambat terjadi, permintaan mungkin mencapai dataran tinggi sekitar 700 TWh. Bahkan dalam pandangan konservatif ini, sektor ini tetap menjadi konsumen industri yang besar, tetapi tetap di bawah 2 persen dari permintaan global.

    Di luar penggunaan listrik mentah, implikasi karbonnya signifikan. Saat ini, pusat data menyumbang sekitar 180 juta ton (Mt) emisi CO2 per tahun, yang merupakan sekitar 0,5% dari emisi terkait energi global. Meskipun saat ini lebih rendah daripada penerbangan atau pengiriman, trajektorinya lebih curam.

    Jika skenario "Lift-Off" terjadi, emisi ini bisa naik menjadi 1,4% dari total global. Meskipun hyperscaler mengimbangi ini dengan pembelian energi terbarukan, emisi "berbasis lokasi" (karbon aktual yang dikeluarkan oleh grid lokal yang memberi daya pada fasilitas) sering kali tetap lebih tinggi daripada emisi "berbasis pasar" (angka bersih setelah offset). Perbedaan ini penting bagi investor ESG: pusat data di wilayah yang banyak menggunakan batubara seperti Mongolia Dalam atau Virginia Barat memiliki jejak karbon fisik yang tidak dapat sepenuhnya dihapus oleh kredit kertas apa pun.

    Terlepas dari skenario mana yang terjadi, trajektori ini tidak dapat disangkal: ekonomi digital sedang memisahkan diri dari tren efisiensi energi dekade lalu. Selama bertahun-tahun, penggunaan energi pusat data global tetap relatif datar bahkan ketika lalu lintas internet meledak, berkat peningkatan besar-besaran dalam efisiensi server dan konsolidasi cloud. Era pertumbuhan "gratis" itu tampaknya sudah berakhir. Intensitas termodinamika dari komputasi AI berarti bahwa konsumsi energi sekarang skala secara linear dengan ambisi digital.

    Guncangan permintaan ini berbeda dari tren elektrifikasi lainnya. Tidak seperti kendaraan listrik, yang mendistribusikan beban di antara jutaan titik akhir dan dapat mengisi daya selama jam sibuk, pusat data adalah konsumen beban dasar yang terkonsentrasi. Satu kampus hyperscale dapat mengkonsumsi daya sebanyak kota berukuran sedang, membutuhkan daya itu 24/7 dengan toleransi nol terhadap ketidakstabilan. Ini menciptakan "titik panas" akut di mana infrastruktur transmisi lokal kewalahan jauh sebelum kapasitas pembangkit nasional habis, secara efektif menyandera pertumbuhan digital hingga peningkatan grid fisik dilakukan.

    Ada perbedaan signifikan antara tujuan dekarbonisasi yang dinyatakan oleh perusahaan teknologi besar dan realitas fisik grid yang memberi daya pada fasilitas mereka. Sebagian besar hyperscaler memiliki target "Net Zero" yang agresif, seringkali bertujuan untuk berjalan dengan 100% energi bebas karbon pada tahun 2030. Namun, elektron fisik yang mengalir ke server mereka sebagian besar berasal dari bahan bakar fosil dan kemungkinan akan terus demikian hingga jangka menengah karena mekanisme daya beban dasar.

    Meskipun ada upaya global untuk menghapus batubara, ia tetap menjadi penopang diam-diam dari ekonomi digital. Batubara saat ini merupakan sumber listrik tunggal terbesar untuk pusat data global, menyumbang sekitar 30 persen dari daya sektor ini.

    Ketergantungan ini sangat condong berdasarkan geografi, khususnya Cina. Sebagai pasar kedua terbesar untuk infrastruktur data, Cina mendapatkan hampir 70 persen daya pusat datanya dari batubara. Namun, bahkan di pasar Barat, persyaratan beban dasar pusat data seringkali membutuhkan ketergantungan pada campuran grid yang masih mengandung pembangkit batubara, terutama selama periode output terbarukan yang rendah. IEA memproyeksikan bahwa meskipun pangsa batubara akhirnya akan menurun, ia akan tetap menjadi pilar pasokan yang kritis hingga setidaknya tahun 2035, menantang narasi "hijau" dari revolusi AI.

    Gas alam saat ini memenuhi 26 persen dari permintaan pusat data global, tetapi perannya bisa dibilang lebih kritis daripada yang disarankan oleh persentase mentah. Gas diperkirakan akan menjadi penerima manfaat utama dari booming AI dalam jangka pendek, particularly di Amerika Utara.

    Pusat data beroperasi pada standar keandalan "lima sembilan" (99,999%). Pemadaman listrik bukanlah ketidaknyamanan; itu adalah peristiwa finansial yang katastrofik. Energi terbarukan intermiten seperti angin dan matahari belum dapat memberikan tingkat uptime ini tanpa penyimpanan baterai yang masif, yang belum diterapkan pada skala yang cukup. Akibatnya, gas alam berfungsi sebagai sumber pembangkit listrik yang dapat diatur pilihan.

    Di Amerika Serikat, gas alam sudah menjadi sumber bahan bakar terbesar untuk pusat data, menyumbang lebih dari 40 persen permintaan. Antara 2024 dan 2030, gas alam dan batubara diproyeksikan memenuhi lebih dari 40 persen dari permintaan listrik tambahan yang dihasilkan oleh pusat data. Bagi investor gas alam, booming pusat data mewakili sumber permintaan industri baru yang tahan lama dan sebagian besar tidak peka terhadap harga.

    Energi terbar

MEMBACA  Kepala Sekolah Dulwich College mengundurkan diri setelah ledakan emosi pada pesta staf