“Berkat booming kecerdasan buatan, pusat data baru bermunculan secepat perusahaan dapat membangunnya. Hal ini berarti permintaan besar untuk listrik untuk menjalankan dan mendinginkan server di dalamnya. Sekarang kekhawatiran semakin meningkat tentang apakah AS dapat menghasilkan cukup listrik untuk adopsi luas AI, dan apakah grid tua kita akan mampu menangani beban tersebut.”Jika kita tidak mulai memikirkan masalah listrik ini dengan cara yang berbeda sekarang, kita tidak akan pernah melihat impian ini terwujud,” kata Dipti Vachani, kepala otomotif di Arm. Prosesor hemat daya perusahaan chip ini telah semakin populer di kalangan hyperscalers seperti Google, Microsoft, Oracle, dan Amazon – tepat karena mereka dapat mengurangi penggunaan daya hingga 15% di pusat data.Chip AI terbaru Nvidia, Grace Blackwell, menggabungkan CPU berbasis Arm yang diklaim dapat menjalankan model AI generatif dengan menggunakan daya 25 kali lebih sedikit daripada generasi sebelumnya.”Menyimpan setiap bit daya akan menjadi desain yang berbeda secara fundamental daripada ketika Anda mencoba memaksimalkan kinerja,” kata Vachani.Strategi ini untuk mengurangi penggunaan daya dengan meningkatkan efisiensi komputasi, sering disebut sebagai “lebih banyak pekerjaan per watt,” adalah salah satu jawaban atas krisis energi AI. Namun, itu masih belum cukup.Satu kueri ChatGPT menggunakan hampir 10 kali lebih banyak energi daripada pencarian Google biasa, menurut laporan Goldman Sachs. Menghasilkan gambar AI dapat menggunakan daya sebanyak mengisi ulang ponsel pintar Anda.Masalah ini bukanlah hal baru. Perkiraan pada tahun 2019 menemukan pelatihan satu model bahasa besar menghasilkan sebanyak CO2 selama seluruh umur lima mobil bertenaga gas. Hyperscalers yang membangun pusat data untuk menampung tarikan daya besar ini juga melihat emisi melonjak. Laporan lingkungan terbaru Google menunjukkan emisi gas rumah kaca naik hampir 50% dari tahun 2019 hingga 2023, sebagian karena konsumsi energi pusat data, meskipun juga mengatakan pusat data mereka 1,8 kali lebih energi efisien daripada pusat data tipikal. Emisi Microsoft naik hampir 30% dari tahun 2020 hingga 2024, juga karena sebagian pusat data.Dan di Kansas City, di mana Meta membangun pusat data yang berfokus pada AI, kebutuhan daya begitu tinggi sehingga rencana untuk menutup pembangkit listrik batubara ditunda.Ratusan kabel ethernet menghubungkan rak server di pusat data Vantage di Santa Clara, California, pada 8 Juli 2024.Katie TarasovMengejar dayaAda lebih dari 8.000 pusat data di seluruh dunia, dengan konsentrasi tertinggi di AS. Dan, berkat AI, akan ada jauh lebih banyak pada akhir dekade ini. Boston Consulting Group memperkirakan permintaan untuk pusat data akan naik 15%-20% setiap tahun hingga 2030, ketika diperkirakan akan mencakup 16% dari total konsumsi listrik AS. Itu naik dari hanya 2,5% sebelum ChatGPT OpenAI dirilis pada tahun 2022, dan setara dengan listrik yang digunakan sekitar dua pertiga total rumah di AS.CNBC mengunjungi pusat data di Silicon Valley untuk mengetahui bagaimana industri ini dapat menangani pertumbuhan cepat ini, dan di mana akan menemukan cukup daya untuk membuatnya mungkin.”Kami menduga bahwa jumlah permintaan yang akan kami lihat dari aplikasi AI khusus akan sama atau lebih besar daripada yang kami lihat secara historis dari komputasi awan,” kata Jeff Tench, wakil presiden eksekutif Vantage Data Center untuk Amerika Utara dan APAC.Banyak perusahaan teknologi besar berkontrak dengan perusahaan seperti Vantage untuk menyimpan server mereka. Tench mengatakan pusat data Vantage biasanya memiliki kapasitas untuk menggunakan lebih dari 64 megawatt daya, atau sebanyak listrik yang digunakan puluhan ribu rumah.”Banyak dari itu diambil oleh pelanggan tunggal, di mana mereka akan menyewa seluruh ruang untuk mereka. Dan ketika kami memikirkan aplikasi AI, angka-angka itu dapat tumbuh secara signifikan melebihi itu hingga ratusan megawatt,” kata Tench.Santa Clara, California, di mana CNBC mengunjungi Vantage, telah lama menjadi salah satu titik panas negara bagian untuk klaster pusat data dekat klien yang haus data. Markas besar Nvidia terlihat dari atap. Tench mengatakan ada “perlambatan” di Northern California karena “kurangnya ketersediaan daya dari utilitas di area ini.”Vantage sedang membangun kampus baru di Ohio, Texas, dan Georgia.”Industri itu sendiri mencari tempat di mana ada akses dekat ke energi terbarukan, baik angin atau surya, dan infrastruktur lain yang dapat dimanfaatkan, baik sebagai bagian dari program insentif untuk mengonversi apa yang seharusnya menjadi pembangkit listrik batubara menjadi gas alam, atau semakin mempertimbangkan cara untuk mengambil daya dari fasilitas nuklir,” kata Tench.Vantage Data Centers memperluas kampus di luar Phoenix, Arizona, untuk menawarkan kapasitas 176 megawattVantage Data CentersMenguatkan gridGrid tua sering tidak cukup untuk menangani beban bahkan di tempat di mana cukup daya dapat dihasilkan. Engsel terjadi dalam mendapatkan daya dari lokasi pembangkitan ke tempat di mana itu dikonsumsi. Salah satu solusinya adalah menambahkan ratusan atau ribuan mil jalur transmisi.”Itu sangat mahal dan sangat memakan waktu, dan kadang-kadang biayanya hanya diteruskan kepada penduduk dalam kenaikan tagihan utilitas,” kata Shaolei Ren, profesor asosiasi teknik listrik dan komputer di Universitas California, Riverside.Satu upaya senilai $5,2 miliar untuk memperluas jalur ke daerah di Virginia yang dikenal sebagai \”data center alley\” dihadapi dengan perlawanan dari pembayar tarif lokal yang tidak ingin melihat tagihan mereka meningkat untuk mendanai proyek tersebut.Solusi lain adalah menggunakan perangkat lunak prediktif untuk mengurangi kegagalan di salah satu titik terlemah grid: transformator.”Semua listrik yang dihasilkan harus melewati transformator,” kata CEO VIE Technologies Rahul Chaturvedi, menambahkan bahwa ada 60 hingga 80 juta transformator di AS.Rata-rata transformator juga berusia 38 tahun, sehingga mereka adalah penyebab umum untuk pemadaman listrik. Menggantinya mahal dan lambat. VIE membuat sensor kecil yang melekat pada transformator untuk memprediksi kegagalan dan menentukan transformator mana yang dapat menangani lebih banyak beban sehingga dapat dialihkan dari yang berisiko kegagalan.Chaturvedi mengatakan bisnisnya meningkat tiga kali lipat sejak ChatGPT dirilis pada tahun 2022, dan bersiap untuk melipatgandakan atau melipatgandakan lagi tahun depan.CEO VIE Technologies Rahul Chaturvedi memegang sensor pada 25 Juni 2024, di San Diego. VIE memasangnya pada transformator tua untuk membantu memprediksi dan mengurangi kegagalan grid.Mendinginkan serverGenerative AI data center juga akan memerlukan 4,2 miliar hingga 6,6 miliar meter kubik pengambilan air pada tahun 2027 untuk tetap sejuk, menurut penelitian Ren. Itu lebih dari total pengambilan air tahunan separuh dari U.K.”Semua orang khawatir tentang AI yang mengonsumsi energi. Kita bisa menyelesaikannya ketika kita bangkit dari tempat duduk dan berhenti menjadi bodoh tentang nuklir, kan? Itu bisa diselesaikan. Air adalah faktor pembatas fundamental untuk apa yang akan datang dalam hal AI,” kata Tom Ferguson, mitra manajemen di Burnt Island Ventures.Tim penelitian Ren menemukan bahwa setiap 10-50 prompt ChatGPT dapat menggunakan sekitar yang akan Anda temukan dalam botol air 16 ons standar.Banyak dari air itu digunakan untuk pendinginan evaporatif, tetapi pusat data Santa Clara Vantage memiliki unit pendingin udara besar yang mendinginkan bangunan tanpa penarikan air lainnya.Solusi lain adalah menggunakan cairan untuk pendinginan langsung ke chip.”Untuk banyak pusat data, itu memerlukan retrofit besar. Dalam kasus kami di Vantage, sekitar enam tahun yang lalu, kami menerapkan desain yang memungkinkan kami untuk mengakses loop air dingin di sini di lantai aula data,” kata Tench Vantage.Perusahaan seperti Apple, Samsung, dan Qualcomm telah memuji manfaat AI di perangkat, menjauhkan kueri yang rakus daya dari cloud, dan keluar dari pusat data yang kekurangan daya.”Kami akan memiliki sebanyak AI yang akan didukung oleh pusat data tersebut. Dan mungkin lebih sedikit dari yang orang harapkan. Tapi pada akhirnya, ada banyak orang yang bekerja untuk menemukan cara untuk melepaskan beberapa kendala pasokan itu,” kata Tench.”