Pusat data AI menjadi ‘sangat besar’

Pembangunan pusat data yang lebih kuat untuk kecerdasan buatan, dipenuhi dengan chip GPU yang semakin banyak, mendorong pusat data menjadi ukuran yang sangat besar, menurut chief executive of Ciena, yang membuat peralatan jaringan serat optik yang dibeli oleh vendor komputasi awan untuk menghubungkan pusat data mereka bersama.

“Beberapa pusat data besar ini hanya sangat besar, mereka sangat besar,” kata Gary Smith, CEO Ciena yang berbasis di Hannover, Maryland.

Juga: o3 OpenAI belum AGI namun baru saja melakukan sesuatu yang belum pernah dilakukan AI lainnya

“Anda memiliki pusat data yang lebih dari dua kilometer,” kata Smith, lebih dari 1,24 mil. Beberapa pusat data yang lebih baru adalah multi-lantai, menciptakan dimensi kedua jarak di atas penyebaran horizontal.

Smith membuat komentar tersebut sebagai bagian dari wawancara dengan buletin keuangan The Technology Letter minggu lalu.

Meskipun pusat data awan berkembang, kampus perusahaan mulai kewalahan untuk mendukung klaster GPU dengan ukuran yang semakin besar, kata Smith.

“Kampus-kampus ini semakin besar dan panjang,” kata dia. Kampus, yang terdiri dari banyak bangunan, “memburamkan batas antara apa yang dulu merupakan jaringan area luas dan apa yang ada di dalam pusat data.”

Juga: AWS mengatakan pusat data AI-nya baru saja menjadi lebih efisien – inilah caranya

“Anda mulai melihat kampus-kampus ini mencapai jarak yang cukup jauh, dan itu menimbulkan tekanan besar pada teknologi koneksi langsung.”

Smith berharap akan mulai menjual peralatan serat optik dalam beberapa tahun ke depan yang mirip dengan apa yang ada di jaringan telekomunikasi jarak jauh tetapi disesuaikan untuk menghubungkan GPU di dalam pusat data. Ciena

MEMBACA  Pasar Novo Nordisk melampaui Tesla dalam data uji coba pil obesitas baru

Sebuah perangkat koneksi langsung adalah perangkat jaringan yang dibangun khusus untuk memungkinkan GPU berbicara satu sama lain, seperti produk jaringan “NVLink” dari Nvidia.

Komentar Smith mencerminkan komentar orang lain yang melayani industri kecerdasan buatan, seperti Thomas Graham, co-founder startup chip Lightmatter, yang bulan lalu mengatakan dalam konferensi Bloomberg Intelligence bahwa setidaknya ada sekitar satu lusin pusat data AI baru yang direncanakan atau dalam konstruksi sekarang yang memerlukan satu gigawatt daya untuk dijalankan.

“Hanya sebagai konteks, Kota New York mengeluarkan lima gigawatt daya dalam satu hari rata-rata, jadi, beberapa NYC.” Menurut Graham, pada tahun 2026, diperkirakan pemrosesan AI dunia akan membutuhkan 40 gigawatt daya “khusus untuk pusat data AI, jadi delapan NYC.”

Smith mengatakan bahwa tekanan yang ditempatkan pada teknologi koneksi langsung Nvidia berarti bahwa tautan serat optik tradisional, yang selama ini dipesan untuk jaringan telekomunikasi jarak jauh, akan mulai diterapkan di dalam pusat data awan dalam beberapa tahun ke depan.

“Mengingat kecepatan GPU, dan jarak yang sekarang terjadi di pusat data ini, kami pikir ada titik perpotongan untuk teknologi itu [serat optik], dan itulah yang kami fokuskan,” kata Smith kepada buletin tersebut.