Strategi Cloud-First Tewas oleh AI: Mengapa Komputasi Hibrid Jadi Satu-Satunya Jalan Ke Depan

John Lund/Photodisc/Getty Images

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.


**Poin Penting ZDNET:** Pendekatan *cloud-first* perlu ditinjau ulang. AI berkontribusi pada melonjaknya biaya cloud. Model hibrida menjamin yang terbaik dari dua dunia.


Sekitar satu dekade lalu, perdebatan sengit antara komputasi cloud dan *on-premises* terjadi. Cloud memenangkan pertarungan itu dengan mudah. Namun kini, orang-orang mulai mempertanyakan kembali apakah cloud masih merupakan pilihan terbaik untuk banyak situasi.

**Selamat datang di era AI**, di mana komputasi *on-premises* mulai terlihat menarik kembali.

Ada Gerakan yang Sedang Berkembang

Infrastruktur yang ada yang kini dikonfigurasi dengan layanan cloud mungkin belum siap untuk tuntutan AI yang muncul, demikian peringatan analisis terbaru dari Deloitte.

“Infrastruktur yang dibangun untuk strategi *cloud-first* tidak dapat menangani ekonomi AI,” demikian bunyi laporan yang ditulis tim analis Deloitte pimpinan Nicholas Merizzi.

“Proses yang dirancang untuk pekerja manusia tidak berfungsi untuk *agent*. Model keamanan yang dibangun untuk pertahanan *perimeter* tidak melindungi dari ancaman yang beroperasi pada kecepatan mesin. Model operasional TI yang dibangun untuk penyampaian layanan tidak mendorong transformasi bisnis.”

Untuk memenuhi kebutuhan AI, perusahaan-perusahaan mempertimbangkan pergeseran dari yang terutama cloud ke campuran hibrida cloud dan *on-premises*. Para pengambil keputusan teknologi kini mempertimbangkan kembali opsi *on-premises*.

Seperti yang dideskripsikan tim Deloitte, ada gerakan yang berkembang “dari *cloud-first* ke hibrida strategis — **cloud untuk elastisitas, *on-premises* untuk konsistensi, dan *edge* untuk kesegeraan**.”

Empat Permasalahan

Analis Deloitte mengutip empat isu mendesak yang muncul dengan AI berbasis cloud:

1. **Biaya cloud yang meningkat dan tak terduga:** Biaya *token* AI telah turun 280 kali lipat dalam dua tahun, namun “beberapa perusahaan melihat tagihan bulanan mencapai puluhan juta.” Penggunaan berlebihan layanan AI berbasis cloud “dapat menyebabkan *hit* API yang sering dan biaya yang melesat.” Bahkan ada titik balik di mana penerapan *on-premises* lebih masuk akal. “Ini dapat terjadi ketika biaya cloud mulai melebihi 60-70% dari total biaya akuisisi sistem *on-premises* yang setara, menjadikan investasi modal lebih menarik dibandingkan biaya operasional untuk *workload* AI yang dapat diprediksi.”
2. **Masalah *latency* dengan cloud:** AI seringkali menuntut *latency* mendekati nol. “Aplikasi yang membutuhkan waktu respons 10 milidetik atau di bawahnya tidak dapat mentolerir penundaan yang melekat pada pemrosesan berbasis cloud,” tulis para penulis Deloitte.
3. ***On-premises* menjanjikan ketahanan lebih besar:** Ketahanan (*resiliency*) juga bagian dari persyaratan mendesak untuk proses AI yang berfungsi penuh. Ini mencakup “tugas-tugas *mission-critical* yang tidak boleh terinterupsi memerlukan infrastruktur *on-premises* jika koneksi ke cloud terputus,” jelas para analis.
4. **Kedaulatan data:** Beberapa perusahaan “memulangkan layanan komputasi mereka, tidak ingin bergantung sepenuhnya pada penyedia layanan di luar yurisdiksi lokal mereka.”

MEMBACA  Kamera Aksi 360 Derajat Insta360 8K yang Serbaguna ini Tembus Harga Terendah Sepanjang Masa.

Pendekatan Tiga Tingkat

Solusi terbaik untuk dilema cloud versus *on-premises* adalah menggunakan keduanya, menurut tim Deloitte. Mereka merekomendasikan pendekatan tiga tingkat:

* **Cloud untuk elastisitas:** Menangani *workload* pelatihan yang bervariasi, kebutuhan kapasitas *burst*, dan eksperimen.
* ***On-premises* untuk konsistensi:** Menjalankan *inference* produksi dengan biaya yang dapat diprediksi untuk *workload* bervolume tinggi dan berkelanjutan.
* ***Edge* untuk kesegeraan:** AI dalam perangkat, aplikasi, atau sistem *edge* yang menangani “keputusan *time-critical* dengan *latency* minimal, terutama untuk sistem manufaktur dan otonom di mana waktu respons sepersekian detik menentukan keberhasilan atau kegagalan operasional.”

Pendekatan hibrida ini beresonansi sebagai jalan terbaik ke depan bagi banyak perusahaan. Milankumar Rana, yang baru-baru ini menjabat sebagai *software architect* di FedEx Services, sepenuhnya mendukung cloud untuk AI, tetapi melihat kebutuhan untuk mendukung kedua pendekatan di tempat yang sesuai.

“Saya telah membangun infrastruktur *machine learning* dan analitik berskala besar, dan saya mengamati bahwa hampir semua fungsionalitas, seperti *data lake*, *pipeline* terdistribusi, analitik *streaming*, dan *workload* AI berbasis GPU dan TPU, kini dapat berjalan di cloud,” katanya kepada ZDNET. “Karena layanan AWS, Azure, dan GCP begitu matang, bisnis dapat tumbuh cepat tanpa harus mengeluarkan banyak uang di muka.”

Rana juga menyarankan pelanggan “untuk mempertahankan beberapa *workload* *on-premises* di mana kedaulatan data, pertimbangan regulasi, atau *latency* yang sangat rendah membuat cloud kurang berguna,” ujarnya. “Cara terbaik untuk melakukan berbagai hal saat ini adalah dengan menggunakan strategi hibrida, di mana Anda menyimpan aplikasi sensitif atau peka *latency* *on-premises* sambil menggunakan cloud untuk fleksibilitas dan ide-ide baru.”

Baik menggunakan sistem cloud atau *on-premises*, perusahaan harus selalu mengambil tanggung jawab langsung atas keamanan dan pemantauan, kata Rana. “Keamanan dan kepatuhan tetap menjadi tanggung jawab semua individu. Platform cloud menyertakan keamanan yang kuat; namun, Anda harus memastikan kepatuhan terhadap regulasi untuk enkripsi, akses, dan pemantauan.”

MEMBACA  Perusahaan Tiongkok yang menjadi pusat pesanan kran pelabuhan AS oleh Biden menyangkal bahwa itu merupakan ancaman keamanan.

Tinggalkan komentar