Elon Musk punya visi besar tentang hidup dengan AI: Teknologi ini akan mengambil semua pekerjaan kita, sementara “pendapatan tinggi universal” akan membuat siapa saja bisa dapat banyak barang dan jasa. Tapi, jika mimpi Musk ini jadi kenyataan, akan ada pertanyaan besar tentang arti hidup.
“Pertanyaannya akan tentang makna,” kata Musk di konferensi Viva Technology Mei 2024. “Jika komputer dan robot bisa lakukan segalanya lebih baik dari kamu… apakah hidup kamu punya arti?”
Tapi menurut pemenang Nobel dan “bapak AI” Geoffrey Hinton, kebanyakan pemimpin industri tidak memikirkan pertanyaan ini tentang tujuan akhir AI. Dalam mengembangkan AI, Big Tech lebih tertarik pada hasil cepat daripada akibat jangka panjang.
“Bagi pemilik perusahaan, penelitian didorong oleh keuntungan jangka pendek,” kata Hinton, profesor emeritus ilmu komputer di University of Toronto, kepada Fortune.
Dan untuk pengembang teknologi ini, fokus mereka juga pada pekerjaan di depan mata, bukan pada hasil akhir penelitian itu sendiri.
“Peneliti tertarik menyelesaikan masalah yang membuat mereka penasaran. Kita tidak mulai dengan tujuan yang sama, seperti apa masa depan manusia?” kata Hinton.
“Kita punya tujuan-tujuan kecil, seperti bagaimana caranya membuat komputer bisa mengenali gambar? Bagaimana membuat komputer bisa buat video yang meyakinkan?” tambahnya. “Itulah yang mendorong penelitian.”
Hinton lama memperingatkan bahaya AI tanpa pengawasan dan perkembangan yang terkendali. Dia perkirakan ada peluang 10% sampai 20% teknologi ini bisa musnahkan manusia setelah kecerdasan super berkembang.
Di tahun 2023—10 tahun setelah dia jual perusahaan neural network-nya DNNresearch ke Google—Hinton keluar dari perannya di raksasa teknologi itu. Dia ingin bebas bicara soal bahaya AI dan takut tidak bisa “cegah orang jahat memakainya untuk hal buruk.”
Apa resiko AI yang tidak diatur?
Bagi Hinton, bahaya AI terbagi dua: resiko teknologi itu sendiri bagi masa depan manusia, dan akibat AI yang dimanipulasi orang berniat jahat.
“Ada perbedaan besar antara dua jenis resiko,” katanya. “Ada resiko aktor jahat menyalahgunakan AI, dan itu sudah terjadi sekarang. Sudah terjadi dengan video palsu dan serangan siber, dan mungkin segera dengan virus. Itu sangat berbeda dengan resiko AI sendiri menjadi aktor jahat.”
Pada November 2025, Anthropic bilang mereka gagalkan “kasus pertama serangan siber AI berskala besar yang dilakukan tanpa campur tangan manusia banyak,” mengidentifikasi kelompok yang didukung negara China yang memanipulasi Claude Code untuk coba infiltrasi sekitar 30 perusahaan teknologi, lembaga keuangan, agensi pemerintah, dan pabrik kimia, kata perusahaan AI itu dalam postingan blog.
Kejadian ini membuat ahli keamanan siber percaya Iran bisa pakai AI untuk lakukan serangan siber otomatis terhadap AS.
Selain mendorong lebih banyak regulasi, seruan Hinton untuk atasi potensi kesalahan AI adalah pertarungan sulit karena setiap masalah dengan teknologi ini butuh solusi khusus, katanya. Dia bayangkan autentikasi seperti asal-usul untuk video dan gambar di masa depan yang bisa lawan penyebaran deepfake.
Sama seperti printer menambah nama di karya mereka setelah mesin cetak muncul ratusan tahun lalu, sumber media juga perlu cari cara untuk tambah tanda tangan di karya asli mereka. Tapi Hinton bilang perbaikan punya batas.
“Masalah itu mungkin bisa diatasi, tapi solusi untuk masalah itu tidak selesaikan masalah lain,” katanya.
Untuk resiko dari AI sendiri, Hinton percaya perusahaan teknologi perlu ubah cara mereka lihat hubungan dengan AI. Saat AI capai kecerdasan super, katanya, itu tidak hanya akan lebih hebat dari manusia, tapi juga punya keinginan kuat untuk bertahan dan dapat kontrol lebih. Kerangka kerja saat ini tentang AI—bahwa manusia bisa kontrol teknologinya—maka tidak akan relevan lagi.
Hinton berpendapat model AI perlu diberi “naluri keibuan” agar bisa perlakukan manusia yang kurang kuat dengan simpati, bukan keinginan untuk mengontrol mereka.
Mengacu pada ide femininitas tradisional, dia bilang satu-satunya contoh yang bisa dia berikan tentang makhluk lebih cerdas yang dikontrol makhluk kurang cerdas adalah bayi yang mengontrol ibunya.
“Jadi saya pikir itu model lebih baik yang bisa kita praktikkan dengan AI supercerdas,” kata Hinton. “Mereka akan menjadi ibu, dan kita akan menjadi bayi.”
Versi cerita ini terbit di Fortune.com pada 15 Agustus 2025.
Lebih lanjut tentang masa depan AI: