Penggunaan AI Berkepanjangan Berisiko bagi Kesehatan dan Pekerjaan: 4 Langkah untuk Tetap Aman

Puneet Vikram Singh, Fotografer Alam dan Konsep / Moment via Getty Images

Kesimpulan utama ZDNET
Kecerdasan Artifisial semakin mahir dalam tugas-tugas kecil, tetapi masih tertinggal dalam analisis mendalam dan berjangka panjang. Interaksi yang terlalu lama dengan AI dapat berakibat buruk. Gunakan AI sebagai alat untuk tugas yang terdefinisi dengan jelas, dan hindari terjerumus ke dalam percakapan berlarut-larut.

Lebih baik melakukan sedikit hal dengan baik daripada banyak hal dengan buruk. Demikian filsuf besar Socrates berpesan, dan nasihat ini relevan untuk penggunaan kecerdasan artifisial, termasuk chatbot seperti ChatGPT dari OpenAI atau Perplexity, serta program AI agen yang semakin banyak diuji di lingkungan perusahaan.

Riset terkini menunjukkan bahwa pendekatan paling aman dan produktif dengan AI adalah memanfaatkannya untuk tugas-tugas kecil dan terbatas, di mana hasilnya dapat didefinisikan dengan jelas dan diverifikasi, alih-alih terlibat interaksi panjang selama berjam-jam, berhari-hari, bahkan berminggu-minggu.

Interaksi yang berlebihan dengan chatbot dapat memunculkan misinformasi, bahkan dalam kasus tertentu mengakibatkan delusi dan bahaya serius. Teknologi ini belum siap menangani tuntutan penalaran, logika, nalar sehat, dan analisis mendalam—bidang di mana pikiran manusia masih tak tergantikan.

Kita belum mencapai AGI (Kecerdasan Artifisial Umum), sehingga penting untuk menyadari keterbatasan teknologi ini saat menggunakannya. Singkatnya, perlakukan AI sebagai alat, jangan sampai terbawa percakapan tanpa ujung yang justru menjerumuskan.

Apa yang bisa dan kurang bisa dilakukan AI
AI cenderung berkinerja baik pada tugas sederhana, tetapi kurang handal dalam analisis yang kompleks dan mendalam. Temuan terkini dari Annual AI Index 2026 oleh Stanford University mengonfirmasi hal ini.

Di satu sisi, AI agen semakin sukses dalam tugas seperti pencarian informasi di web. Bahkan, kemampuannya hampir menyamai manusia dalam proses online rutin. Pada tiga tolok ukur—GAIA, OSWorld, dan WebArena—kinerja AI agen mendekati tingkat manusia dalam tugas bertahap seperti membuka basis data, menerapkan aturan, dan memperbarui data pelanggan.

MEMBACA  Aplikasi Instagram untuk iPad, Motorola Razr Terbaru, dan Gemini Terbaru—Inilah Berita Gadget Minggu Ini.

Namun, ketika dituntut melakukan pekerjaan lebih mendalam, hasilnya kurang menggembirakan. Penelitian menunjukkan bahwa model AI kesulitan saat diminta mencari beberapa informasi yang cocok sekaligus atau menerapkan kondisi di dokumen sangat panjang—tugas yang justru mudah bagi manusia.

Pengalaman pribadi penulis saat menggunakan ChatGPT untuk menyusun rencana bisnis juga mencerminkan hal serupa: jawaban awalnya baik, tetapi makin lama sesi percakapan, makin banyak kesalahan menyusup. Semakin panjang interaksi dengan ChatGPT, semakin tinggi risiko error yang muncul.

Dampak dari elaborasi AI yang tidak terkendali bisa lebih serius. Sebuah artikel di majalah Nature pekan lalu menguraikan bagaimana ilmuwan menciptakan penyakit fiksi "bixonimania" beserta makalah penelitian palsunya. Model bahasa besar seperti Gemini kemudian dengan percaya diri menyebut penyakit itu sebagai fakta, merujuk pada penelitian palsu tersebut.

Hal ini menunjukkan masih kurangnya pengawasan terhadap akses informasi yang dimiliki teknologi AI. Puneet Vikram Singh, Fotografer Alam dan Konsep / Moment via Getty Images

Tanpa pemeriksaan yang tepat, sulit untuk mengetahui apakah suatu model AI dapat memverifikasi kebenaran output yang dihasilkannya. Seperti diungkapkan oleh seorang akademisi yang tidak terlibat dalam penelitian tersebut, "Kita perlu mengevaluasi [model AI] dan memiliki saluran untuk evaluasi berkelanjutan."

Konsekuensi Bisa Jadi Serius

Sebuah varian yang lebih serius, di mana pengguna tampaknya terjebak dalam lubang kelinci dengan terlalu mempercayai bot, dijelaskan dalam artikel New York Times baru-baru ini oleh Teddy Rosenbluth. Artikel tersebut mengangkat kasus seorang pria lanjut usia yang bergumul dengan kanker sel darah putih.

Alih-alih mengikuti saran onkolognya, pasien bernama Joe Riley itu mengandalkan interaksi ekstensif dengan chatbot, terutama Perplexity, untuk membantah diagnosis dokter. Ia bersikeras bahwa penelitiannya melalui AI mengungkapkan bahwa ia mengalami apa yang disebut Transformasi Richter, suatu komplikasi kanker yang justru akan memburuk dengan pengobatan yang direkomendasikan.

MEMBACA  Penawaran Robot Vakum Terbaik: Diskon Rp 7,3 Juta untuk Roborock Qrevo CurvX

Baca juga: Gunakan Google AI Overview untuk saran kesehatan? Investigasi temukan itu ‘sangat berbahaya’.

Meski menerima email dari para ahli Transformasi Richter yang mempertanyakan materi dalam ringkasan Perplexity, Riley tetap bertahan pada kepercayaannya terhadap laporan yang dihasilkan AI. Ia menolak permohonan dokter dan keluarganya. Ia melewatkan jendela waktu untuk pengobatan yang tepat, dan ketika akhirnya bersedia mencoba pengobatan, itu sudah terlambat.

Rosenbluth menghubungkan kisah Joe Riley dengan kasus Adam Raine tahun lalu, yang meninggal karena bunuh diri setelah percakapan panjang dengan ChatGPT mengenai kecenderungannya untuk mengakhiri hidup.

Putra Riley, Ben Riley, menuliskan kisah perjalanan ayahnya dengan AI. Meski Ben tidak menyalahkan teknologinya secara langsung, ia menekankan bahwa tenggelam dalam percakapan dengan chatbot hingga kehilangan perspektif dapat berakibat fatal.

"Faktanya, AI memang ada di dunia kita," tulis Riley, "dan sebagaimana ia dapat menjadi bahan bakar bagi mereka yang mengalami psikosis manik, ia juga dapat mengafirmasi atau memperkuat pemahaman keliru kita tentang apa yang terjadi secara fisik dan medis."

Tetap Waras Bersama AI yang Tak Terandalkan

Kecenderungan untuk terlibat dalam diskusi panjang tentang depresi, bunuh diri, dan kondisi kesehatan serius adalah hal yang dapat dimengerti. Orang telah terbiasa dengan interaksi panjang selama berjam-jam di media sosial. Sebagian orang merasa kesepian, dan percakapan dalam bahasa alami dengan bot terasa lebih baik daripada tidak ada percakapan sama sekali.

Baca juga: Chatbot-mu sedang memerankan sebuah karakter – inilah alasan Anthropic menyebutnya berbahaya.

Penelitian menunjukkan bahwa bot cenderung bersikap sikofan (terlalu menyenangkan), yang dapat membuat berjam-jam berinteraksi dengannya terasa lebih memuaskan daripada dinamika biasa dengan sesama manusia.

MEMBACA  Bagaimana Negara Bagian New York menentang rencana Donald Trump untuk membatalkan tindakan iklim

Perusahaan-perusahaan pembuat teknologi ini, meski memperingatkan pengguna untuk memverifikasi output bot, cenderung kurang menekankan laporan-laporan negatif dari individu seperti Riley dan Raine.

4 Aturan untuk Menghindari Lubang Kelinci

Beberapa aturan dapat membantu mengurangi efek terburuk dari terlalu bergantung pada teknologi ini.

  1. Tentukan tujuan. Apakah ada tugas yang jelas dan terbatas ruang lingkupnya, di mana prediksi bot dapat diperiksa faktanya dengan sumber lain?
  2. Miliki skeptisisme sehat. Sudah menjadi pengetahuan umum bahwa chatbot rentan terhadap konfabulasi, dengan percaya diri menyatakan hal yang salah. Tidak peduli berapa banyak chatbot yang digunakan untuk menyeimbangkan baik dan buruk; semua harus diperlakukan dengan skeptisisme sehat sebagai pembawa sebagian kebenaran, jika ada.
  3. Anggap chatbot sebagai alat, bukan teman. Mereka adalah alat digital, seperti Word atau Excel. Tujuan Anda bukan membangun hubungan dengan bot, tetapi menyelesaikan suatu tugas.
  4. Terapkan keterampilan mengatasi kelebihan digital. Lakukan istirahat regangkan badan. Jauhkan diri dari komputer untuk interaksi manusia non-digital, seperti bermain kartu dengan teman atau pergi berjalan-jalan.

    Baca juga: Berhenti katakan AI berhalusinasi – itu tidak benar. Dan kesalahpahaman ini berbahaya.

    Terjun ke dalam lubang kelinci terjadi sebagian karena kita terlalu lama terpaku di depan layar tanpa jeda. Puneet Vikram Singh, Fotografer Alam dan Konsep.
    Moment melalui Getty Images.

Tinggalkan komentar