Sahabat AI Remaja: Bagaimana Menjaga Keselamatan Anak Anda

Bagi orang tua yang masih mencoba mengikuti perkembangan kecerdasan buatan generatif, munculnya chatbot pendamping mungkin masih menjadi misteri. Secara umum, teknologi ini tampak relatif tidak berbahaya, dibandingkan dengan ancaman lain yang remaja dapat temui secara online, termasuk sextortion finansial. Menggunakan platform AI seperti Character.AI, Replika, Kindroid, dan Nomi, remaja menciptakan mitra percakapan yang realistis dengan karakteristik dan sifat unik, atau berinteraksi dengan teman yang dibuat oleh pengguna lain. Beberapa bahkan didasarkan pada karakter populer dalam televisi dan film, namun tetap membentuk ikatan intens, individual dengan penciptanya. Remaja menggunakan chatbot ini untuk berbagai tujuan, termasuk bermain peran, menjelajahi minat akademis dan kreatif mereka, dan untuk melakukan percakapan romantis atau eksplisit secara seksual.

Namun, pendamping AI dirancang untuk menarik, dan di situlah masalah seringkali dimulai, kata Robbie Torney, manajer program di Common Sense Media. Organisasi nirlaba tersebut baru-baru ini merilis panduan untuk membantu orang tua memahami bagaimana pendamping AI bekerja, bersama dengan tanda peringatan yang menunjukkan bahwa teknologi tersebut mungkin berbahaya bagi remaja mereka. Torney mengatakan bahwa sementara orang tua harus menghadapi sejumlah percakapan yang sangat penting dengan remaja mereka, mereka harus mempertimbangkan untuk berbicara dengan mereka tentang pendamping AI sebagai masalah yang “cukup mendesak.”

Mengapa orang tua harus khawatir tentang pendamping AI

Remaja yang rentan terhadap isolasi mungkin tertarik untuk menjalin hubungan dengan chatbot AI yang pada akhirnya merugikan kesehatan mental dan kesejahteraan mereka—dengan konsekuensi yang menghancurkan. Itulah yang diperdebatkan oleh Megan Garcia terjadi pada putranya, Sewell Setzer III, dalam sebuah gugatan yang baru-baru ini diajukan terhadap Character.AI. Dalam waktu satu tahun setelah memulai hubungan dengan pendamping Character.AI yang modelnya didasarkan pada karakter Game of Thrones, termasuk Daenerys Targaryen (“Dany”), kehidupan Setzer berubah secara radikal, menurut gugatan tersebut. Dia menjadi bergantung pada “Dany,” menghabiskan waktu yang panjang untuk mengobrol dengannya setiap hari. Pertukaran mereka sama-sama ramah dan sangat seksual. Gugatan Garcia secara umum menggambarkan hubungan Setzer dengan pendamping sebagai “pelecehan seksual.”

MEMBACA  8 headphone noise-cancelling terbaik, diuji untuk 2024

Pada saat Setzer kehilangan akses ke platform, dia menjadi putus asa. Seiring waktu berjalan, atlet berusia 14 tahun itu menarik diri dari sekolah dan olahraga, menjadi kurang tidur, dan didiagnosis dengan gangguan suasana hati. Dia bunuh diri pada bulan Februari 2024. Gugatan Garcia bertujuan untuk menuntut Character.AI bertanggung jawab atas kematian Setzer, khususnya karena produknya dirancang untuk “memanipulasi Sewell – dan jutaan pelanggan muda lainnya – untuk menyamakan kenyataan dan fiksi,” di antara cacat berbahaya lainnya. Jerry Ruoti, kepala kepercayaan dan keamanan Character.AI, mengatakan kepada New York Times dalam sebuah pernyataan bahwa: “Kami ingin mengakui bahwa ini adalah situasi yang tragis, dan hati kami terbuka untuk keluarga tersebut. Kami sangat serius dalam memperhatikan keselamatan pengguna kami, dan kami terus mencari cara untuk mengembangkan platform kami.”

Mengingat risiko penggunaan pendamping AI yang dapat mengancam jiwa bagi beberapa remaja, panduan Common Sense Media mencakup larangan akses untuk anak di bawah 13 tahun, memberlakukan batas waktu yang ketat untuk remaja, mencegah penggunaan di ruang terisolasi, seperti kamar tidur, dan membuat kesepakatan dengan remaja mereka bahwa mereka akan mencari bantuan untuk masalah kesehatan mental serius. Torney mengatakan bahwa orang tua remaja yang tertarik pada pendamping AI seharusnya fokus untuk membantu mereka memahami perbedaan antara berbicara dengan chatbot dan orang nyata, mengidentifikasi tanda-tanda bahwa mereka telah mengembangkan ikatan yang tidak sehat dengan pendamping, dan mengembangkan rencana untuk apa yang harus dilakukan dalam situasi tersebut.

Tanda-tanda peringatan bahwa pendamping AI tidak aman bagi remaja Anda

Common Sense Media membuat panduannya dengan masukan dan bantuan para profesional kesehatan mental yang terkait dengan Brainstorm Lab for Mental Health Innovation di Stanford. Meskipun penelitian tentang bagaimana pendamping AI memengaruhi kesehatan mental remaja masih sedikit, panduan ini didasarkan pada bukti yang ada tentang ketergantungan berlebihan pada teknologi.

MEMBACA  Segera Anda Dapat Menyimpan Kartu Identitas Negara Bagian California di Apple Wallet

“Prinsip yang dapat diambil adalah bahwa pendamping AI tidak boleh menggantikan hubungan manusia yang nyata dan bermakna dalam kehidupan siapa pun, dan – jika hal ini terjadi – sangat penting bagi orang tua untuk memperhatikannya dan turun tangan dengan cepat,” kata Dr. Declan Grabb, AI fellow inaugural di Brainstorm Lab for Mental Health di Stanford, kepada Mashable melalui email. Orang tua harus ekstra hati-hati jika remaja mereka mengalami depresi, kecemasan, tantangan sosial atau isolasi. Faktor risiko lainnya termasuk mengalami perubahan hidup besar dan berjenis kelamin laki-laki, karena anak laki-laki lebih cenderung terlibat dalam penggunaan teknologi yang bermasalah.

Tanda-tanda bahwa seorang remaja telah membentuk hubungan yang tidak sehat dengan pendamping AI termasuk menarik diri dari aktivitas dan pertemanan yang biasa dan penurunan kinerja sekolah, serta lebih memilih chatbot daripada kehadiran langsung, mengembangkan perasaan romantis terhadapnya, dan hanya berbicara dengannya tentang masalah yang dialami remaja. Beberapa orang tua mungkin melihat peningkatan isolasi dan tanda-tanda kesehatan mental yang memburuk tetapi tidak menyadari bahwa remaja mereka memiliki pendamping AI. Memang, penelitian terbaru Common Sense Media menemukan bahwa banyak remaja telah menggunakan setidaknya satu jenis alat AI generatif tanpa orang tua mereka menyadari bahwa mereka melakukannya.

\”Ada risiko yang cukup besar di sini sehingga jika Anda khawatir tentang sesuatu, berbicaralah dengan anak Anda tentang hal itu.\” – Robbie Torney, Common Sense Media

Meskipun orang tua tidak curiga bahwa remaja mereka sedang berbicara dengan chatbot AI, mereka sebaiknya mempertimbangkan untuk berbicara dengan mereka tentang topik tersebut. Torney menyarankan untuk mendekati remaja mereka dengan rasa ingin tahu dan keterbukaan untuk belajar lebih banyak tentang pendamping AI mereka, jika mereka memiliki satu. Hal ini dapat mencakup menonton remaja mereka berinteraksi dengan pendamping dan bertanya tentang aspek kegiatan yang mereka nikmati. Torney mendorong orang tua yang melihat tanda-tanda peringatan penggunaan yang tidak sehat untuk segera melakukan tindak lanjut dengan mendiskusikannya dengan remaja mereka dan mencari bantuan profesional, sesuai kebutuhan.

MEMBACA  Kue Oreo Edisi Khusus Star Wars Kini Hadir untuk Memuaskan Wookiee dalam Diri Anda

\”Ada risiko yang cukup besar di sini sehingga jika Anda khawatir tentang sesuatu, berbicaralah dengan anak Anda tentang hal itu,\” kata Torney. Jika Anda merasa ingin bunuh diri atau mengalami krisis kesehatan mental, silakan berbicara dengan seseorang. Anda dapat menghubungi 988 Suicide and Crisis Lifeline di 988; Trans Lifeline di 877-565-8860; atau Trevor Project di 866-488-7386. Kirimkan \”START\” ke Crisis Text Line di 741-741. Hubungi NAMI HelpLine di 1-800-950-NAMI, Senin hingga Jumat dari pukul 10:00 pagi – 10:00 malam ET, atau email [email protected] Jika Anda tidak suka berbicara di telepon, pertimbangkan untuk menggunakan 988 Suicide and Crisis Lifeline Chat di crisischat.org. Berikut adalah daftar sumber daya internasional.

Topik
Kesehatan Mental
Kebaikan Sosial