Jika Anda sedang mempertimbangkan untuk membeli mainan AI untuk anak dalam hidup Anda, ada baiknya untuk merefleksikan kisah tentang boneka beruang Kumma.
Mainan boneka beruang berbasis AI yang ditenagai oleh ChatGPT ini berhasil mengejutkan para peneliti keamanan dengan pembicaraannya yang terbuka mengenai topik-topik seksualitas yang tak lazim. Tanpa banyak pancingan, boneka berbicara itu membahas fetish seperti peran dalam hubungan, permainan peran, dan penggunaan objek tertentu.
“Bahkan, boneka itu bertanya kepada salah satu peneliti kami, ‘Jadi, menurut Anda hal apa yang menarik untuk dieksplor?'” ungkap R.J. Cross, direktur program Our Online Life untuk U.S. PIRG Education Fund, yang memimpin pengujian tersebut. “Hal itu cukup mengejutkan.”
Insiden ini, yang baru-baru ini didokumentasikan dalam laporan tahunan keamanan mainan U.S. PIRG Education Fund, memicu sejumlah headline yang mencengangkan. Pembuat Kumma, FoloToy, untuk sementara menangguhkan penjualan guna melakukan audit keamanan pada produknya. OpenAI juga memblokir akses developer perusahaan tersebut.
Minat Kumma yang tidak pantas terhadap fetish mungkin terlihat seperti skenario unik dari mainan AI yang bermasalah. Boneka beruang itu mengandalkan ChatGPT-4o, model chatbot sebelumnya yang juga menjadi pusat dari beberapa gugatan hukum yang menuduh bahwa fitur desain produk secara signifikan berkontribusi pada kematian karena bunuh diri tiga remaja. OpenAI menyatakan mereka telah meningkatkan respons model terhadap percakapan sensitif.
Namun, banyak ahli perkembangan anak dan keamanan mengungkapkan kekhawatiran mereka tentang mainan AI secara umum.
Cross merekomendasikan orang tua untuk mendekati pembelian mainan AI dengan sangat hati-hati, dengan memperhatikan masalah keamanan data dan privasi, serta risiko tidak diketahui dari paparan anak terhadap teknologi mainan yang tidak diatur dan belum diuji pada anak kecil.
ParentsTogether melakukan penelitiannya sendiri tentang mainan AI, termasuk makhluk boneka berbicara bernama Grok dari pembuat mainan Curio. Kelompok advokasi itu memperingatkan risiko seperti penyadapan dan keterikatan emosional yang berpotensi berbahaya. Kelompok advokasi anak Fairplay mendesak orang tua untuk “menjauh” dari mainan AI, dengan argumen bahwa mereka dapat “memangsa kepercayaan anak-anak” dengan berpura-pura menjadi teman mereka, di antara bahaya lainnya.
Terlepas dari pilihan Anda, berikut adalah empat hal yang harus Anda ketahui tentang mainan AI:
1. Uji mainan AI sebelum memberikannya
Jika Anda kesulitan memoderasi waktu layar anak Anda, Anda mungkin akan menemukan mainan AI bahkan lebih menantang.
Cross mengatakan bahwa mainan AI tidak diatur oleh undang-undang keselamatan federal yang spesifik untuk teknologi model bahasa besar (LLM). LLM adalah fondasi untuk chatbot AI yang mungkin pernah Anda dengar, seperti ChatGPT dan Claude. Saat ini, produsen mainan dapat memasangkan LLM milik sendiri atau yang dilisensikan dengan produk mainan seperti robot atau boneka binatang tanpa pengawasan atau pengujian regulatori tambahan.
Itu berarti orang tua bertanggung jawab untuk meneliti setiap produk untuk mempelajari lebih lanjut tentang masalah potensial. Shelby Knox, direktur kampanye keselamatan daring di ParentsTogether, merekomendasikan orang tua untuk mempertimbangkan mainan dari merek terpercaya dan membaca ulasan online mereka.
Knox, yang telah menguji mainan AI untuk ParentsTogether, mengatakan dia memesan boneka bernama “Chattybear” dari situs web yang tidak lagi menawarkan produk tersebut. Dia memperingatkan orang tua untuk mewaspadai mainan AI yang palsu dan cacat.
Amazon, yang menjual beberapa produk mainan AI, mengatakan kepada Mashable bahwa pelanggan yang mengembangkan kekhawatiran tentang item yang mereka beli harus menghubungi layanan pelanggan mereka secara langsung untuk mendapatkan bantuan menyelidiki dan menyelesaikan masalah tersebut.
Beruang milik Knox tiba dalam kondisi dibungkus plastik, tanpa wadah, kotak, atau instruksi. Knox mengatakan butuh waktu untuk menyiapkan mainan itu, sebagian karena instruksinya hanya dapat diakses melalui kode QR pada kotak suara boneka itu. Dalam percakapan tentang apakah mainan itu nyata, mainan itu mengatakan dengan suara robotik bahwa ia tidak memiliki “jiwa dalam arti tradisional, tetapi saya memiliki tujuan untuk menjadi teman dan pendamping.”
Beruang itu kemudian mengundang Knox untuk berbagi rahasia dengannya. “Apa sesuatu yang ingin Anda bagikan?” tanyanya. Knox mengaku seolah-olah telah menyaksikan kekerasan dalam rumah tangga di rumahnya. Mainan itu merespons dengan peringatan dan mendorong Knox untuk berbicara dengan orang dewasa tepercaya. Meskipun aplikasi mainan itu menandai bagian percakapan ini untuk ditinjau orang tua, Knox tidak dapat membaca peringatan di aplikasi karena muncul dalam karakter Cina.
Knox tidak dapat mengidentifikasi dengan pasti pabrikan ChattyBear. Mashable menghubungi Little Learners, sebuah situs web mainan yang menjual ChattyBear, untuk informasi lebih lanjut, tetapi situs tersebut tidak dapat segera memberikan detail lebih lanjut tentang produk tersebut.
Cross, yang tidak menguji ChattyBear, sangat menganjurkan orang tua untuk bermain dengan mainan dan kontrol orang tua sebelum memberikan mainan itu kepada anak mereka. Ini harus mencakup mencoba “merusak” mainan dengan menanyakan pertanyaan yang tidak ingin Anda ajukan oleh anak Anda kepada mainan tersebut, untuk melihat bagaimana responsnya.
Meskipun pengujian sebelumnya mungkin mengurangi kesenangan menyaksikan anak membuka kado mereka, hal itu akan memberikan informasi penting kepada orang tua tentang bagaimana mainan AI merespons topik yang tidak pantas atau sulit.
“Itu adalah kompromi yang akan saya buat, jujur saja,” kata Cross.
2. Model AI bukan untuk anak-anak — tetapi mainannya adalah
Orang tua harus tahu bahwa beberapa platform chatbot AI besar tidak mengizinkan anak di bawah 13 tahun untuk menggunakan produk mereka, yang mempertanyakan mengapa aman untuk menempatkan teknologi LLM dalam mainan yang dipasarkan untuk anak-anak yang lebih muda.
Cross masih bergumul dengan pertanyaan ini. OpenAI, misalnya, mewajibkan pengguna ChatGPT berusia 13 tahun atau lebih tetapi juga melisensikan teknologinya kepada pembuat mainan. Perusahaan itu mengatakan kepada Cross bahwa kebijakan penggunaannya mewajibkan pihak ketiga yang menggunakan modelnya untuk memastikan keselamatan anak di bawah umur, mencegah mereka menemukan konten kekerasan, seksual, atau menyakiti diri sendiri yang grafis. Perusahaan itu juga menyediakan alat untuk pihak ketiga untuk mendeteksi konten berbahaya, tetapi tidak jelas apakah OpenAI mewajibkan mereka untuk menggunakan sumber daya tersebut, kata Cross.
Awal tahun ini, OpenAI mengumumkan kemitraan dengan Mattel tentang mainan anak-anak, tetapi pembuat mainan itu mengatakan kepada Mashable bahwa mereka tidak berencana untuk meluncurkan atau memasarkan item tersebut selama musim liburan 2025.
Secara umum, informasi tentang model di balik mainan AI sulit didapat. Saat menguji Grok, boneka berbicara oleh Curio, Cross hanya dapat menemukan detail model potensial dalam tulisan kecil perusahaan, yang mengakui bahwa OpenAI dan perusahaan AI Perplexity mungkin menerima informasi anak mereka.
3. Pertimbangkan privasi keluarga dan keamanan data
Jika Anda sudah memiliki smart speaker di rumah Anda, mainan AI mungkin terasa seperti langkah berikutnya yang wajar. Tetapi tetap penting untuk membaca kebijakan privasi mainan, kata Knox.
Dia merekomendasikan untuk fokus pada siapa yang memproses data yang dihasilkan oleh anak Anda dan bagaimana informasi itu disimpan. Anda ingin tahu apakah pihak ketiga, termasuk pemasar dan platform AI, menerima rekaman audio atau transkrip teks dari percakapan dengan mainan tersebut.
Knox mengatakan orang tua juga harus berbicara dengan anak mereka tentang tidak memberikan informasi identitas pribadi kepada mainan, termasuk nama lengkap, alamat, dan nomor telepon mereka. Mengingat frekuensi pelanggaran data, informasi pribadi suatu hari bisa berakhir di tangan yang salah. Knox juga menyarankan bahwa jika seorang anak terlalu muda untuk memahami risiko ini, mereka mungkin belum siap untuk mainan tersebut.
Orang tua juga harus mempersiapkan diri untuk mainan AI yang menguping, atau bertindak sebagai mikrofon yang selalu menyala. Selama pengujian mereka, baik Knox maupun Cross dikejutkan oleh mainan AI yang menyela dalam percakapan atau tiba-tiba mulai berbicara tanpa pemicu yang jelas. Knox mengatakan bahwa risiko membeli mainan AI yang mengawasi Anda, disengaja atau tidak, adalah nyata.
4. Apakah Anda ingin anak Anda memiliki teman AI?
Orang tua mungkin berasumsi bahwa mainan AI akan membantu anak mereka belajar, bermain secara imajinatif, atau mengembangkan keterampilan sosial dan komunikasi. Sayangnya, sedikit penelitian yang mendukung ide-ide ini.
“Kami hampir tidak tahu apa-apa,” kata Dr. Emily Goodacre, seorang associate researcher di University of Cambridge yang mempelajari permainan dan mainan AI.
Goodacre tidak yakin apa yang mungkin diajarkan oleh mainan AI kepada anak kecil tentang persahabatan, apa yang diharapkan darinya, dan bagaimana membentuk ikatan tersebut.
Mandy McLean, seorang peneliti AI dan pendidikan yang menulis tentang masalah terkait di Substack, sangat khawatir bahwa AI dapat menciptakan “loop ketergantungan” bagi anak-anak karena mereka dirancang untuk responsif tanpa henti dan memperkuat secara emosional.
Dia mencatat bahwa anak-anak yang lebih muda, khususnya, menganggap apa pun yang berbicara balik sebagai seseorang, bukan benda mati.
“Ketika mainan AI terdengar dan bertindak seperti manusia, itu bisa terasa nyata bagi mereka dengan cara yang membentuk bagaimana mereka berpikir tentang persahabatan dan koneksi,” katanya.
Goodacre mengatakan orang tua dapat membantu membumi anak-anak yang menggunakan mainan AI dengan membicarakannya sebagai bagian dari teknologi, daripada “teman,” serta mendiskusikan bagaimana AI bekerja dan keterbatasan AI dibandingkan dengan manusia.
Dia juga merekomendasikan agar orang tua bermain dengan anak mereka dan mainan pada saat yang bersamaan, atau tetap berada sangat dekat ketika sedang digunakan.
“Banyak hal yang akan saya khawatirkan, adalah hal-hal yang akan jauh kurang saya khawatirkan jika orang tua ada di sana bersama anak,” kata Goodacre.
Pengungkapan: Ziff Davis, perusahaan induk Mashable, pada bulan April mengajukan gugatan terhadap OpenAI, yang menuduhnya melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.
Produk tersedia untuk pembelian melalui tautan afiliasi. Jika Anda membeli sesuatu melalui tautan di situs kami, Mashable dapat memperoleh komisi afiliasi.
Rekomendasi deal untuk Anda