Cara Menolak Penggunaan Obrolan Claude sebagai Data Pelatihan oleh Anthropic

Anthropic bersiap untuk memanfaatkan percakapan pengguna dengan chatbot Claude miliknya sebagai data pelatihan untuk model bahasa besar mereka—kecuali jika para pengguna tersebut memilih untuk menolak.

Sebelumnya, perusahaan tidak melatih model generative AI-nya menggunakan data obrolan pengguna. Ketika kebijakan privasi Anthropic diperbarui pada 8 Oktober untuk mulai mengizinkan hal ini, pengguna harus secara aktif memilih keluar. Jika tidak, riwayat obrolan dan tugas pemrograman mereka yang baru akan digunakan untuk melatih model-model Anthropic di masa depan.

Mengapa ada perubahan? “Semua model bahasa besar, seperti Claude, dilatih menggunakan data dalam jumlah besar,” bunyi sebagian dari blog Anthropic yang menjelaskan alasan perubahan kebijakan ini. “Data dari interaksi dunia nyata memberikan wawasan berharga mengenai respons mana yang paling berguna dan akurat bagi pengguna.” Dengan lebih banyak data pengguna yang dimasukkan, para pengembang Anthropic berharap dapat menciptakan versi chatbot yang lebih baik seiring waktu.

Perubahan ini awalnya dijadwalkan berlaku pada 28 September sebelum kemudian diundur. “Kami ingin memberi pengguna lebih banyak waktu untuk meninjau pilihan ini dan memastikan transisi teknis yang lancar,” tulis Gabby Curtis, juru bicara Anthropic, dalam sebuah email kepada WIRED.

Cara untuk Memilih Keluar

Pengguna baru akan diminta untuk memutuskan tentang data obrolan mereka selama proses pendaftaran. Pengguna Claude yang sudah ada mungkin telah menemui pop-up yang menjelaskan perubahan syarat dan ketentuan Anthropic.

“Izinkan penggunaan obrolan dan sesi coding Anda untuk melatih dan meningkatkan model AI Anthropic,” demikian bunyinya. Tombol toggle untuk menyetujui pemberian data Anda kepada Anthropic untuk melatih Claude secara otomatis dalam posisi aktif. Oleh karena itu, pengguna yang memilih untuk menerima pembaruan tanpa mematikan toggle tersebut secara otomatis ikut serta dalam kebijakan pelatihan yang baru.

MEMBACA  Inggris Pertimbangkan Batas Atas yang Lebih Tinggi pada Kepemilikan Media di Britania oleh Negara Asing

Semua pengguna dapat mengaktifkan atau menonaktifkan opsi pelatihan percakapan di bawah Pengaturan Privasi. Di bawah pengaturan yang berlabel “Bantu meningkatkan Claude”, pastikan sakelar dalam posisi mati (ke kiri) jika Anda lebih memilih agar obrolan Anda di Claude tidak digunakan untuk melatih model-model baru Anthropic.

Jika seorang pengguna tidak memilih keluar dari pelatihan model, maka kebijakan pelatihan yang diubah akan mencakup semua obrolan baru dan yang dibuka kembali. Artinya, Anthropic tidak otomatis melatih model berikutnya menggunakan seluruh riwayat obrolan Anda, kecuali Anda membuka kembali arsip dan menghidupkan kembali percakapan lama. Setelah interaksi terjadi, obrolan lama tersebut kini terbuka dan dapat digunakan untuk pelatihan di masa depan.

Kebijakan privasi baru ini juga disertai dengan perluasan kebijakan retensi data Anthropic. Anthropic meningkatkan durasi penyimpanan data pengguna dari 30 hari (dalam banyak situasi) menjadi lima tahun yang jauh lebih lama, terlepas dari apakah pengguna mengizinkan pelatihan model pada percakapan mereka atau tidak.

Perubahan syarat ini berlaku untuk pengguna tingkat komersial, baik yang gratis maupun berbayar. Namun, pengguna komersial tertentu, seperti yang dilisensikan melalui paket pemerintah atau pendidikan, tidak terdampak oleh perubahan ini dan percakapan mereka tidak akan digunakan sebagai bagian dari pelatihan model perusahaan.

Claude adalah alat AI favorit bagi sebagian pengembang perangkat lunak yang mengandalkan kemampuannya sebagai coding assistant. Karena pembaruan kebijakan privasi mencakup proyek pemrograman serta riwayat obrolan, Anthropic berpotensi mengumpulkan sejumlah besar informasi pemrograman untuk keperluan pelatihan dengan perubahan ini.

Sebelum memperbarui kebijakan privasinya, Claude adalah salah satu dari sedikit chatbot besar utama yang tidak otomatis menggunakan percakapan untuk pelatihan LLM. Sebagai perbandingan, pengaturan bawaan untuk akun pribadi di OpenAI’s ChatGPT dan Google’s Gemini memungkinkan pelatihan model, kecuali pengguna memilih untuk menolak.

MEMBACA  Cara Menonton Seri Spin-Off Stephen Amell: \'Suits LA\'

Lihat panduan lengkap WIRED tentang AI training opt-outs untuk layanan lainnya di mana Anda dapat meminta agar AI generatif tidak dilatih dengan data pengguna. Meskipun memilih keluar dari pelatihan data merupakan keuntungan bagi privasi pribadi, terutama dalam interaksi dengan chatbot, perlu diingat bahwa apa pun yang Anda posting secara publik secara online, dari posting media sosial hingga ulasan restoran, kemungkinan akan diambil oleh berbagai pihak sebagai bahan pelatihan untuk model AI raksasa mereka berikutnya.