Antropik Mulai Latih Claude dengan Data Pengguna — Tak Perlu Bagikan Milikmu

ZDNET Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.

*

Poin Penting ZDNET**

  • Anthropic memperbarui kebijakan pelatihan AI-nya.
  • Kini pengguna dapat memilih untuk menyetujui percakapan mereka digunakan guna pelatihan.
  • Ini merupakan penyimpangan dari posisi sebelumnya Anthropic.

    ***

    Anthropic telah menjadi laboratorium AI terkemuka, dengan salah satu daya tarik utamanya adalah posisi ketatnya dalam memprioritaskan privasi data konsumen. Sejak awal kemunculan Claude, chatbot-nya, Anthropic bersikap keras tentang tidak menggunakan data pengguna untuk melatih modelnya, menyimpang dari praktik umum industri. Kini hal itu berubah.

    Pengguna kini dapat memilih (opt-in) untuk menggunakan data mereka guna melatih model Anthropic lebih lanjut, demikian perusahaan mengumumkan dalam postingan blog yang memperbarui syarat dan ketentuan serta kebijakan privasi konsumen. Data yang dikumpulkan dimaksudkan untuk membantu meningkatkan model, membuatnya lebih aman dan cerdas, menurut perusahaan.

    Meskipun perubahan ini menandai pergeseran tajam dari pendekatan khas perusahaan, pengguna masih memiliki opsi untuk menjaga percakapan mereka tidak digunakan untuk pelatihan. Simak penjelasan selengkapnya.

    Siapa yang terkena dampak perubahan ini?

    Sebelum membahas cara mematikannya, perlu dicatat bahwa tidak semua jenis langganan terdampak. Paket komersial, termasuk Claude for Work, Claude Gov, Claude for Education, dan penggunaan API, tetap tidak berubah, bahkan saat diakses oleh pihak ketiga melalui layanan cloud seperti Amazon Bedrock dan Google Cloud’s Vertex AI.

    Pembaruan ini berlaku untuk paket Claude Free, Pro, dan Max, yang berarti jika Anda adalah pengguna individual, Anda kini akan tunduk pada Pembaruan Syarat dan Kebijakan Konsumen dan akan diberikan opsi untuk memilih ikut atau tidak dalam pelatihan.

    Bagaimana cara menolaknya?

    Jika Anda adalah pengguna yang sudah ada, Anda akan melihat pop-up seperti di bawah ini, yang menanyakan apakah Anda setuju atau tidak untuk menggunakan percakapan dan sesi pengkodean Anda guna melatih dan meningkatkan model AI Anthropic. Saat pop-up muncul, pastikan untuk membacanya karena judul yang ditebalkan pada tombol toggle tidak langsung jelas – melainkan tertulis "Anda dapat membantu meningkatkan Claude," yang merujuk pada fitur pelatihan. Anthropic memberikan klarifikasi di bawah pernyataan tersebut.

    Anda memiliki waktu hingga 28 September untuk membuat pilihan, dan begitu Anda memutuskan, itu akan otomatis berlaku pada akun Anda. Jika Anda memilih untuk data Anda digunakan, Anthropic hanya akan menggunakan percakapan dan sesi coding baru atau yang dilanjutkan, bukan yang lama. Setelah 28 September, Anda harus menentukan preferensi pelatihan model untuk terus menggunakan Claude. Keputusan yang Anda buat selalu dapat diubah melalui Pengaturan Privasi kapan saja.

    Pengguna baru akan memiliki opsi untuk memilih preferensi saat mendaftar. Seperti disebutkan sebelumnya, perlu diperhatikan dengan saksama kata-kata yang digunakan saat mendaftar, karena kemungkinan besar akan dirangkai sebagai apakah Anda ingin membantu meningkatkan model atau tidak, dan selalu dapat berubah. Meskipun benar data Anda akan digunakan untuk meningkatkan model, penting untuk disoroti bahwa pelatihan akan dilakukan dengan menyimpan data Anda.

    Data disimpan selama lima tahun

    Perubahan lain pada Syarat dan Ketentuan Konsumen adalah bahwa jika Anda memilih untuk data Anda digunakan, perusahaan akan menyimpan data tersebut selama lima tahun. Anthropic membenarkan periode waktu yang lebih lama ini sebagai hal yang diperlukan untuk memungkinkan perusahaan melakukan pengembangan model dan peningkatan keamanan yang lebih baik.

    Ketika Anda menghapus percakapan dengan Claude, Anthropic menyatakan bahwa percakapan itu tidak akan digunakan untuk pelatihan model. Jika Anda tidak memilih untuk pelatihan model, periode retensi data existing perusahaan selama 30 hari berlaku. Sekali lagi, ini tidak berlaku untuk Syarat Komersial.

    Anthropic juga membagikan bahwa data pengguna tidak akan dijual kepada pihak ketiga, dan bahwa mereka menggunakan alat untuk "menyaring atau mengaburkan data sensitif."

    Data sangat penting untuk cara model AI generatif dilatih, dan mereka hanya menjadi lebih pintar dengan data tambahan. Akibatnya, perusahaan selalu berusaha mendapatkan data pengguna untuk meningkatkan model mereka. Misalnya, Google baru-baru ini melakukan langkah serupa, mengubah nama "Aktivitas Aplikasi Gemini" menjadi "Simpan Aktivitas." Ketika pengaturan ini diaktifkan, cuplikan unggahan Anda, mulai 2 September, akan digunakan untuk "membantu meningkatkan layanan Google untuk semua orang."

MEMBACA  Untuk Pertambangan Bitcoin di Texas, Masa Bulan Madu Telah Berakhir