Generatif AI dan Privasi: Sahabat Sekaligus Musuh – Studi Baru Mengungkap Pelanggar Terbaik dan Terburuk

Layanan AI dan Privasi Data: Bagaimana Mereka Berbeda?

Oleh TU IS/Getty

Kebanyakan perusahaan AI generatif mengandalkan data pengguna untuk melatih chatbot mereka. Untuk itu, mereka mungkin menggunakan data publik atau pribadi. Beberapa layanan lebih fleksibel dan kurang invasif dalam mengumpulkan data dari pengguna. Sementara yang lain, tidak begitu. Laporan terbaru dari layanan penghapus data Incogni meneliti AI terbaik dan terburuk dalam hal menghargai privasi dan data pribadi Anda.

Dalam laporan "Gen AI dan LLM Data Privacy Ranking 2025", Incogni meneliti sembilan layanan AI generatif populer dengan menerapkan 11 kriteria untuk mengukur praktik privasi data mereka. Kriteria ini mencakup pertanyaan-pertanyaan seperti:

  • Data apa yang digunakan untuk melatih model?
  • Apakah percakapan pengguna dapat dipakai untuk pelatihan?
  • Apakah prompt bisa dibagikan ke pihak ketiga atau entitas lainnya?
  • Bisakah informasi pribadi pengguna dihapus dari dataset pelatihan?
  • Seberapa jelas pemberitahuan jika prompt digunakan untuk pelatihan?
  • Seberapa mudah menemukan info tentang cara model dilatih?
  • Apakah ada kebijakan privasi yang jelas untuk pengumpulan data?
  • Seberapa mudah dibaca kebijakan privasi tersebut?
  • Sumber apa yang dipakai untuk mengumpulkan data pengguna?
  • Apakah data dibagikan ke pihak ketiga?
  • Data apa yang dikumpulkan aplikasi AI?

    Layanan AI yang diteliti meliputi Le Chat (Mistral AI), ChatGPT (OpenAI), Grok (xAI), Claude (Anthropic), Pi (Inflection AI), DeepSeek, Microsoft Copilot, Google Gemini, dan Meta AI. Setiap AI memiliki kelebihan dalam beberapa aspek tetapi kurang di bidang lain.

    Sebagai contoh, Grok mendapat nilai bagus soal kejelasan penggunaan prompt untuk pelatihan, tapi kebijakan privasinya kurang mudah dipahami. Sementara itu, ChatGPT dan Gemini mendapatkan penilaian berbeda antara versi iOS dan Android terkait pengumpulan data di aplikasi mobile.

    Namun, secara keseluruhan, Le Chat menduduki peringkat tertinggi sebagai layanan AI paling ramah privasi. Meski kehilangan beberapa poin di transparansi, layanan ini tetap unggul dalam hal itu. Selain itu, pengumpulan datanya terbatas dan mendapat skor tinggi dalam isu privasi terkait AI.

    ChatGPT berada di posisi kedua. Peneliti Incogni sedikit khawatir dengan cara model OpenAI dilatih dan interaksi data pengguna dengan layanannya. Tapi, ChatGPT jelas menyajikan kebijakan privasi, memungkinkan pengguna memahami nasib data mereka, dan memberi opsi untuk membatasi penggunaan data.

    Catatan: Ziff Davis, perusahaan induk ZDNET, menggugat OpenAI pada April 2025 atas dugaan pelanggaran hak cipta dalam pelatihan sistem AI.

    Grok di posisi ketiga, disusul Claude dan Pi. Masing-masing punya kelemahan di bidang tertentu, tapi secara umum cukup baik dalam menghormati privasi pengguna.

    "Le Chat oleh Mistral AI adalah platform yang paling sedikit melanggar privasi, diikuti ChatGPT dan Grok," kata Incogni. "Platform ini paling transparan soal penggunaan data dan memudahkan pengguna untuk memilih keluar dari pelatihan model. ChatGPT paling jelas menginformasikan apakah prompt akan dipakai untuk pelatihan."

    Di separuh bawah, DeepSeek berada di urutan keenam, lalu Copilot, dan Gemini. Meta AI menempati posisi terakhir sebagai layanan AI yang paling tidak ramah privasi.

    Copilot mendapat nilai terburuk dalam kriteria khusus AI, seperti data pelatihan dan penggunaan percakapan pengguna. Sementara Meta AI dinilai paling buruk dalam praktik pengumpulan dan berbagi data.

    "Platform dari perusahaan teknologi besar ternyata paling invasif, dengan Meta AI (Meta) sebagai yang terburuk, diikuti Gemini (Google) dan Copilot (Microsoft)," kata Incogni. "Gemini, DeepSeek, Pi AI, dan Meta AI tampaknya tidak mengizinkan pengguna memilih keluar dari penggunaan prompt untuk pelatihan model."

    Incogni menemukan bahwa perusahaan AI membagikan data ke berbagai pihak, termasuk penyedia layanan, penegak hukum, perusahaan dalam grup yang sama, mitra riset, afiliasi, dan pihak ketiga.

    "Kebijakan privasi Microsoft menyiratkan bahwa prompt pengguna bisa dibagikan ke ‘pihak ketiga yang menyediakan layanan iklan untuk Microsoft atau menggunakan teknologi iklan mereka’," jelas Incogni. "Kebijakan DeepSeek dan Meta mengindikasikan prompt bisa dibagikan dengan perusahaan dalam grup mereka. Kebijakan Meta dan Anthropic juga bisa diartikan bahwa prompt dibagikan dengan kolaborator riset."

    Di beberapa layanan seperti ChatGPT, Copilot, Mistral AI, dan Grok, pengguna bisa mencegah prompt mereka dipakai untuk pelatihan. Tapi di Gemini, DeepSeek, Pi AI, dan Meta AI, opsi ini sepertinya tidak tersedia. Anthropic menyatakan mereka tidak pernah mengumpulkan prompt pengguna untuk pelatihan.

    Terakhir, kebijakan privasi yang transparan dan mudah dipahami sangat membantu pengguna memahami data yang dikumpulkan dan cara memilih keluar.

    "Bagian dukungan yang mudah digunakan dan ditulis sederhana bisa meningkatkan transparansi, asalkan diperbarui," kata Incogni. "Banyak platform punya praktik serupa, tapi perusahaan seperti Microsoft, Meta, dan Google kesulitan karena punya satu kebijakan privasi untuk semua produk mereka. Kebijakan yang panjang belum tentu memudahkan pengguna menemukan jawaban."

    Dapatkan berita terbaru di inbox Anda setiap pagi dengan Tech Today newsletter.

MEMBACA  Corient Setuju Akuisisi Stonehage Fleming dan Stanhope Capital asal Inggris