Pada bulan Juli lalu, CEO OpenAI Sam Altman menyatakan kepada podcaster viral Theo Von bahwa sangat “tidak tepat” jika percakapan dengan asisten AI tidak mendapatkan perlindungan hukum yang sama seperti percakapan dengan advokat manusia.
“Menurutku, berbicara dengan AI harusnya seperti berbicara dengan pengacara atau dokter. Kuharap masyarakat segera menyelesaikan ini,” tulis Altman di X.
CEO tersebut telah berulang kali mengadvokasi perlindungan privasi yang lebih kuat untuk percakapan chatbotnya dengan pengguna, bahkan ketika berbagai negara memberlakukan aturan ketat terhadap bot AI yang diiklankan sebagai terapeutik atau ahli hukum.
Namun, menurut para ahli hukum yang berbicara kepada Mashable, privasi pengguna bukanlah satu-satunya alasan mengapa orang-orang seperti Altman mendorong perlindungan yang lebih ketat antara percakapan chatbot dan pengadilan — ada juga motivasi yang menguntungkan diri sendiri. Jika LLM tetap tidak dapat disentuh oleh pengadilan, hal itu tidak hanya melindungi pengguna AI, tetapi juga perusahaan. Bahkan, komentar Altman kepada Von mungkin dipicu oleh masalah hukum OpenAI sendiri: Pengadilan meminta raksasa AI tersebut menyimpan dan pada akhirnya menyerahkan log percakapan pengguna sebagai bahan penemuan hukum, sebuah tindakan yang bisa diblokir jika AI dipandang sama di mata pengadilan seperti terapis, dokter, atau pengacara.
Salah satu cara untuk mencapainya? Dorong pergeseran budaya yang memperlakukan bimbingan AI dengan penghormatan yang sama seperti profesional manusia, dimulai dari kesehatan kita.
—
Apa sebenarnya "Hak Istimewa AI" itu?
"Hak istimewa memiliki makna tertentu bagi pengacara dan dalam konteks hukum," jelas Melodi Dinçer, pengacara senior untuk Tech Justice Law Project. Ada hak istimewa standar antara pengacara dan klien, misalnya, serta hak istimewa antara psikiater-klien dan hak istimewa suami-istri. Komunikasi dengan rohaniwan, suara politik, serta rahasia dagang atau negara juga diakui oleh pengadilan. Dalam semua contoh ini, komunikasi antara kedua pihak bersifat rahasia dan tidak dapat diterima dalam proses pengadilan.
Negara bagian juga memiliki aturan hak istimewa mereka sendiri, yang diatur di bawah hukum negara bagian untuk kasus-kasus yang disidangkan di pengadilan negara bagian. Beberapa negara bagian, kata Dinçer, memperluas hak istimewa pada percakapan antara Anda dan dokter umum Anda, selain psikiater Anda. Tapi banyak negara bagian yang tidak. Semua ini dijelaskan dalam Aturan 501 dari Federal Rules of Evidence, jelas Dinçer, yang memungkinkan pengadilan federal mengakui hak istimewa secara luas yang sudah diakui oleh pengadilan negara bagian.
Misalnya, jika Anda dituntut, pihak lain dalam gugatan tidak dapat menggunakan catatan sesi terapis Anda sebagai bukti, juga tidak dapat menggunakan percakapan rahasia antara Anda dengan pengacara atau pasangan Anda.
"Tujuan seutuhnya dari [hak istimewa klien] adalah untuk dapat memiliki diskusi yang jujur dan terbuka dengan penyedia layanan ini agar mereka dapat memberikan saran terbaik kepada Anda," jelas Lily Li, seorang pengacara manajemen risiko privasi data dan AI serta pendiri Metaverse Law, kepada Mashable. "Dan dari perspektif masyarakat, kami ingin individu bersikap jujur, terbuka, dan tulus dengan pengacara, dokter, dan psikolog mereka."
Namun ini adalah ketentuan yang ditempatkan pada hubungan antar manusia, bukan hubungan digital. Jika Anda percaya chatbot AI sama efektifnya dengan terapis manusia atau konsultan hukum, haruskah komunikasi itu dilindungi juga? Beberapa pengembang AI, seperti Altman, mengatakan iya.
—
Chatbot AI: Alat atau Manusia?
"Gugatan hak cipta terhadap OpenAI telah menempatkan hal ini dalam sorotan tajam," ujar Li. Dia merujuk pada serangkaian kasus hak cipta yang baru-baru ini dikonsolidasikan, total 16 kasus, yang diajukan terhadap OpenAI oleh penerbit, seniman, dan penulis dalam beberapa tahun terakhir. Masalah yang dihadapi — yang mencakup pertanyaan tentang penggunaan wajar dan bagaimana menangani data yang digunakan untuk melatih LLM — merupakan semacam pengukur suhu untuk menilai persepsi AI di mata pengadilan.
Karena ini, para ahli hukum telah memantau dengan cermat bagaimana pengadilan mengkategorikan pengembang AI, produk mereka, dan data pengguna yang terkandung di dalamnya. Lebih khusus lagi, mereka perlu melacak bagaimana hukum memperlakukan LLM, termasuk data pelatihan dan log percakapannya, selama proses pembuktian dan penemuan.
Kita tidak ingin situasi di mana hanya ada tameng tanggung jawab murni.
- Lily Li, Metaverse Law
Pada bulan Februari, seorang hakim federal memutuskan bahwa dokumen strategi hukum yang dihasilkan oleh chatbot Claude dari Anthropic — dan kemudian dikirim oleh klien kepada pengacaranya — tidak tercakup oleh hak istimewa pengacara-klien. Keputusan tersebut menjadi berita utama. Hakim dalam kasus itu sebagian mengandalkan kebijakan privasi Anthropic sendiri untuk menentukan apakah obrolan itu dilindungi. Karena aturan Anthropic tidak menjamin privasi penuh saat menggunakan produk publiknya, dan karena komunikasi tidak terjadi antara pengacara berlisensi dengan pemahaman bahwa komunikasi itu bersifat rahasia, maka hak istimewa tidak berlaku. Laporan Tren Mashable
Namun, pada bulan yang sama, seorang hakim yang berbeda dalam kasus yang berbeda—meskipun serupa—memutuskan sebaliknya. Dalam instansi ini, kekebalan hubungan pengacara-klien berlaku untuk pekerjaan yang dihasilkan AI karena outputnya menjadi "produk kerja pengacara-klien," menurut hakim. Chatbot bukanlah "orang" dalam penggunaan ini, melainkan alat yang digunakan oleh penasihat hukum dan klien. Ini adalah perbedaan yang penting, karena jika chatbot dipandang sebagai entitas pihak ketiga, klien akan dianggap secara sukarela memberikan informasi rahasia kepadanya dengan cara yang dapat menghapus pengakuan kekebalan tersebut.
Ini hanyalah beberapa kasus awal di pengadilan distrik federal, yang melibatkan apa yang disebut sebagai masalah first impression. Pada dasarnya, pertanyaan-pertanyaan ini belum pernah diajukan sebelumnya, dan kita masih berada di tahap awal untuk memecahkannya.
Sementara itu, kasus hak cipta yang melibatkan OpenAI telah memunculkan lebih banyak pertanyaan tentang discovery dan data. Tidak lama sebelum dua putusan tersebut, OpenAI berhasil mengajukan banding atas keputusan yang menyatakan perusahaan telah melepaskan kekebalan pengacara-kliennya, sehingga membuka akses ke data yang sebelumnya dirahasiakan. Perusahaan telah diperintahkan untuk menyerahkan juta-an log percakapan ChatGPT yang telah dianonimkan, serta komunikasi internal.
Perusahaan seperti OpenAI telah menolak proses discovery semacam ini, dengan mengajukan argumen kerahasiaan. Hakim-hakim yang memutuskan untuk mengakui data tersebut beralasan bahwa penghapusan informasi identitas pribadi, penyempitan fokus log, dan ketidakberhasannya pengungkapan data secara eksternal menjadikan kumpulan digital tersebut dapat diterima di pengadilan. Lanskap hukum dipenuhi dengan pertanyaan-pertanyaan semacam ini.
Secara keseluruhan, pengembang AI berupaya menjaga data internal mereka agar tidak tunduk pada proses discovery. Meskipun privasi pengguna adalah salah satu isu paling mendesak di era AI, merinci hak-hak istimewa AI dalam konteks hukum menimbulkan dilema. Bagaimana kita melindungi data pribadi pengguna, tanpa membuat mustahil untuk meminta pertanggungjawaban pembuat AI?
"Kita tidak ingin situasi di mana hanya ada perisai tanggung jawab mutlak," kata Li.
—
AI + Kesehatan, seri baru Mashable, akan mengkaji bagaimana kecerdasan buatan mengubah lanskap medis dan kesehatan. Kami akan mengeksplorasi cara melindungi data kesehatan Anda, menyelami penggunaan AI untuk mengartikan hasil tes darah Anda, mempelajari bagaimana dua perempuan menggunakan AI untuk mendeteksi bentuk penyakit jantung yang berbahaya, dan banyak lagi.
—
AI Kesehatan adalah Bisnis Besar
Awal tahun ini, OpenAI meluncurkan ChatGPT Health, "mode" baru yang berorientasi pada konsumen untuk chatbot andalannya yang bertujuan mengubah AI menjadi pelatih kesehatan personal. Perusahaan mendorong pengguna untuk mengunggah riwayat kesehatan mereka guna mempersonalisasi pengalaman. Saat ini, data tersebut tidak dilindungi oleh Health Insurance Portability and Accountability Act (HIPAA), regulasi privasi kesehatan utama di Amerika Serikat.
Perusahaan lain mengikuti langkah OpenAI, dengan Anthropic, Microsoft, dan Amazon meluncurkan asisten chatbot berorientasi kesehatan mereka sendiri—beberapa sesuai HIPAA dan beberapa tidak—dalam beberapa bulan terakhir. Pesaing OpenAI, Google, telah lama berinvestasi dalam AI untuk penggunaan medis, terutama bagi klinisi dan peneliti. Fitbit, yang dimiliki Google, menawarkan pelatih kesehatan personal menggunakan asisten Gemini terintegrasi. Perusahaan juga sedang membangun "agen diagnostik AI konversasional", yang disebut Articulate Medical Intelligence Explorer (atau AMIE).
Altman dan para pesaingnya berbondong-bondong mengejar potensi keuntungan dari industri perawatan kesehatan, bahkan jika aturan hak istimewa AI belum tampak di cakrawala. Pada Januari, OpenAI mengakuisisi startup kesehatan Torch, dan MergeLabs yang didukung Altman, sebuah perusahaan biotek yang tertarik pada antarmuka otak-komputer (BCI), memperoleh valuasi sebesar $850 juta.
Menurut laporan terbaru oleh Menlo Ventures, $1,4 miliar diarahkan untuk solusi AI generatif khusus kesehatan pada tahun 2025. Sebagian besar mengalir ke startup AI. Dan statistik ini hanya mencakup produk clinical-grade, alat yang diproduksi oleh perusahaan seperti OpenEvidence dan Hippocratic AI yang ditujukan bagi profesional medis, bukan pengeluaran untuk produk komersial, seperti ChatGPT Health.
Dunia dengan Hak Istimewa Manusia-Chatbot?
Di antara produk non-clinical grade, perangkat kebugaran, dan chatbot yang tidak sesuai HIPAA, kurangnya regulasi dan kejelasan hukum mengkhawatirkan banyak pakar privasi. Beberapa berpendapat bahwa lanskap kebijakan yang tidak pasti bisa menjadi keuntungan bagi pengembang AI, yang meluncurkan produk AI kesehatan mereka sendiri ke dalam kabut regulasi sebagai langkah strategis untuk mendorong keuntungan dan keuntungan hukum perusahaan.
Seiring chatbot mengakumulasi lebih banyak percakapan "rahasia", lebih banyak hak istimewa di bawah Aturan 501 mungkin akan tersangkut. Di negara bagian yang melindungi komunikasi dengan dokter Anda, apakah "dokter" AI juga akan dihitung? Atau pertimbangkan contoh kurang jelas yang diajukan Dinçer: Misalkan seorang pengguna menanyakan kepada chatbot bagaimana mereka tertular infeksi menular seksual meskipun pasangan mereka dites negatif, dapatkah perintah dan respons itu diajukan sebagai bukti—atau akankah itu memicu bentuk perlindungan lain, seperti hak istimewa suami-istri?
Dalam dunia hipotetis dengan hak istimewa AI yang menyeluruh, atau bahkan dunia di mana chatbot dimasukkan ke dalam aturan hak istimewa yang ada, perusahaan AI mungkin mencoba menolak mengakui bukti nyata dari kesalahan. Sebagai ilustrasi, jika suatu perusahaan AI dituntut karena menyesatkan individu terkait kondisi kesehatannya, pihak penuntut tidak dapat menggunakan catatan internal atau analisis percakapan yang memuat rekam medis seseorang.
Dinçer mengemukakan bahwa apabila semakin banyak pengguna yang memasukkan data medis pribadi, hasil rontgen, atau informasi sensitif lain ke dalam produk konsumen — dan jika jaringan antara perusahaan-perusahaan AI semakin terkait dalam jejaring informasi identitas pribadi dan teknologi kesehatan — pengadilan mungkin akan lebih terbuka untuk mempertimbangkan perluasan hak istimewa (privilege) kepada sistem AI.
Hal ini dapat menjadi salah satu alasan — di luar pendapatan — mengapa perusahaan berusaha membangun kepercayaan yang serupa terhadap asisten AI seperti yang kita berikan kepada profesional manusia. Mengingat banyak orang telah berkonsultasi mengenai kesehatan melalui AI, dan perusahaan seperti OpenAI telah menghadapi banyak gugatan hukum, tidak mengherankan jika eksekutif seperti Altman berupaya menjaga percakapan dengan chatbot agar tidak diakses oleh pengacara atau hakim.
—
Informasi dalam artikel ini hanya untuk tujuan edukasi dan informasi, bukan sebagai nasihat medis atau kesehatan. Selalu konsultasikan kepada dokter atau penyedia layanan kesehatan terkait pertanyaan tentang kondisi medis atau tujuan kesehatan Anda.
Keterangan: Ziff Davis, perusahaan induk Mashable, sebelumnya telah mengajukan gugatan terhadap OpenAI dengan dakwaan pelanggaran hak cipta dalam pelatihan dan pengoperasian sistem AI-nya.