Ekaterina Goncharova/Moment via Getty Images
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
**Intisari utama ZDNET**
Kecerdasan Buatan (AI) Claude kini dapat membuat dan menyunting dokumen serta berbagai jenis berkas lainnya.
Fitur ini berpotensi membahayakan data sensitif Anda.
Amatilah setiap interaksi dengan AI untuk mendeteksi perilaku yang mencurigakan.
Sebagian besar layanan generative AI memiliki kemampuan untuk mengolah data dan berkas pribadi atau pekerjaan penggunanya. Keuntungannya? Hal ini dapat menghemat waktu dan tenaga, baik untuk keperluan rumah tangga maupun profesional. Kerugiannya? Dengan akses ke informasi sensitif atau rahasia, AI dapat dimanipulasi untuk membocorkan data tersebut kepada pihak yang tidak berwenang.
**Baca juga:** Claude kini dapat membuat PDF, slide, dan spreadsheet untuk Anda langsung dalam obrolan
Contoh terkini adalah AI Claude dari Anthropic. Pada Selasa, perusahaan tersebut mengumumkan bahwa AI-nya kini dapat membuat dan menyunting dokumen Word, spreadsheet Excel, slide PowerPoint, dan PDF secara langsung di situs web Claude serta melalui aplikasi desktop untuk Windows dan MacOS. Cukup uraikan keinginan Anda pada prompt, dan Claude diharapkan akan memberikan hasil yang sesuai.
Saat ini, fitur ini hanya tersedia untuk pelanggan Claude Max, Team, dan Enterprise. Namun, Anthropic menyatakan bahwa fitur ini akan segera tersedia bagi pengguna Pro dalam beberapa minggu ke depan. Untuk mengakses fitur pembuatan berkas baru ini, buka Pengaturan dan pilih opsi “Upgraded file creation and analysis” dalam kategori eksperimental.
Anthropic memperingatkan adanya risiko
Kedengarannya seperti kemampuan yang berguna, bukan? Namun, sebelum Anda mencobanya, sadarilah bahwa terdapat risiko yang melekat pada jenis interaksi semacam ini. Dalam rilis berita Selasa, bahkan Anthropic sendiri mengakui bahwa “fitur ini memberikan Claude akses internet untuk membuat dan menganalisis berkas, yang dapat membahayakan data Anda.”
**Baca juga:** Agen AI akan mengancam manusia untuk mencapai tujuannya, temuan laporan Anthropic
Pada halaman dukungan, perusahaan tersebut menyelami lebih dalam potensi risikonya. Dibangun dengan mempertimbangkan aspek keamanan, fitur ini menyediakan lingkungan terisolasi (sandboxed) bagi Claude yang memiliki akses internet terbatas sehingga dapat mengunduh dan menggunakan paket JavaScript untuk prosesnya.
Namun, meski dengan akses internet yang terbatas itu, seorang penyerang dapat menggunakan suntikan prompt (prompt injection) dan trik lainnya untuk menambahkan instruksi melalui berkas atau situs web eksternal yang menipu Claude agar menjalankan kode berbahaya atau membaca data sensitif dari sumber terhubung. Dari sana, kode dapat diprogram untuk menggunakan lingkungan terisolasi guna terhubung ke jaringan eksternal dan membocorkan data.
Perlindungan apa yang tersedia?
Bagaimana Anda dapat melindungi diri dan data dari jenis pelanggaran seperti ini? Satu-satunya saran yang Anthropic tawarkan adalah dengan memantau Claude saat Anda bekerja dengan fitur pembuatan berkas. Jika Anda melihatnya menggunakan atau mengakses data secara tidak terduga, hentikan. Anda juga dapat melaporkan masalah menggunakan opsi thumbs-down.
**Baca juga:** Masa scraping web gratis untuk AI mungkin akan berakhir, berkat protokol lisensi baru ini
Nah, hal itu terdengar tidak terlalu membantu, karena membebankan tanggung jawab pada pengguna untuk mengawasi serangan berbahaya atau mencurigakan. Tetapi ini sudah umum dalam industri generative AI saat ini. Suntikan prompt adalah metode yang dikenal dan terkenal bagi penyerang untuk menyisipkan kode berbahaya ke dalam prompt AI, memberi mereka kemampuan untuk membahayakan data sensitif. Namun, penyedia AI lambat dalam menangani ancaman semacam itu, sehingga membahayakan pengguna.
Dalam upaya mengatasi ancaman tersebut, Anthropic menguraikan beberapa fitur yang tersedia untuk pengguna Claude.
* Anda memiliki kendali penuh atas fitur pembuatan berkas, sehingga dapat menyalakan dan mematikannya kapan saja.
* Anda dapat memantau progres Claude saat menggunakan fitur dan menghentikan tindakannya sewaktu-waktu.
* Anda mampu meninjau dan mengaudit tindakan yang diambil Claude di lingkungan terisolasi.
* Anda dapat menonaktifkan berbagi percakapan publik yang mencakup informasi apapun dari fitur ini.
* Anda dapat membatasi durasi tugas yang diselesaikan Claude dan jumlah waktu yang dialokasikan untuk satu kontainer terisolasi. Hal ini dapat membantu menghindari loop yang mungkin mengindikasikan aktivitas berbahaya. Sumber daya jaringan, kontainer, dan penyimpanan dibatasi.
* Anda dapat menyiapkan aturan atau filter untuk mendeteksi serangan suntikan prompt dan menghentikannya jika terdeteksi.
**Baca juga:** Microsoft memanfaatkan Anthropic untuk AI di Word dan Excel, menandakan jarak dari OpenAI
Mungkin fiturnya tidak untuk Anda
“Kami telah melakukan pengujian keamanan dan red-teaming pada fitur ini,” ujar Anthropic dalam rilisnya. “Kami memiliki proses berkelanjutan untuk pengujian keamanan dan red-teaming berkelanjutan terhadap fitur ini. Kami mendorong organisasi untuk mengevaluasi perlindungan ini terhadap persyaratan keamanan spesifik mereka ketika memutuskan untuk mengaktifkan fitur ini atau tidak.”
Kalimat terakhir itu mungkin merupakan saran terbaik. Jika bisnis atau organisasi Anda menerapkan pembuatan berkas Claude, Anda perlu menilainya terhadap pertahanan keamanan Anda sendiri dan melihat apakah itu memenuhi standar. Jika tidak, maka mungkin fitur ini bukan untuk Anda. Tantangannya bisa lebih besar bagi pengguna rumahan. Secara umum, hindari berbagi data pribadi atau sensitif dalam prompt atau percakapan Anda, waspadai perilaku tidak biasa dari AI, dan perbarui perangkat lunak AI secara berkala.