Saya Memilih Keluar dari Pelatihan AI. Apakah Hal Ini Mengurangi Pengaruh Saya di Masa Depan?

Jika kita semua mulai memilih untuk tidak menggunakan postingan kita untuk melatih model, apakah itu mengurangi pengaruh suara unik dan sudut pandang kita pada model-model tersebut? Secara bertahap, model-model tersebut akan menjadi jendela utama semua orang ke dunia. Sepertinya orang-orang yang paling sedikit peduli tentang hal-hal ini akan menjadi orang-orang dengan data terbanyak yang akhirnya melatih perilaku default model-model tersebut.

—Pengaruh Data

Sejujurnya, itu membuat frustrasi bagi saya bahwa pengguna internet dipaksa untuk memilih keluar dari pelatihan kecerdasan buatan sebagai default. Tidakkah akan baik jika persetujuan afirmatif menjadi norma bagi perusahaan kecerdasan buatan generatif saat mereka mengumpulkan web dan repositori data lain yang mereka temukan untuk membangun model-model perbatasan yang semakin besar dan besar?

Tapi, sayangnya, tidak demikian adanya. Perusahaan seperti OpenAI dan Google berargumen bahwa jika akses penggunaan yang adil terhadap semua data ini diambil dari mereka, maka teknologi ini tidak akan mungkin ada. Untuk saat ini, pengguna yang tidak ingin berkontribusi pada model-model generatif terjebak dengan berbagai proses keluar di berbagai situs web dan platform media sosial.

Bahkan jika gelembung saat ini seputar kecerdasan buatan generatif meledak, mirip dengan gelembung dotcom yang terjadi setelah beberapa tahun, model-model yang menggerakkan semua alat kecerdasan buatan baru ini tidak akan punah. Jadi, hantu posting forum niche dan benang media sosial Anda yang membela keyakinan yang sangat dipegang akan tetap hidup di dalam alat lunak. Anda benar bahwa memilih keluar berarti secara aktif mencoba untuk tidak disertakan dalam sebuah potongan budaya yang mungkin berlangsung lama.

Untuk menjawab pertanyaan Anda secara langsung dan realistis, proses keluar ini pada dasarnya sia-sia dalam keadaan saat ini. Mereka yang memilih keluar saat ini masih mempengaruhi model. Katakanlah Anda mengisi formulir untuk situs media sosial untuk tidak menggunakan atau menjual data Anda untuk pelatihan kecerdasan buatan. Bahkan jika platform tersebut menghormati permintaan itu, ada berbagai startup di Silicon Valley dengan anak muda berusia 19 tahun yang tidak akan berpikir dua kali tentang mengambil data yang diposting ke platform tersebut, bahkan jika sebenarnya mereka tidak seharusnya. Secara umum, Anda bisa berasumsi bahwa apa pun yang pernah Anda posting online kemungkinan telah masuk ke beberapa model generatif.

MEMBACA  Sheinbaum dari Meksiko akan tetap melanjutkan konferensi mañanera, meskipun gayanya berbeda dengan pendahulunya.

Oke, tapi katakanlah Anda benar-benar bisa memblokir data Anda dari sistem-sistem ini atau menuntut agar dihapus setelahnya, apakah melakukan itu akan mengurangi suara atau dampak Anda pada alat kecerdasan buatan? Saya telah memikirkan pertanyaan ini selama beberapa hari, dan saya masih bimbang.

Di satu sisi, informasi tunggal Anda hanyalah kontribusi yang sangat kecil terhadap keluasan kumpulan data, jadi suara Anda, sebagai nonpublik figur atau penulis, kemungkinan tidak mendorong model ke satu arah atau yang lain.

Dari sudut pandang ini, data Anda hanyalah satu bata lain di dinding bangunan 1.000 lantai. Dan patut diingat bahwa pengumpulan data hanyalah langkah pertama dalam membuat model kecerdasan buatan. Para peneliti menghabiskan berbulan-bulan untuk menyempurnakan perangkat lunak untuk mendapatkan hasil yang mereka inginkan, terkadang mengandalkan pekerja berupah rendah untuk melabeli set data dan menilai kualitas output untuk penyempurnaan. Langkah-langkah ini mungkin lebih memperjauh data dan mengurangi dampak individu Anda.

Di sisi lain, bagaimana jika kita membandingkan ini dengan memilih dalam pemilihan? Jutaan suara dilempar dalam pemilihan presiden Amerika, namun kebanyakan warga dan pembela demokrasi bersikeras bahwa setiap suara penting—dengan seruan konstan “buat suaramu didengar.” Ini bukan metafora yang sempurna, tetapi bagaimana jika kita melihat data kita memiliki dampak serupa? Bisikan kecil di antara kebisingan, namun masih berdampak pada output model kecerdasan buatan.

Saya belum sepenuhnya yakin dengan argumen ini, tetapi saya juga tidak berpikir bahwa perspektif ini harus langsung ditolak. Terutama bagi para ahli dalam bidang tertentu, wawasan dan cara Anda memperoleh informasi secara unik berharga bagi peneliti kecerdasan buatan. Meta tidak akan repot-repot menggunakan semua buku itu dalam model AI baru mereka jika data sembarang bisa menjadi trik.

MEMBACA  Pertandingan Sepak Bola Liga Europa: Siaran Langsung FCSB vs. Man United Dari Mana Saja

Melihat ke masa depan, dampak sebenarnya data Anda pada model-model ini kemungkinan akan menginspirasi data “sintetis.” Ketika perusahaan-perusahaan yang membuat sistem kecerdasan buatan generatif kehabisan informasi berkualitas untuk dikumpulkan, mereka akan memasuki era ouroboros mereka; mereka akan mulai menggunakan kecerdasan buatan generatif untuk mereplikasi data manusia yang kemudian akan mereka masukkan kembali ke dalam sistem untuk melatih model AI berikutnya untuk lebih baik mereplikasi respons manusia. Selama kecerdasan buatan generatif ada, ingatlah bahwa Anda, sebagai manusia, akan selalu menjadi bagian kecil dari mesin—apakah Anda ingin atau tidak.