“Pada saat pembaca menemukan kebenaran tentang bagaimana buku itu diciptakan, banyak yang terluka. Saya sangat menyesal, tetapi itu perlu,” katanya.
“Beberapa orang mengatakan, ‘Saya berharap penulis ini ada.’ Yah, dia tidak ada. Kita harus memahami bahwa kita membangun narasi kita sendiri. Jika tidak, pihak kanan ekstrem akan memonopoli narasi, membuat mitos, dan kita akan menghabiskan hidup kita melakukan pengecekan fakta sementara mereka menulis sejarah. Kita tidak boleh membiarkan hal itu terjadi.”
Filsuf Italia Andrea Colamedici
WIRED mewawancarai Colamedici dalam percakapan yang mengeksplorasi nuansa proyeknya.
WAWANCARA ini telah diedit untuk panjang dan kejelasan.
WIRED: Apa inspirasi untuk eksperimen filosofis ini?
Andrea Colamedici: Pertama-tama, saya mengajar pemikiran cepat di European Institute of Design dan memimpin proyek penelitian tentang kecerdasan buatan dan sistem pemikiran di Universitas Foggia. Bekerja dengan mahasiswa saya, saya menyadari bahwa mereka menggunakan ChatGPT dengan cara yang paling buruk: untuk menyalin dari itu. Saya melihat bahwa mereka kehilangan pemahaman tentang hidup dengan mengandalkan kecerdasan buatan, yang mengkhawatirkan, karena kita hidup di era di mana kita memiliki akses ke lautan pengetahuan, tetapi kita tidak tahu apa yang harus dilakukan dengan itu. Saya sering memperingatkan mereka: “Anda bisa mendapatkan nilai bagus, bahkan membangun karier hebat dengan menggunakan ChatGPT untuk mencontek, tetapi Anda akan menjadi hampa.” Saya telah melatih profesor dari beberapa universitas Italia dan banyak yang bertanya kepada saya: “Kapan saya bisa berhenti belajar bagaimana menggunakan ChatGPT?” Jawabannya tidak pernah. Ini bukan tentang menyelesaikan pendidikan dalam kecerdasan buatan, tetapi tentang bagaimana Anda belajar saat menggunakannya.”
Kita harus tetap menjaga rasa ingin tahu kita tetap hidup saat menggunakan alat ini dengan benar dan mengajarkannya untuk bekerja sesuai keinginan kita. Semuanya dimulai dari perbedaan penting: Ada informasi yang membuat Anda pasif, yang merusak kemampuan Anda untuk berpikir dari waktu ke waktu, dan ada informasi yang menantang Anda, yang membuat Anda lebih cerdas dengan mendorong Anda melampaui batas Anda. Inilah cara kita harus menggunakan kecerdasan buatan: sebagai lawan bicara yang membantu kita berpikir secara berbeda. Jika tidak, kita tidak akan memahami bahwa alat-alat ini dirancang oleh perusahaan teknologi besar yang menetapkan ideologi tertentu. Mereka memilih data, koneksi di antara itu, dan, terutama, mereka memperlakukan kita sebagai pelanggan yang harus dipuaskan. Jika kita menggunakan kecerdasan buatan dengan cara ini, itu hanya akan mengkonfirmasi bias kita. Kita akan mengira kita benar, tetapi sebenarnya kita tidak akan berpikir; kita akan terperangkap secara digital. Kita tidak bisa membiarkan kebodohan ini terjadi. Inilah titik awal buku itu. Tantangan kedua adalah bagaimana untuk menjelaskan apa yang terjadi sekarang. Bagi Gilles Deleuze, filsafat adalah kemampuan untuk menciptakan konsep, dan hari ini kita membutuhkan konsep baru untuk memahami realitas kita. Tanpa mereka, kita akan tersesat. Cukup lihat video Gaza Trump—dibuat oleh kecerdasan buatan—atau provokasi tokoh seperti Musk. Tanpa alat konseptual yang solid, kita akan karam. Seorang filsuf yang baik menciptakan konsep yang seperti kunci yang memungkinkan kita untuk memahami dunia.”
Apa tujuan Anda dengan buku baru ini?
Buku ini bertujuan untuk melakukan tiga hal: membantu pembaca menjadi melek AI, menciptakan konsep baru untuk era ini, dan menjadi teoritis dan praktis sekaligus. Ketika pembaca menemukan kebenaran tentang bagaimana buku itu diciptakan, banyak yang terluka. Saya sangat menyesal, tetapi itu perlu. Beberapa orang mengatakan, “Saya berharap penulis ini ada.” Yah, dia tidak ada. Kita harus memahami bahwa kita membangun narasi kita sendiri. Jika tidak, pihak kanan ekstrem akan memonopoli narasi, menciptakan mitos, dan kita akan menghabiskan hidup kita melakukan pengecekan fakta sementara mereka menulis sejarah. Kita tidak boleh membiarkan hal itu terjadi.”
Bagaimana Anda menggunakan AI untuk membantu Anda menulis esai filosofis ini?
Saya ingin menjelaskan bahwa kecerdasan buatan tidak menulis esai itu. Ya, saya menggunakan kecerdasan buatan, tetapi tidak dengan cara konvensional. Saya mengembangkan metode yang saya ajarkan di European Institute of Design, berdasarkan menciptakan oposisi. Ini adalah cara berpikir dan menggunakan pembelajaran mesin secara antagonis. Saya tidak meminta mesin menulis untuk saya, tetapi sebaliknya itu menghasilkan ide dan kemudian saya menggunakan GPT dan Claude untuk mengkritik mereka, untuk memberi saya pandangan tentang apa yang telah saya tulis. Semua yang tertulis dalam buku itu milik saya. Kecerdasan buatan adalah alat yang harus kita pelajari untuk digunakan, karena jika kita salah menggunakannya—dan “kesalahan” termasuk memperlakukannya sebagai semacam orakel, memintanya untuk “memberi tahu saya jawaban atas pertanyaan-pertanyaan dunia; jelaskan mengapa saya ada”—maka kita kehilangan kemampuan kita untuk berpikir. Kita menjadi bodoh. Nam June Paik, seorang seniman besar tahun 1990-an, berkata: “Saya menggunakan teknologi untuk membenci dengan benar.” Dan itulah yang harus kita lakukan: memahaminya, karena jika tidak, itu akan menggunakan kita. Kecerdasan buatan akan menjadi alat yang digunakan perusahaan teknologi besar untuk mengontrol dan memanipulasi kita. Kita harus belajar menggunakan alat-alat ini dengan benar; jika tidak, kita akan menghadapi masalah serius.”