Saat AI generatif dengan cepat menyebar di berbagai organisasi, para eksekutif menghadapi pertanyaan yang kelihatan sederhana: Bagaimana seharusnya manusia bekerja dengan AI? Jawaban umumnya—"jaga manusia tetap dalam lingkaran"—terdengar meyakinkan.
Tapi riset baru menunjukkan bahwa jawaban ini sangat tidak lengkap. Apa yang tampak sebagai pendekatan "human-in-the-loop" yang sama, sebenarnya terwujud dalam tiga cara yang sangat berbeda, dengan akibat yang sangat berbeda pula untuk kinerja dan pengembangan keterampilan.
Tiga pola tersembunyi kolaborasi manusia-AI
Temuan paling mencolok dari eksperimen kami adalah bahwa para profesional yang bekerja dengan GenAI secara alami terbagi menjadi tiga gaya kolaborasi yang berbeda—masing-masing dengan hasil yang sangat beda:
Cyborg (60% peserta) melakukan apa yang kami sebut “Fused Knowledge Co-Creation”—dialog berkelanjutan dan berulang dengan AI sepanjang alur kerja. Mereka menggunakannya untuk setiap sub-tugas dengan berbagai cara: Memberi AI peran tertentu, memecah tugas kompleks, menantang hasil AI, menemukan kontradiksi, dan memvalidasi hasil dalam proses bolak-balik yang dinamis. Bagi Cyborg, batas antara pemikiran manusia dan AI sengaja dikaburkan.
Centaur (14% peserta) mempraktikkan “Directed Knowledge Co-Creation”—menggunakan AI secara selektif untuk sub-tugas tertentu sambil tetap mengendalikan proses pemecahan masalah. Mereka memanfaatkan AI untuk meningkatkan kemampuan, memetakan domain masalah, mengumpulkan informasi metode, dan menyempurnakan konten buatan mereka sendiri. Tapi mereka tetap berada di posisi pengendali, menggunakan AI sebagai alat yang ditargetkan, bukan mitra kolaborasi.
Self-Automator (27% peserta) melakukan “Abdicated Knowledge Co-Creation”—mendelegasikan seluruh alur kerja ke AI dengan sedikit iterasi atau keterlibatan kritis. Mereka memberi data dan instruksi ke AI untuk melakukan sub-tugas, lalu menerima hasilnya tanpa modifikasi atau hanya edit kecil. Pekerjaan mereka cepat dan rapi tapi kurang mendalam—mirip output yang diselesaikan *untuk* mereka, bukan *dengan* mereka.
Yang luar biasa adalah setiap peserta punya akses ke alat dan tugas yang sama. Mereka tidak menerima instruksi berbeda tentang proses kerja dengan AI. Tapi pilihan alami mereka tentang kapan melibatkan AI dan seberapa banyak wewenang yang diberikan, menghasilkan dinamika kolaborasi yang sangat berbeda.
Kerangka kerja untuk memahami kolaborasi
Untuk memahami pola-pola ini, kami buat kerangka kerja berdasarkan dua pertanyaan mendasar: *Siapa yang memilih apa yang perlu dilakukan?* dan *Siapa yang menentukan bagaimana cara melakukannya?*
Cyborg membiarkan manusia mengendalikan “apa” tapi memberi AI kendali signifikan atas “bagaimana”. Centaur mempertahankan kendali manusia atas kedua dimensi, hanya menggunakan AI untuk bantuan tertarget. Self-Automator menyerahkan kendali keduanya ke AI. Yang menarik, kemungkinan teoretis keempat—di mana AI mengendalikan pemilihan tugas tapi manusia mengendalikan eksekusi—tetap kosong dalam studi kami; ketika profesional menyerahkan kendali atas *apa* yang dikerjakan, mereka cenderung juga melepas kendali atas *bagaimana* melakukannya.
Biaya tersembunyi: Apa yang terjadi pada keahlian?
Mungkin temuan paling penting kami adalah tentang apa yang terjadi pada keahlian profesional di setiap mode kolaborasi. Implikasinya sangat berbeda:
Cyborg mengembangkan keahlian baru terkait AI—yang kami sebut “newskilling”. Melalui eksperimen terus-menerus dengan strategi perintah (*prompt*), mereka belajar cara berkomunikasi efektif dengan AI, kapan harus menantang, dan cara mendapatkan nilai maksimal dari kolaborasi. Mereka juga mempertahankan keahlian domain dengan tetap terlibat aktif.
Centaur memperdalam keahlian domain mereka—”upskilling” tradisional. Dengan menggunakan AI untuk mempercepat pembelajaran tentang industri asing, mendapatkan panduan metode, dan menyempurnakan pemikiran mereka sendiri, mereka membangun kemampuan dasar yang lebih kuat. Namun, mereka tidak mengembangkan keahlian terkait AI yang signifikan karena interaksi dengan AI terbatas dan tertarget.
Self-Automator tidak mengembangkan keduanya—mengalami apa yang kami sebut “no skilling”. Dengan mendelegasikan seluruh proses kognitif ke AI, mereka melewatkan kesempatan untuk membangun pengetahuan domain atau kefasihan AI. Keuntungan produktivitas mereka didapat dengan mengorbankan pengembangan profesional.
Temuan ini harus membuat para eksekutif berpikir. Ketika karyawan secara default berperilaku seperti Self-Automator—yang dilakukan oleh lebih dari seperempat konsultan terlatih kami—organisasi mungkin tanpa sengaja menggerogoti keahlian yang justru menciptakan keunggulan kompetitif.
Implikasi kinerja: Siapa yang benar?
Eksperimen kami mengevaluasi output berdasarkan dua dimensi: keakuratan (apakah merekomendasikan merek yang benar?) dan daya persuasif (seberapa meyakinkan memo CEO-nya?). Hasilnya menantang asumsi sederhana tentang kolaborasi AI:
Centaur mencapai keakuratan tertinggi—mengungguli Cyborg dan Self-Automator dalam mendapatkan jawaban benar. Dengan menjaga kendali atas proses analitis dan menggunakan penilaian mereka sendiri untuk mengevaluasi masukan AI, mereka terhindar dari kesalahan akibat rekomendasi AI yang percaya diri tapi kadang salah.
Baik Cyborg maupun Centaur unggul dalam daya persuasif—menghasilkan output yang lebih meyakinkan daripada Self-Automator. Kedalaman keterlibatan, baik melalui penyempurnaan berulang (Cyborg) atau analisis yang digerakkan manusia (Centaur), menghasilkan deliverable yang lebih berkualitas.
Perlu dicatat, Cyborg terkadang menjadi korban daya persuasif AI. Bahkan ketika mereka menggunakan praktik terbaik seperti validasi—meminta AI memeriksa pekerjaannya sendiri—mereka terkadang terbujuk oleh pembenaran AI yang percaya diri untuk jawaban yang salah. Ini menyoroti risiko kritis: keterlibatan canggih dengan AI tidak menjamin kebal dari kesalahannya.
Apa yang harus dilakukan perusahaan sekarang?
Temuan ini memiliki implikasi langsung untuk cara organisasi menerapkan GenAI:
Pertama, tinggalkan mitos pendekatan “human-in-the-loop” tunggal. Eksekutif harus sadar bahwa karyawan mereka sudah mengadopsi gaya kolaborasi yang sangat berbeda—dan perbedaan ini penting. Hanya mewajibkan “pengawasan manusia” tanpa menentukan artinya, akan menghasilkan hasil yang sangat tidak konsisten.
Kedua, sesuaikan gaya kolaborasi dengan tujuan strategis. Untuk tugas yang membutuhkan keakuratan maksimal pada keputusan berisiko tinggi, dorong perilaku Centaur—penggunaan AI selektif dengan penilaian manusia yang kuat. Untuk tugas yang membutuhkan iterasi cepat dan eksplorasi kreatif, perilaku Cyborg mungkin lebih tepat. Simpan pendekatan Self-Automator untuk tugas yang benar-benar rutin, bukan yang inti atau berisiko, dan dimana pengembangan keterampilan bukan menjadi perhatian.
Ketiga, awasi kecerobohan otomatisasi. Angka 27% Self-Automator dalam studi kami—di antara profesional terampil dan termotivasi yang tahu kinerja mereka dinilai—menunjukkan bahwa godaan untuk mendelegasikan berlebihan itu kuat. Organisasi harus kembangkan mekanisme untuk mendeteksi ketika karyawan bergeser ke otomatisasi penuh pada tugas yang membutuhkan keterlibatan manusia.
Keempat, pikirkan ulang cara mengukur keberhasilan adopsi AI. Hanya menggunakan hasil akhir—seperti tingkat edit atau rasio penerimaan—sebagai ukuran keterlibatan tidak cukup. Seorang Self-Automator yang menerima output AI dan seorang Cyborg yang beriterasi luas lalu menerima versi yang disempurnakan, mungkin terlihat identik dalam data. Perusahaan perlu melacak kualitas interaksi sepanjang alur kerja, bukan hanya hasilnya.
Kelima, investasi dalam mengembangkan kefasihan AI bersama keahlian domain. Temuan kami menyarankan pendekatan paling berkelanjutan menggabungkan keduanya. Perilaku Cyborg membangun keterampilan AI tingkat lanjut sambil menjaga pengetahuan domain; perilaku Centaur membangun keterampilan domain sambil memberikan paparan AI dasar. Perusahaan butuh program pelatihan yang mengembangkan kedua kemampuan dengan sengaja, bukan berharap karyawan akan memahaminya sendiri.
Taruhannya: Keahlian di Era AI
Kemunculan GenAI menghadirkan paradoks bagi organisasi. Teknologi ini berjanji meningkatkan penilaian, kreativitas, dan kecepatan manusia, tapi juga membawa risiko tersembunyi: bahwa dengan menyerahkan lebih banyak pemikiran ke mesin, para profesional mungkin perlahan melepaskan kemampuan yang justru membuat mereka berharga. Alat yang sama yang mempertajam keahlian di tangan sebagian orang, di tangan lain bisa menggantikannya sepenuhnya, meninggalkan organisasi dengan output mengesankan jangka pendek tapi inti penilaian manusia yang menipis. Ini bukan sekadar alat efisiensi lain, ini adalah revolusi.
Kabar baiknya adalah mode kolaborasi yang produktif itu ada. Cyborg dan Centaur menunjukkan bahwa manusia bisa bekerja efektif dengan AI sambil membangun, bukan mengurangi, keahlian mereka. Tantangan bagi eksekutif adalah menciptakan kondisi organisasi yang mendorong pola produktif ini sekaligus mencegah jalan otomatisasi penuh yang menggoda tapi merugikan.
Karena kemampuan AI terus berkembang, organisasi yang akan berkembang adalah yang menguasai tidak hanya *apa* yang bisa dilakukan AI, tapi *bagaimana* manusia harus bekerja dengannya. Memahami bahwa “human-in-the-loop” bukan pendekatan tunggal tapi sebenarnya tiga mode kolaborasi berbeda—dengan konsekuensi yang berbeda—adalah langkah pertama menuju penguasaan itu.
François Candelon adalah mitra di firma ekuitas swasta Seven2 dan rekan eksekutif di D^3 Institute di Harvard.
Katherine Kellogg adalah Profesor Manajemen dan Inovasi David J. McGrath Jr. di MIT Sloan School of Management.
Hila Lifshitz adalah profesor manajemen di Warwick Business School.
Steven Randazzo adalah mahasiswa PhD di Warwick Business School.