Perasaan tidak nyaman yang merayap naik di tulang punggung saat melihat sesuatu yang bertingkah laku seperti manusia namun bukan manusia, tetap menjadi tantangan besar dalam robotika — terutama bagi robot yang dirancang untuk terlihat dan berbicara seperti kita.
Sensasi aneh itu disebut sebagai lembah mengerikan (uncanny valley). Salah satu cara para ahli robotik berupaya menjembatani lembah tersebut adalah dengan menyelaraskan gerakan bibir robot dengan suaranya. Rabu lalu, Universitas Columbia mengumumkan riset yang mendalami bagaimana generasi baru wajah robot dapat berbicara lebih realistis.
Hod Lipson, seorang profesor teknik di Columbia yang terlibat dalam riset tersebut, mengatakan kepada CNET bahwa alasan utama robot terasa “mengerikan” adalah karena mereka tidak menggerakkan bibir seperti manusia saat berbicara. “Kami bertujuan memecahkan masalah ini, yang kerap terabaikan dalam robotika,” ujar Lipson.
Jangan lewatkan konten teknologi independen dan ulasan berbasis lab kami. Tambahkan CNET sebagai sumber pilihan di Google.
Riset ini muncul di tengah hype yang melonjak seputar robot yang dirancang untuk penggunaan di rumah dan tempat kerja. Pada CES 2026 awal bulan ini, misalnya, CNET melihat beragam robot yang dirancang untuk berinteraksi dengan manusia. Mulai dari robot Boston Dynamics Atlas terbaru, hingga robot rumah tangga seperti yang bisa melipat pakaian, bahkan robot berbentuk kura-kura untuk penelitian lingkungan, tampil di pameran teknologi terbesar dunia itu. Jika CES bisa dijadikan acuan, 2026 bisa menjadi tahun besar bagi robotika konsumen.
Yang menonjol di antaranya adalah robot humanoid yang dilengkapi tubuh, wajah, dan kulit sintetis yang meniru manusia. Di CES, ada robot berpenampilan manusia dari Realbotix yang bisa bekerja di booth informasi atau memberikan kenyamanan bagi manusia, serta robot dari Lovense yang dirancang untuk hubungan interpersonal dan dilengkapi AI untuk “mengingat” percakapan intim.
Tapi ketidakcocokan sedetik antara gerak bibir dan ucapan bisa menjadi pembeda antara mesin yang bisa kita ikat secara emosional dan mesin yang tak lebih dari animatronik yang meresahkan.
Jadi, jika manusia harus menerima robot humanoid “hidup” di tengah kita, lebih baik jika mereka tidak membuat kita merasa sedikit tidak nyaman setiap kali berbicara.
Simak video ini: Robot Penyinkronisasi Bibir Menyanyikan Lagu
01:58
Robot penyinkronisasi bibir
Untuk membuat robot berwajah manusia yang bicara seperti kita, bibir robot harus disinkronkan dengan cermat terhadap audio ucapannya. Tim riset Columbia mengembangkan teknik yang membantu mulut robot bergerak seperti milik kita dengan fokus pada bagaimana bunyi bahasa.
Pertama, tim membangun wajah robot humanoid dengan mulut yang dapat berbicara — dan bernyanyi — dengan cara yang mengurangi efek lembah mengerikan. Wajah robot dari kulit silikon ini memiliki konektor magnet untuk gerakan bibir kompleks, memungkinkannya membentuk posisi bibir untuk 24 konsonan dan 16 vokal.
Simak video ini: Wajah Robot Penyinkronisasi Bibir Mengeja Kata per Kata
00:30
Untuk mencocokkan gerakan bibir dengan ucapan, mereka merancang “pipa pembelajaran” untuk mengumpulkan data visual dari gerakan bibir. Model AI menggunakan data ini untuk pelatihan, lalu menghasilkan titik referensi untuk perintah motor. Selanjutnya, “transformator aksi wajah” mengubah perintah motor menjadi gerakan mulut yang tersinkronisasi dengan audio.
Dengan kerangka kerja ini, wajah robot bernama Emo mampu “berbicara” dalam berbagai bahasa, termasuk yang tidak termasuk dalam pelatihan, seperti Prancis, Mandarin, dan Arab. Triknya adalah kerangka kerja ini menganalisis bunyi bahasa, bukan makna di balik bunyi tersebut.
“Kami menghindari masalah spesifik bahasa dengan melatih model yang langsung berpindah dari audio ke gerak bibir,” kata Lipson. “Tidak ada konsep bahasa di sini.”
Simak video ini: Wajah Robot Penyinkronisasi Bibir Memperkenalkan Diri
00:49
Mengapa robot bahkan membutuhkan wajah dan bibir?
Manusia telah lama bekerja berdampingan dengan robot, tetapi mereka selalu terlihat seperti mesin, bukan orang — seperti lengan tanpa tubuh yang sangat mekanis di lini perakitan atau cakram besar penyedot debu robot yang meluncur di lantai dapur kita.
Namun, seiring model bahasa AI di balik chatbot menjadi lebih umum, perusahaan teknologi berusaha keras mengajari robot cara berkomunikasi dengan kita menggunakan bahasa secara real-time.
Ada bidang studi bernama interaksi manusia-robot yang meneliti bagaimana robot seharusnya berdampingan dengan manusia, secara fisik maupun sosial. Pada 2024, sebuah studi dari Berlin dengan 157 partisipan menemukan bahwa kemampuan robot mengekspresikan empati dan emosi melalui komunikasi verbal sangat penting untuk interaksi efektif dengan manusia. Dan studi lain tahun 2024 dari Italia menemukan bahwa ucapan aktif penting untuk kolaborasi antara manusia dan robot dalam tugas kompleks seperti perakitan.
Jika kita akan bergantung pada robot di rumah dan tempat kerja, kita harus bisa bercakap dengan mereka seperti halnya dengan sesama manusia. Ke depannya, Lipson mengatakan, riset dengan robot penyinkronisasi bibir akan berguna bagi segala jenis robot humanoid yang perlu berinteraksi dengan orang.
Mudah juga dibayangkan masa depan dimana robot humanoid identik dengan kita. Lipson mengatakan desain yang cermat dapat memastikan orang paham bahwa mereka berbicara dengan robot, bukan manusia. Salah satu contohnya adalah mewajibkan robot humanoid memiliki kulit berwarna biru, kata Lipson, “agar mereka tidak disalahpahami sebagai manusia.”