Pada acara CES, Lyu memperlihatkan Mode Pengajaran R1, yang memungkinkan Anda mengarahkan kamera R1 ke layar komputer saat Anda menginstruksikannya bagaimana menyelesaikan tugas. Setelah belajar, Anda bisa meminta R1 untuk melakukan tugas tersebut untuk menghemat waktu dan usaha. Namun, fitur ini belum tersedia, dan ketika sudah tersedia, Rabbit mengatakan akan mulai dengan sejumlah kecil pengguna untuk menguji beta.
Namun, tujuan R1 lebih atau kurang menggantikan aplikasi Anda. Alih-alih mencari ikon, cukup tekan tombol dan minta R1 menangani sesuatu.
Pada acara CES, tampaknya Anda akan dapat mengakses beberapa aplikasi pihak ketiga melalui R1 saat peluncuran—tapi, saat ini, hanya ada empat layanan: Uber, DoorDash, Midjourney, dan Spotify.
Anda terhubung ke layanan tersebut melalui portal web Rabbit Hole—yang berarti ya, Anda masuk ke layanan tersebut melalui apa yang tampaknya menjadi mesin virtual yang dihosting oleh Rabbit, menyerahkan kredensial Anda—dan kemudian Anda bisa meminta R1 untuk memesan Uber, memesan McDonald’s, menghasilkan gambar, atau memutar lagu. Ini menggunakan antarmuka pemrograman aplikasi (API) dari layanan-layanan tersebut untuk menangani tugas-tugas tersebut—dan R1 sudah dipelajari sebelumnya untuk menggunakannya.
Lyu secara alami menjanjikan bahwa masih banyak lagi yang akan datang, tentu saja. Pada musim panas, kami diberitahu untuk mengharapkan alarm, kalender, kontak, GPS, pengingat memori, perencanaan perjalanan, dan fitur-fitur lainnya. Sedang dalam pengembangan adalah integrasi Amazon Music dan Apple Music, dan nantinya, kita seharusnya melihat lebih banyak integrasi layanan pihak ketiga termasuk Airbnb, Lyft, dan OpenTable.
Anda mungkin bertanya, “Tunggu sebentar, itu terdengar seperti ponsel,” dan Anda tidak akan keliru.
Seperti yang telah kita lihat dengan Humane Ai Pin yang kikuk dan terbatas, ponsel pintar dapat melaksanakan semua tugas ini dengan lebih baik, lebih cepat, dan dengan interaksi yang lebih kaya. Di sinilah Anda harus mulai memperhatikan visi keseluruhan Rabbit.
Ide ini adalah untuk berbicara dan kemudian menghitung. Tidak perlu aplikasi—komputer akan mengerti saja. Kita masih jauh dari itu, tetapi, pada acara peluncuran, Rabbit meremehkan perangkat wearable yang akan mengerti apa yang Anda tunjuk.
Lyu menyarankan bahwa perangkat wearable ini bisa mengerti Anda menunjuk pada termos Nest dan meminta untuk menurunkan suhu, tanpa harus mengucapkan kata-kata “Nest” atau “termos”. Namun, gambar dari perangkat wearable yang seolah-olah mengawasi itu kabur, jadi kita tidak punya banyak informasi untuk diketahui.
Lyu menyebut antarmuka pengguna generatif, di mana pengguna akan bisa memiliki antarmuka pilihan mereka sendiri—tombol di layar ditempatkan di mana Anda inginkan, dan dengan ukuran tampilan yang sempurna—dan kemudian mengklaim bahwa Rabbit sedang mengerjakan sistem operasi desktop berbasis AI yang disebut Rabbit OS. Sekali lagi, kita tidak memiliki banyak detail, tetapi pikiran saya langsung teringat pada Theo di film Her yang menginstal OS1 di PC-nya.
Sistem operasi yang menempatkan asisten suara pribadi sebagai pusat perhatian. Apa yang bisa salah?