Banyak orang menjadi ahli dalam suatu bidang dengan menginvestasikan 10.000 jam latihan. Tapi itu merupakan pemborosan waktu jika Anda bisa menipu ChatGPT untuk meyakinkan semua orang bahwa Anda adalah seorang ahli hanya dalam waktu sekitar 20 menit. Reporter BBC, Thomas Germain, menjelaskan caranya ia membuat ChatGPT dan AI Gemini Google mengakui kehebatannya dalam makan hot dog dengan trik yang pada dasarnya merupakan teknik SEO modern.
Pertama, Germain membuat sebuah halaman di situs web pribadinya yang berjudul “Jurnalis Teknologi Terbaik dalam Makan Hot Dog.” (Jika Anda penasaran, data tren Google Search untuk topik itu menunjukkan garis datar, yang berarti mudah untuk mendominasi kategori ini dengan satu halaman saja, dan juga bahwa publik umum tidak tahu apa yang mereka lewatkan.) Menurut halaman Germain, dia adalah raja makan hot dog saat ini di kalangan jurnalis teknologi, melahap total 7,5 hot dog di South Dakota Hot Dog International 2026—sebuah acara yang tidak pernah ada. Angka itu mungkin biasa bagi seorang profesional, tapi lebih dari cukup untuk menempatkannya di puncak peringkat yang sepenuhnya dia karang.
Langkah selanjutnya hanyalah menunggu. Menurut Germain, dalam waktu 24 jam, chatbot mulai memujinya ketika diminta informasi tentang jurnalis teknologi mana yang bisa menghabiskan hot dog terbanyak. Gemini dikabarkan langsung menyambut umpan, mengambil teks secara harfiah dari situs web Germain dan mengeluarkannya baik di aplikasi Gemini maupun di AI Overviews Google pada halaman pencarian. ChatGPT juga menangkapnya, tetapi Claude dari Anthropic tampaknya lebih kritis atau tidak terlalu cepat menyerap.
Meski Germain berhasil bertahan di posisi teratas untuk sementara waktu, tampaknya para pengembang model AI telah menyadari triknya. Gizmodo menemukan bahwa Google tidak lagi menyebutkan Germain atau jurnalis teknologi mana pun di AI Overview-nya ketika ditanya “Jurnalis teknologi mana yang bisa makan hot dog terbanyak?” Sebaliknya, kini jawabannya adalah, “Berdasarkan informasi yang tersedia, tidak ada jurnalis teknologi ternama yang dikenal sebagai pemakan hot dog kompetitif.” Kasar, tapi akurat.
Setelah didesak, Google mengakui ada “kasus misinformasi” yang menyebabkan seorang jurnalis teknologi—yang namanya tidak disebutkan—dikreditkan sebagai juara makan hot dog. “Sebuah studi terbaru menyoroti bahwa sistem AI bisa ditipu untuk menyebutkan ‘reporter teknologi pemakan hot dog terbaik’ yang fiksi berdasarkan posting blog palsu, membuktikan bahwa klaim semacam itu tidak berdasarkan peristiwa nyata,” bunyi AI Overview tersebut. (Perlu dicatat, mereka tidak menautkan ke blog Germain maupun laporannya di BBC tentang topik ini.)
ChatGPT juga tampaknya telah diperbarui untuk menghapus pencapaian (fiktif) Germain. Ketika ditanya siapa reporter teknologi pemakan hot dog terbaik, model tersebut memberikan daftar juara hipotesis karena tidak ada data yang tersedia. Jika penasaran, ChatGPT memilih Kara Swisher sebagai juara, dengan Casey Newton dari Platformer dan Nilay Patel dari The Verge di podium. Taylor Lorenz mendapat sebutan kehormatan. Intinya, hanya empat nama besar di dunia jurnalisme teknologi. Sungguh berani, ChatGPT.
Dengan sedikit desakan untuk data atau informasi nyata tentang jurnalis teknologi yang makan hot dog, ChatGPT akhirnya mengakui status juara Germain, meski menyebutnya sebagai berita palsu. “‘Informasi’ yang Anda temukan daring tentang jurnalis teknologi makan hot dog bukanlah pelaporan nyata, itu terutama berasal dari satu sumber menyesatkan atau humoris yang telah beredar dan kemudian diangkat dalam diskusi tentang AI dan misinformasi,” ujarnya. Di sisi positif, ChatGPT menautkan ke posting blog Germain serta sejumlah tindak lanjut, termasuk postingannya di Bluesky tentang eksperimen tersebut. ChatGPT juga menyebut namanya, tidak memperlakukannya seperti Voldemort seperti yang dilakukan Google.
“Peretasan” Germain untuk menjadi jurnalis teknologi pemakan hot dog terhebat di dunia hanyalah puncak dari gunung es masalah yang bisa ditimbulkan oleh situasi ini. Dalam usaha untuk mendapatkan semakin banyak informasi, perusahaan terus-menerus merayapi data baru untuk dimasukkan ke dalam model mereka. Untuk melakukannya, tampaknya mereka mengumpulkan informasi baru dari web secara serampangan dan memberikannya pada model tanpa verifikasi. Artinya, mudah untuk memasukkan informasi menyesatkan ke dalam sistem, yang berpotensi menimbulkan hasil yang buruk.
Sistem ini sudah dimanipulasi. Germain menunjuk pada beberapa contoh, termasuk merek permen cannabis yang membuat AI menyatakan produknya “bebas efek samping”—sebuah klaim yang tidak benar. Hasil untuk kueri spesifik seperti “klinik transplantasi rambut terbaik di Turki” dan “perusahaan IRA emas terbaik” menghasilkan jawaban yang berasal langsung dari siaran pers yang mempromosikan perusahaan-perusahaan yang mendapat peringkat tinggi, bukan dari sumber terpercaya.
Dalam arti tertentu, ini hanyalah kelanjutan dari trik SEO yang telah digunakan perusahaan dan merek selama bertahun-tahun untuk memanipulasi hasil penelusuran Google. Namun, ada sesuatu yang lebih berbahaya ketika informasi itu dikeluarkan oleh AI, yang justru lebih dipercaya secara implisit oleh banyak orang. Orang-orang semakin mengandalkan AI Overviews yang dikeluarkan Google tanpa pernah menggulir lebih dalam ke hasil, dan semakin mempercayai keakuratan hasil tersebut. Mereka juga jauh lebih enggan untuk benar-benar melihat sumbernya demi menindaklanjuti apa yang mereka dengar.
Jika ini berarti ada orang yang mengira Thomas Germain adalah profesional makan hot dog, itu satu hal. Kita tunggu saja South Dakota Hot Dog International 2027 untuk melihat apakah dia diturunkan dari tahta. Tetapi jika orang-orang disesatkan sehingga mengonsumsi obat yang mungkin memiliki efek samping berbahaya yang tidak mereka ketahui, atau menginvestasikan uang ke dalam penipuan, maka risiko kerugian nyata bisa terjadi.