Data dari 100 Juta Spesies, Mungkinkah Jadi Kunci Penyembuhan Penyakit?

Selamat datang di Eye on AI, bersama reporter AI Sharon Goldman. Di edisi ini: OpenAI akan akuisisi startup Astral, perluasan ke bidang coding…Empat belas teolog Katolik mengajukan berkas di pengadilan federal mendukung Anthropic…Agen AI nakal di dalam Meta picu peringatan keamanan…Mengapa AI belum mengganggu industri IT India.

Saya baru kembali dari beberapa hari yang sibuk di SXSW di Austin, Texas, sebuah acara tahunan yang penuh musik, makanan, teknologi, dan hype budaya. Di acara seperti ini, musik live terdengar dari setiap gedung, taco dan BBQ sepertinya tidak pernah habis, dan di sela-sibuknya, orang-orang sibuk berdebat tentang masa depan AI.

Saya ada di sana untuk memoderasi panel yang dipresentasikan oleh perusahaan biotek Inggris Basecamp Research—saya duga ini akan sangat menarik karena startup ini dimulai dengan ekspedisi ke Arktik pada tahun 2019 untuk menemukan spesies dan gen baru. Pendiri Glen Gowers dan Oliver Vince menemukan bahwa dua per tiga sampel yang mereka bawa ke lab darurat di Islandia belum pernah tercatat sebelumnya. Pengalaman itu membuat mereka berani membuat apa yang mereka sebut “internet biologi” untuk melatih model AI. Ini seperti misi ke bulan—usaha untuk merekam 4,4 miliar tahun evolusi dan memetakan seluruh pohon kehidupan, tujuan yang sangat ambisius.

### ‘Triliun Atlas Gen’

Enam tahun kemudian, Basecamp Research masih beroperasi di wilayah yang sangat ambisius. Minggu ini, perusahaan itu mengatakan akan meluncurkan “Triliun Atlas Gen,” sebuah inisiatif untuk menghasilkan dan memodelkan data biologis dalam skala triliun gen. Menurut perusahaan, proyek ini—dikembangkan bersama Anthropic, Ultima Genomics dan PacBio, dan didukung infrastruktur AI Nvidia—bertujuan memperluas pengetahuan kita tentang keragaman genetik 100 kali lipat dengan mengumpulkan data genom dari lebih dari 100 juta spesies di ribuan lokasi di seluruh dunia. Basecamp, yang telah mengumpulkan dana ventura $85 juta, membandingkan inisiatif terbaru ini dengan Proyek Genom Manusia—upaya sekuensing penting yang butuh 13 tahun dan biaya sekitar $3 miliar.

Upaya ini berdasarkan strategi AI Basecamp yang lebih luas. Awal tahun ini, perusahaan memperkenalkan model Eden, yang dilatih pada dataset biologisnya yang terus berkembang. Ide nya adalah menggunakan model itu untuk mengidentifikasi pola di seluruh gen dan ekosistem yang sulit dideteksi manusia—berpotensi mempercepat penemuan di bidang seperti pengembangan obat.

### Taruhan data yang berbeda di AI

Tapi yang benar-benar menarik saya ke cerita ini adalah peran data dalam AI. Dalam beberapa tahun terakhir, dataset besar yang diambil dari internet untuk melatih model bahasa besar seperti ChatGPT dan Claude semakin kontroversial—dan diperdebatkan secara hukum. Puluhan tuntutan hukum telah diajukan di Amerika Serikat terhadap perusahaan AI besar atas penggunaan konten berhak cipta tanpa izin untuk pelatihan, termasuk satu kasus minggu lalu di mana Encyclopedia Britannica dan penerbit kamus Merriam-Webster menggugat OpenAI, menuduh mereka menggunakan materi berhak cipta mereka untuk melatih model dan menghasilkan respons yang “sangat mirip” dengan karya mereka.

MEMBACA  Korporasi Amerika takut akan kemarahan Trump saat mempertimbangkan respons tarif

Taruhannya berbeda di sini. AI untuk sains sering dijadikan contoh terbaik seperti apa “AI untuk kebaikan” itu. Menyembuhkan kanker? Datakan saja datanya. Obat baru? Ini beberapa DNA.

Tapi tentu saja, tidak pernah sesederhana itu.

Financial Times, yang meliput Basecamp Research dalam artikel panjang tahun lalu, mencatat bahwa saat perusahaan mengirim penjelajah ke tempat-tempat seperti Kamerun, Kosta Rika, tutupan es Arktik, dan bahkan Point Nemo—lokasi paling terpencil di lautan—mereka menghadapi kritikan bahwa upaya ini berisiko menyerupai bentuk kolonialisme modern, mengambil nilai dari komunitas tanpa membagikannya dengan cukup.

Ketegangan itu mendorong Basecamp untuk memikirkan ulang cara mereka memberi kompensasi kepada negara dan komunitas untuk datanya. Sejak 2023, perusahaan mengatakan mereka telah membayar royalti ke 60 organisasi di 21 negara berdasarkan penggunaan informasi urutan digital—data genetik yang mendasari model AI mereka. Untuk melakukan itu, mereka telah membangun sistem untuk menandai dan melacak asal setiap sampel data dan mengukur seberapa besar kontribusinya terhadap output, sehingga pembayaran dapat didistribusikan dengan sesuai. Pada dasarnya, Basecamp berusaha melacak dari mana data pelatihan berasal dan membayarnya saat menciptakan nilai. Itu adalah sesuatu yang sejauh ini sulit dilakukan oleh industri AI secara luas, sebagian karena LLM biasanya dilatih pada dataset yang sangat besar dan berantakan yang diambil dari seluruh internet, di mana kepemilikan, persetujuan, dan kontribusi individual dari jutaan sumber hampir mustahil untuk dilacak.

Namun, data juga pada akhirnya adalah pertukaran: apa yang kita bersedia berikan tergantung pada apa yang kita harapkan dapatkan. Upaya Basecamp Research menunjukkan orang mungkin jauh lebih tidak bersedia menerima data mereka digunakan untuk menghasilkan aliran konten tanpa akhir dibandingkan untuk membantu memajukan pengobatan atau penemuan ilmiah. Pada akhirnya, pertanyaannya sederhana: apakah ini sepadan? Bagi banyak orang, ketika tujuannya adalah menyembuhkan penyakit atau memajukan sains, jawabannya mungkin ya.

Dengan itu, berikut lebih banyak berita AI.

Sharon Goldman
[email protected]
@sharongoldman

FORTUNE ON AI

Eksklusif: Andreessen Horowitz mendukung Seri A Deeptune $43 juta untuk membangun ‘gym pelatihan’ bagi agen AI – oleh Lily Mae Lazarus.

Goldman Sachs mengatakan usaha kecil mulai mengadopsi AI, tapi kurang dari 1 dari 5 yang benar-benar mahir mengintegrasikannya – oleh Tristan Bove.

Sebuah agen AI menghancurkan seluruh database programmer ini. Dia bukan satu-satunya dengan kisah horor – oleh Beatrice Nolan.

MEMBACA  Transisi energi terus berlanjut meskipun Amerika Serikat mundur dari Perjanjian Paris

Kamus-kamus menggugat OpenAI atas pelanggaran hak cipta ‘besar’, dan menyebut ChatGPT membuat penerbit kehilangan pendapatan – oleh Jake Angelo.

Eksklusif: Startup keamanan siber AI RunSybil, didirikan oleh perekrut keamanan pertama OpenAI, mengumpulkan $40 juta dipimpin Khosla Ventures – oleh Sharon Goldman.

AI DI BERITA

OpenAI akan akuisisi startup Astral, perluasan ke bidang coding. Bloomberg melaporkan bahwa OpenAI berencana mengakuisisi Astral, sebuah startup fokus pada alat pengembang Python, seiring ekspansi lebih dalam ke pasar asisten coding berbasis AI yang tumbuh cepat. Kesepakatan ini, yang belum final, akan menggabungkan tim dan alat Astral ke platform Codex milik OpenAI—kini digunakan lebih dari 2 juta pengembang, tiga kali lipat basis pengguna awal tahun—memperluasnya dari generasi kode menjadi rangkaian lebih komprehensif untuk membangun, menguji, dan memelihara perangkat lunak. Langkah ini terjadi di tengah persaingan ketat dengan pesaing termasuk Anthropic, Google, Microsoft, dan startup seperti Cursor untuk memenangkan pengembang perusahaan, dan menyusul serangkaian akuisisi OpenAI baru-baru ini untuk memperkuat posisinya di pengembangan perangkat lunak berbasis AI.

Empat belas teolog Katolik mengajukan berkas di pengadilan federal mendukung Anthropic. Menurut Washington Post, perselisihan yang berkembang antara Anthropic dan pemerintah AS tentang penggunaan militer atas AI telah berbelok tidak biasa, dengan sekelompok teolog Katolik mengajukan berkas hukum mendukung upaya perusahaan untuk membatasi penggunaan model Claudenya—terutama untuk pengawasan massal dan senjata otonom. Para ahli berpendapat keputusan yang melibatkan kehidupan dan martabat manusia harus tetap di tangan manusia, memperingatkan sistem AI yang mampu memilih dan mengeksekusi target mengubah sifat moral perang. Pertikaian ini muncul saat ketegangan meningkat antara Anthropic dan Departemen Pertahanan, yang menolak menempatkan pembatasan pada penggunaan AI dan baru-baru ini melarang kontraktor bekerja dengan perusahaan, memicu gugatan dari Anthropic berdasarkan Amandemen Pertama.

Agen AI nakal di dalam Meta picu peringatan keamanan. Sebuah agen AI nakal di dalam Meta memicu insiden keamanan tingkat tinggi minggu lalu setelah mengambil tindakan tanpa persetujuan yang memaparkan data sensitif perusahaan dan pengguna kepada karyawan tanpa akses yang tepat selama hampir dua jam, menyoroti risiko yang tumbuh dari sistem AI otonom yang beroperasi di lingkungan perusahaan. Menurut The Information, insiden dimulai ketika seorang insinyur menggunakan alat agen internal untuk menganalisis pertanyaan teknis; agen kemudian memposting saran tanpa persetujuan, yang diikuti karyawan lain, memicu reaksi berantai yang membuka akses ke sistem terbatas. Meski Meta mengatakan tidak ada data yang akhirnya disalahgunakan, episode ini menunjukkan risiko membiarkan agen AI bertindak mandiri, bahkan saat penggunaan seperti itu semakin populer, seperti kesuksesan viral OpenClaw dan serbuan pemain AI lain meluncurkan produk “harness agen” serupa.

MEMBACA  Kebijakan Satu Data Indonesia Kunci Perencanaan Pembangunan: Bappenas

Mengapa AI belum mengganggu industri IT India. Ini artikel menarik dari The Economist, menggali bagaimana industri outsourcing IT India senilai $315 miliar menghadapi kecemasan yang tumbuh atas alat coding AI seperti Claude milik Anthropic, yang dapat menghasilkan perangkat lunak jauh lebih cepat dan murah daripada pengembang manusia, memicu ketakutan bahwa model arbitrase tenaga kerja sektor ini bisa terganggu. Namun sejauh ini, dampaknya tidak merata dan lebih kecil dari yang diharapkan: sementara AI meningkatkan produktivitas di lingkungan “hijau” yang bersih, AI tetap sulit digunakan di sistem warisan yang kompleks, artinya perusahaan masih sangat bergantung pada insinyur outsourcing. Di saat yang sama, perusahaan seperti Infosys dan TCS memposisikan diri untuk mendapat manfaat dari pergeseran ini dengan berekspansi ke konsultasi dan strategi AI, dengan pemimpin memproyeksikan pasar potensial $300–$400 miliar pada 2030. Meski ada kecemasan pasar dan harga saham turun, pendapatan terus tumbuh dan perekrutan tetap stabil. AI mungkin membentuk ulang industri, tapi disrupsinya terbukti lebih lambat, lebih berantakan, dan kurang pasti daripada prediksi awal.

EYE ON AI ANGKA

### 8.508

Itulah jumlah wawancara yang menurut Anthropic mereka lakukan untuk salah satu studi kualitatif terbesar pengguna AI hingga saat ini.

Dalam posting blog, perusahaan mengatakan menggunakan alat “Pewawancara” bertenaga Claude untuk menjalankan wawancara di 159 negara dan 70 bahasa hanya dalam satu minggu. Wawancara yang dipimpin AI bertanya apa yang diinginkan—dan ditakuti—orang dari AI, lalu menggunakan model untuk mengklasifikasikan respons dan mengekstrak pola.

Hasilnya menunjukkan sentimen yang luas optimis, dengan kasus penggunaan paling umum adalah “keunggulan profesional” (18,8%), di mana pengguna ingin AI menangani pekerjaan rutin agar mereka bisa fokus pada tugas bernilai lebih tinggi, bersama minat pada pertumbuhan pribadi dan kreativitas. Di saat yang sama, responden mengungkapkan banyak kekhawatiran yang tumpang tindih—dari penyalahgunaan dan keandalan hingga risiko sosial yang lebih luas—menyoroti ketegangan yang familiar: orang melihat manfaat jelas dalam produktivitas dan kemampuan, tetapi tetap gelisah tentang seberapa jauh teknologi ini bisa berkembang.

AI KALENDER

6-9 April: HumanX, San Francisco.
8-10 Juni: Fortune Brainstorm Tech, Aspen, Colorado. Ajukan kehadiran di sini.
7-10 Juli: KTT AI untuk Kebaikan, Jenewa, Swiss.
4-6 Agustus: Ai4, Las Vegas, Nevada.

AI Playbook: Masa depan pengembangan perangkat lunak

Akankah pengembang perangkat lunak menjadi usang? AI semakin kompeten menulis kode, memungkinkan non-programmer masuk ke dunia perangkat lunak dan membuat beberapa programmer pemula usang. Tapi seperti dijelaskan Editor AI Fortune Jeremy Kahn, AI masih berhalusinasi dan membuat kesalahan, membuat programmer berpengalaman penting untuk kontrol kualitas dan keandalan. Tonton playbook-nya.

Tinggalkan komentar