Aplikasi Lokal AI yang Super Sederhana dari LLM Andalan Saya – Inilah Alasan Anda Harus Mencobanya

Jack Wallen / Elyse Betters Picaro / ZDNET

Poin penting ZDNET
Tim pengembang Ollama AI telah meluncurkan antarmuka grafis (GUI) asli untuk MacOS dan Windows. GUI baru ini sangat mempermudah penggunaan AI secara lokal. Aplikasinya mudah diinstal dan memungkinkanmu mengunduh berbagai model LLM.


Jika kamu menggunakan AI, ada beberapa alasan mengapa lebih baik menjalankannya secara lokal daripada lewat cloud.

Pertama, lebih privasi. Saat menggunakan Large Language Model (LLM) di cloud, kamu tak pernah tahu apakah pertanyaan atau hasilmu dilacak—bahkan disimpan—oleh pihak ketiga. Selain itu, menjalankan LLM lokal menghemat energi. Jumlah energi yang dibutuhkan untuk LLM berbasis cloud terus meningkat dan bisa menjadi masalah di masa depan.

Makanya, LLM yang dihosting lokal jadi solusi.

Baca juga: Cara menjalankan DeepSeek AI lokal untuk melindungi privasi – 2 metode mudah

Ollama adalah alat yang memungkinkanmu menjalankan berbagai LLM. Saya sudah menggunakannya beberapa waktu dan menemukan bahwa Ollama menyederhanakan proses download dan penggunaan model AI. Meski membutuhkan sumber daya sistem yang cukup besar (tidak cocok untuk laptop lawas), Ollama berjalan cepat dan mendukung banyak model.

Tapi sebelumnya, Ollama hanya bisa dioperasikan lewat command-line. Ada beberapa GUI pihak ketiga (seperti Msty, yang jadi favorit saya). Namun baru sekarang, tim pengembang Ollama merilis GUI resmi mereka.

Kini, sudah ada GUI yang simpel dan ramah pengguna, berjuluk Ollama.

Kompatibel dengan LLM umum – tapi bisa pakai model lain

GUI-nya cukup sederhana, tapi dirancang agar siapa saja bisa langsung menggunakannya. Ada beberapa model LLM yang bisa diunduh langsung dari menu drop-down, seperti Gemma, DeepSeek, dan Qwen. Pilih salah satu, dan Ollama akan mengunduhnya otomatis.

MEMBACA  Potongan yang dilakukan Donald Trump terhadap pemerintah AS menimbulkan kekhawatiran atas kualitas data ekonomi

Kalau mau pakai model yang tidak terdaftar, kamu perlu mengunduhnya lewat command-line dengan perintah:


ollama pull [NAMA_MODEL]  <br />
```  <br />
Ganti `[NAMA_MODEL]` dengan model yang kamu inginkan.  <br />
<br />
**Baca juga:** [Cara saya memberi *file* ke AI lokal untuk respons lebih relevan](https://www.zdnet.com/article/how-i-feed-my-files-to-a-local-ai-for-better-more-relevant-responses/)  <br />
<br />
Daftar lengkap model tersedia di [Ollama Library](https://ollama.com/library). Setelah mengunduh model, model tersebut akan muncul di menu *drop-down* sebelah kanan kolom *query*.  <br />
<br />
Aplikasi Ollama semudah *interface* AI *cloud* populer, dan gratis untuk MacOS dan Windows (sayangnya belum ada versi Linux).  <br />
<br />
Saya sudah mencoba Ollama dan menyimpulkan bahwa meski fiturnya tak selengkap Msty, Ollama lebih mudah dipakai dan tampilannya lebih cocok dengan estetika MacOS. Ollama juga terasa lebih cepat dibanding Msty (baik saat membuka maupun merespons *query*), yang penting karena AI lokal kadang lambat akibat keterbatasan sumber daya.  <br />
<br />
### Cara menginstal Ollama di Mac atau Windows  <br />
Kabar baik: menginstal Ollama semudah menginstal aplikasi biasa. Kunjungi [halaman *download* Ollama](https://ollama.com/download/mac), unduh sesuai OS-mu, lalu ikuti petunjuk instalasi. Di MacOS, tinggal *drag* ikon Ollama ke folder *Applications*, selesai!  <br />
<br />
Menggunakan Ollama juga gampang: pilih model, biarkan terunduh, lalu mulai *query*.  <br />
<br />
Unduh LLM semudah memilih dari daftar dan biarkan aplikasi bekerja.  <br />
<br />
**Jack Wallen/ZDNET**  <br />
<br />
### Haruskah kamu mencoba Ollama?  <br />
Jika selama ini mencari alasan untuk mencoba AI lokal, inilah waktu yang tepat.  <br />
<br />
**Baca juga:** [Saya mencoba aplikasi AI lokal Sanctum, dan inilah yang saya butuhkan untuk jaga privasi data](https://www.zdnet.com/article/i-tried-sanctums-local-ai-app-and-its-exactly-what-i-needed-to-keep-my-data-private/)  <br />
<br />
Ollama membuat migrasi dari AI *cloud* jadi sangat mudah. Aplikasinya gratis, begitu pula dengan LLM di *library*-nya. Cobalah, siapa tahu Ollama jadi [alat AI andalanmu](https://www.zdnet.com/article/the-top-20-ai-tools-of-2025-and-the-1-thing-to-remember-when-you-use-them/).  <br />
<br />
Ingin lebih banyak cerita AI? Cek [AI Leaderboard](https://www.zdnet.com/newsletters/), *newsletter* mingguan kami.