Enshittification Ollama - Tanda-Tanda Awal
Pandangan saya terhadap kondisi saat ini pengembangan Ollama
Ollama dengan cepat menjadi salah satu alat paling populer untuk menjalankan LLM secara lokal. CLI yang sederhana dan manajemen model yang terintegrasi telah membuatnya menjadi pilihan utama bagi pengembang yang ingin bekerja dengan model AI di luar awan. Namun, seperti halnya dengan banyak platform yang menjanjikan, sudah ada tanda-tanda Enshittification:
- proses bertahap di mana perangkat lunak atau layanan menurun kualitasnya seiring waktu, karena minat pengguna secara perlahan disubordinasikan kepada prioritas bisnis, arsitektur, atau internal lainnya.
Dalam artikel ini, saya akan menjelaskan tren terbaru dan keluhan pengguna mengenai Ollama yang mengindikasikan pergeseran ini, serta mengapa hal tersebut penting bagi masa depan Ollama.
Untuk detail mengenai perintah dan parameter Ollama yang paling sering digunakan, silakan lihat Ollama cheatsheet.
Untuk UI yang berguna untuk Ollama, lihat - Open-Source Chat UIs for LLMs on Local Ollama Instances
Auto-Start dan Kontrol Latar Belakang
Salah satu titik nyeri yang dilaporkan oleh pengguna adalah Ollama yang secara otomatis mulai berjalan saat sistem booting — terutama di Windows.
- Tidak ada pengaturan yang jelas untuk menonaktifkan perilaku ini.
- Bahkan jika Anda menonaktifkannya secara manual, pembaruan atau reinstal mungkin secara diam-diam mengaktifkan startup kembali.
- Di macOS, aplikasi desktop juga secara default akan diluncurkan saat login, kecuali Anda secara khusus menginstal variannya hanya CLI.
Polanya — perangkat lunak memasukkan dirinya sendiri ke dalam rutinitas startup tanpa persetujuan eksplisit — adalah peringatan klasik. Ini merusak kepercayaan pengguna dan menciptakan hambatan bagi mereka yang menghargai kontrol atas sistem mereka.
Kekhawatiran Mengenai Pelacakan dan Pengumpulan Data
Masalah lain yang sering muncul adalah perilaku jaringan Ollama. Pengguna telah menyadari lalu lintas keluar bahkan ketika semua operasi seharusnya dilakukan secara lokal. Pemelihara telah menyatakan bahwa ini terkait dengan pemeriksaan pembaruan, bukan input pengguna — tetapi tidak ada tombol sederhana untuk mereka yang ingin pengalaman sepenuhnya offline.
Untuk platform yang memarkainya sebagai alat lokal dengan fokus pada privasi, kurangnya kejelasan ini menciptakan keraguan. Transparansi dan opsi untuk menonaktifkan sangat penting jika Ollama ingin mempertahankan kredibilitasnya.
Regresi Kinerja dengan Engine Baru
Pembaruan terbaru memperkenalkan engine inferensi baru, tetapi alih-alih peningkatan kinerja, beberapa pengguna melaporkan sebaliknya:
- Pembuatan token hingga 10× lebih lambat dalam beberapa skenario.
- Penggunaan GPU tidak konsisten dibandingkan dengan engine sebelumnya.
- Model yang lebih besar seperti Qwen3:30B sekarang berjalan jauh lebih buruk, dengan latensi yang lebih tinggi dan throughput yang lebih rendah.
Perubahan ini memicu kekhawatiran mengenai prioritas. Jika pembaruan membuat model kurang dapat digunakan pada perangkat keras nyata, pengembang mungkin merasa tertekan untuk memperbarui perangkat keras atau menerima penurunan kinerja — cara lain yang halus untuk menurunkan prioritas pengalaman pengguna.
Risiko Keamanan dari Instansi yang Diatur dengan Tidak Benar
Peneliti keamanan telah menemukan server Ollama yang terpapar yang berjalan tanpa otentikasi. Kerentanan seperti traversal path dan vektor denial-of-service telah diungkapkan, dengan beberapa yang diperbaiki dan lainnya yang diperdebatkan.
Meskipun sebagian besar ini jatuh pada pengguna yang mengatur deployment dengan tidak benar, kurangnya default yang aman meningkatkan risiko. Tanggung jawab platform termasuk membuat jalur aman menjadi jalur yang mudah.
Turbo: Perubahan Model Bisnis dan Monetisasi
Peluncuran Ollama Turbo — layanan percepatan awan — mewakili momen penting. Perbedaan utama Ollama adalah fokusnya pada kontrol lokal, privasi, dan distribusi open-source. Namun, Turbo memperkenalkan ketergantungan pada infrastruktur Ollama sendiri.
- Menggunakan Turbo memerlukan pembuatan akun, menggeser dari pengalaman lokal tanpa gesekan.
- Fitur kunci di aplikasi Mac sekarang bergantung pada server Ollama, memicu kekhawatiran mengenai seberapa banyak fungsi yang mungkin tetap dapat digunakan secara offline.
- Diskusi di Hacker News menggambarkan ini sebagai awal dari enshittification, memperingatkan bahwa komersialisasi akhirnya bisa memperkenalkan paywall untuk kemampuan yang saat ini gratis.
Ini bukan berarti Ollama telah meninggalkan prinsipnya — Turbo bisa bernilai bagi pengguna yang ingin inferensi yang lebih cepat tanpa membeli perangkat keras baru. Namun, tampilan penting: sekali alat lokal memerlukan layanan terpusat untuk “pengalaman terbaik”, risikonya mengurangi kualitas yang membuatnya menonjol dari OpenAI atau Anthropic sejak awal.
Pola: Kontrol Pengguna vs. Default Vendor
Secara individual, isu-isu ini mungkin terlihat kecil. Bersama, mereka menunjukkan pola:
- Perilaku startup default ke aktif, bukan nonaktif.
- Pemeriksaan pembaruan terjadi secara otomatis, bukan opt-in.
- Perubahan kinerja melayani tujuan arsitektur baru, meskipun menurunkan penggunaan saat ini.
- Monetisasi sekarang memperkenalkan ketergantungan server, bukan hanya biner lokal.
Ini adalah bagaimana enshittification dimulai — bukan dengan satu langkah yang tidak ramah, tetapi dengan serangkaian pergeseran kecil yang secara halus menukar kontrol pengguna dengan kenyamanan vendor atau pendapatan.
Yang Belum Terjadi (Masih)
Untuk adil, Ollama belum memasuki wilayah paling memalukan:
- Tidak ada iklan atau promosi di dalam UI.
- Tidak ada paywall agresif yang membatasi fungsi lokal inti.
- Tidak ada kunci keras seputar format proprietary; model komunitas tetap dapat diakses.
Meskipun demikian, kewaspadaan diperlukan. Perpindahan dari “alat yang menghormati kontrol Anda” ke “alat yang melakukan apa yang diinginkan vendor secara default” sering terjadi secara bertahap.
Kesimpulan
Ollama tetap menjadi salah satu cara terbaik untuk menjalankan model besar secara lokal. Namun, tanda-tanda awal jelas: perilaku auto-start, ketidakjelasan pelacakan, regresi kinerja, default yang tidak aman, dan drift awan dari Turbo semua mengindikasikan perpindahan perlahan dari ethos alat asli.
Untuk Ollama tetap setia pada janjinya, pemelihara perlu memprioritaskan transparansi, desain opt-in, dan prinsip lokal-first. Jika tidak, platform berisiko merusak nilai-nilai yang membuatnya menarik sejak awal. Tapi saya tidak menahan napas.
Tautan yang Berguna
- https://ollama.com/
- Ollama cheatsheet
- Enshittification - meaning, desfiption and examples
- Open-Source Chat UIs for LLMs on Local Ollama Instances
- How to Move Ollama Models to Different Drive or Folder
- Ollama space - list of articles
- Self-hosting Perplexica - with Ollama
- How Ollama Handles Parallel Requests
- Test: How Ollama is using Intel CPU Performance and Efficient Cores
- Qwen3 Embedding & Reranker Models on Ollama: State-of-the-Art Performance
- Reranking text documents with Ollama and Qwen3 Reranker model - in Go