Enshittification di Ollama - I primi segnali

La mia opinione sull'attuale stato dello sviluppo di Ollama

Indice

Ollama ha rapidamente raggiunto uno dei posti più popolari tra gli strumenti per eseguire i modelli linguistici localmente. La sua semplice CLI e la gestione semplificata dei modelli l’hanno resa un’opzione di riferimento per gli sviluppatori che desiderano lavorare con i modelli AI al di fuori del cloud. Ma, come spesso accade con molte piattaforme promettenti, ci sono già segnali di Enshittification:

  • il processo graduale per cui un software o un servizio si degrada nel tempo, con gli interessi degli utenti che vengono lentamente sottomessi a priorità aziendali, architettoniche o interne.

enshittification and decay

In questo articolo, esplorerò le tendenze recenti e le lamentele degli utenti riguardo a Ollama che suggeriscono questa deriva, e perché queste cose contano per il suo futuro.

Per i dettagli sui comandi e sui parametri più frequenti di Ollama - vedi Ollama cheatsheet.

Per UI utili per Ollama vedi - Open-Source Chat UIs for LLMs on Local Ollama Instances

Avvio automatico e controllo in background

Uno dei punti di maggiore frustrazione segnalati dagli utenti è l’avvio automatico di Ollama all’avvio del sistema, in particolare su Windows.

  • Non esiste un’impostazione chiara per disattivare questo comportamento.
  • Anche se lo disattivi manualmente, gli aggiornamenti o le reinstallazioni potrebbero riattivarlo in silenzio.
  • Su macOS, l’app desktop si avvia anche all’accesso, a meno che non installi specificamente la versione CLI solo.

Questo modello — il software che si inserisce automaticamente nel processo di avvio senza un consenso esplicito — è un classico segnale di allarme. Erode la fiducia degli utenti e crea attriti per coloro che valutano il controllo sul proprio sistema.


Preoccupazioni riguardo alla telemetria e alla raccolta dati

Un altro problema ricorrente è il comportamento di rete di Ollama. Gli utenti hanno notato traffico in uscita anche quando tutte le operazioni dovrebbero essere locali. I mantainer hanno affermato che ciò è legato ai controlli degli aggiornamenti, non agli input degli utenti — ma non esiste un interruttore semplice per coloro che desiderano un’esperienza completamente offline.

Per una piattaforma che si presenta come uno strumento locale, orientato alla privacy, questa mancanza di chiarezza genera dubbi. La trasparenza e le opzioni di disattivazione sono essenziali se Ollama vuole mantenere la sua credibilità.


Regressione delle prestazioni con il nuovo motore

Gli aggiornamenti recenti hanno introdotto un nuovo motore di inferenza, ma invece di miglioramenti delle prestazioni, alcuni utenti hanno segnalato l’opposto:

  • La generazione dei token è fino a 10 volte più lenta in alcuni scenari.
  • L’utilizzo della GPU è inconsistente rispetto al motore precedente.
  • I modelli più grandi come Qwen3:30B ora funzionano significativamente peggio, con una latenza più alta e una throughput inferiore.

Questo cambiamento solleva preoccupazioni riguardo alle priorità. Se gli aggiornamenti rendono i modelli meno utilizzabili su hardware reale, gli sviluppatori potrebbero sentirsi costretti ad aggiornare l’hardware o ad accettare prestazioni ridotte — un altro modo sottile per depriorizzare l’esperienza dell’utente.


Rischi di sicurezza da istanze mal configurate

I ricercatori sulla sicurezza hanno scoperto server Ollama esposti che funzionano senza autenticazione. Vulnerabilità come il percorso di traverso e vettori di denial-of-service sono state divulgate, con alcune corrette e altre contestate.

Sebbene gran parte di ciò dipenda dagli utenti che configurano male le distribuzioni, la mancanza di default sicuri aumenta il rischio. La responsabilità di una piattaforma include il rendere il percorso sicuro il più semplice possibile.


Turbo: cambiamenti di monetizzazione e modello aziendale

Il lancio di Ollama Turbo — un servizio di accelerazione cloud — ha rappresentato un momento cruciale. L’originale differenziazione di Ollama era il suo focus su controllo locale, privacy e distribuzione open source. Turbo, tuttavia, introduce una dipendenza dall’infrastruttura di Ollama.

  • L’uso di Turbo richiede un accesso, spostandosi lontano dall’esperienza locale senza attriti.
  • Le funzionalità chiave nell’app Mac ora dipendono dai server di Ollama, sollevando preoccupazioni su quanto funzionamento possa rimanere utilizzabile offline.
  • Le discussioni su Hacker News lo hanno visto come l’inizio dell’enshittification, avvertendo che la commercializzazione potrebbe introdurre paywall per funzionalità che sono attualmente gratuite.

Questo non significa che Ollama abbia abbandonato i suoi principi — Turbo può essere utile per gli utenti che desiderano un’inferenza più veloce senza acquistare nuovi hardware. Ma l’immagine conta: una volta che uno strumento locale richiede servizi centralizzati per “l’esperienza migliore”, rischia di diluire le qualità che l’hanno distinta da OpenAI o Anthropic in primo luogo.


Il modello: controllo utente vs. default del fornitore

Singolarmente, questi problemi potrebbero sembrare piccoli. Insieme, suggeriscono un modello:

  • Il comportamento di avvio predefinito è attivo, non disattivo.
  • I controlli degli aggiornamenti avvengono automaticamente, non su richiesta.
  • I cambiamenti di prestazioni servono nuovi obiettivi architettonici, anche se degradano l’usabilità attuale.
  • La monetizzazione introduce ora una dipendenza da server, non solo da binari locali.

Questo è come inizia l’enshittification — non con un singolo movimento ostile, ma con una serie di piccoli spostamenti che scambiano sottilemente il controllo dell’utente per la comodità del fornitore o il profitto.


Cosa non è successo (ancora)

Per giustizia, Ollama non ha ancora attraversato le aree più gravi:

  • Nessuna pubblicità o promozione all’interno dell’interfaccia utente.
  • Nessun paywall aggressivo che limiti la funzionalità locale centrale.
  • Nessun blocco duro intorno ai formati proprietari; i modelli della comunità rimangono accessibili.

Detto questo, è necessaria vigilanza. Il passaggio da “uno strumento che rispetta il tuo controllo” a “uno strumento che fa ciò che il fornitore vuole di default” spesso avviene gradualmente.


city enshittification trend

Conclusione

Ollama rimane uno dei migliori modi per eseguire modelli di grandi dimensioni localmente. Ma i segnali iniziali sono chiari: il comportamento di avvio automatico, l’opacità della telemetria, le regressioni delle prestazioni, i default non sicuri e la deriva cloud-first di Turbo suggeriscono un lento allontanamento dall’etica originale dello strumento.

Per Ollama rimanere fedele alla sua promessa, i mantainer devono prioritizzare trasparenza, progettazione su richiesta e principi local-first. Altrimenti, la piattaforma rischia di sminuire i valori che l’hanno resa attraente in primo luogo. Ma non tengo il fiato.