LLM Hosting

Enshittification di Ollama - I primi segnali

Enshittification di Ollama - I primi segnali

La mia opinione sull'attuale stato dello sviluppo di Ollama

Ollama ha rapidamente diventato uno degli strumenti più popolari per eseguire i modelli LLM localmente. La sua semplice CLI e la gestione semplificata dei modelli l’hanno resa un’opzione di riferimento per gli sviluppatori che desiderano lavorare con i modelli AI al di fuori del cloud.

Interfacce di chat per istanze locali di Ollama

Interfacce di chat per istanze locali di Ollama

Panoramica rapida delle interfacce utente più prominenti per Ollama nel 2025

Locally hosted Ollama consente di eseguire modelli linguistici di grandi dimensioni sul proprio computer, ma l’utilizzo tramite riga di comando non è particolarmente utente-friendly. Ecco diversi progetti open-source che forniscono interfacce simili a ChatGPT che si connettono a un Ollama locale.

Test di Deepseek-R1 su Ollama

Test di Deepseek-R1 su Ollama

Confronto tra due modelli deepseek-r1 e due modelli base

DeepSeek’s prima generazione di modelli di ragionamento con prestazioni paragonabili a quelle di OpenAI-o1, inclusi sei modelli densi distillati da DeepSeek-R1 basati su Llama e Qwen.