LLM Hosting

Ollama Enshittification – de tidiga tecknen

Ollama Enshittification – de tidiga tecknen

Min syn på den nuvarande utvecklingen av Ollama

Ollama har snabbt blivit en av de mest populära verktygen för att köra LLM:er lokalt. Dess enkla CLI och streamlina modellhantering har gjort det till ett förfrågat alternativ för utvecklare som vill arbeta med AI-modeller utanför molnet.

Chattgränssnitt för lokala Ollama-instanser

Chattgränssnitt för lokala Ollama-instanser

Snabb översikt över de mest framträdande UI:erna för Ollama år 2025

Lokalt värd Ollama möjliggör att köra stora språkmodeller på din egen dator, men att använda den via kommandoraden är inte användarvänligt. Här är flera öppen källkodprojekt som tillhandahåller ChatGPT-stilgränssnitt som ansluter till en lokal Ollama.

Testa Deepseek-R1 på Ollama

Testa Deepseek-R1 på Ollama

Jämföra två deepseek-r1-modeller med två basmodeller

DeepSeek’s första generation av resonemodeller med jämförbar prestanda med OpenAI-o1, inklusive sex tätmodeller distillerade från DeepSeek-R1 baserade på Llama och Qwen.