LLM

Ollama Enshittifiering - de tidiga tecknen

Ollama Enshittifiering - de tidiga tecknen

Min syn på det nuvarande tillståndet för Ollama-utveckling

Ollama har snabbt blivit ett av de mest populära verktygen för att köra LLMs lokalt. Dess enkla CLI och strömlinjeformade modellhantering har gjort det till ett förstahandsval för utvecklare som vill arbeta med AI-modeller utanför molnet. Men som med många lovande plattformar finns det redan tecken på Enshittification:

Chattgränssnitt för lokala Ollama-instanser

Chattgränssnitt för lokala Ollama-instanser

Översikt över de mest framträdande gränssnitten för Ollama år 2025

Lokalt värdade Ollama gör det möjligt att köra stora språkmodeller på din egen dator, men att använda det via kommandoraden är inte användarvänligt. Här är flera öppna källkodsprojekt som erbjuder ChatGPT-stilgränssnitt som ansluter till ett lokalt Ollama.

Jämförelse av Hugo-sidöversättningskvalitet - LLMs på Ollama

Jämförelse av Hugo-sidöversättningskvalitet - LLMs på Ollama

qwen3 8b, 14b och 30b, devstral 24b, mistral small 24b

I den här testen jämför jag hur olika LLMs som är värdade på Ollama översätter Hugo-sidor från engelska till tyska. Tre sidor som jag testade handlade om olika ämnen och hade trevlig markdown med struktur: rubriker, listor, tabeller, länkar etc.

Qwen3 Embedding & Reranker Modeller på Ollama: State-of-the-Art Prestanda

Qwen3 Embedding & Reranker Modeller på Ollama: State-of-the-Art Prestanda

Nya fantastiska LLMs tillgängliga i Ollama

Modellerna för Qwen3 Embedding och Reranker (https://www.glukhov.org/sv/post/2025/06/qwen3-embedding-qwen3-reranker-on-ollama/ “Qwen3 Embedding och Reranker modeller på ollama”) är de senaste lanseringarna i Qwen-familjen, specifikt utformade för avancerade textembedding-, återvinning- och omrankningstjänster.