AI

Minneallokering och modellschemaläggning i Ollamas nya version - v0.12.1

Minneallokering och modellschemaläggning i Ollamas nya version - v0.12.1

Min egen test av modellplanering i Ollama

Här jämför jag hur mycket VRAM den nya versionen av Ollama tilldelar modellen (https://www.glukhov.org/sv/llm-performance/ollama/memory-allocation-in-ollama-new-version/ “Ollama VRAM-allokering”) jämfört med tidigare version. Den nya versionen är sämre.

Ollama Enshittifiering - de tidiga tecknen

Ollama Enshittifiering - de tidiga tecknen

Min syn på det nuvarande tillståndet för Ollama-utveckling

Ollama har snabbt blivit ett av de mest populära verktygen för att köra LLMs lokalt. Dess enkla CLI och strömlinjeformade modellhantering har gjort det till ett förstahandsval för utvecklare som vill arbeta med AI-modeller utanför molnet. Men som med många lovande plattformar finns det redan tecken på Enshittification:

Chattgränssnitt för lokala Ollama-instanser

Chattgränssnitt för lokala Ollama-instanser

Översikt över de mest framträdande gränssnitten för Ollama år 2025

Lokalt värdade Ollama gör det möjligt att köra stora språkmodeller på din egen dator, men att använda det via kommandoraden är inte användarvänligt. Här är flera öppna källkodsprojekt som erbjuder ChatGPT-stilgränssnitt som ansluter till ett lokalt Ollama.