Ollama Enshittifiering - de tidiga tecknen

Ollama Enshittifiering - de tidiga tecknen

Min syn på det nuvarande tillståndet för Ollama-utveckling

Ollama har snabbt blivit ett av de mest populära verktygen för att köra LLMs lokalt. Dess enkla CLI och strömlinjeformade modellhantering har gjort det till ett förstahandsval för utvecklare som vill arbeta med AI-modeller utanför molnet. Men som med många lovande plattformar finns det redan tecken på Enshittification:

Tekniska evenemang i Melbourne 2025-2026

Tekniska evenemang i Melbourne 2025-2026

Var ska man gå i Melbourne?

Här är en förteckning över utvalda konferenser, möten och workshops inom programvaruutveckling, molntjänster, IT och AI som är planerade i Melbourne, Australien mellan augusti 2025 och december 2026.

Chattgränssnitt för lokala Ollama-instanser

Chattgränssnitt för lokala Ollama-instanser

Översikt över de mest framträdande gränssnitten för Ollama år 2025

Lokalt värdade Ollama gör det möjligt att köra stora språkmodeller på din egen dator, men att använda det via kommandoraden är inte användarvänligt. Här är flera öppna källkodsprojekt som erbjuder ChatGPT-stilgränssnitt som ansluter till ett lokalt Ollama.

Jämförelse av Kubernetes-distributioner för ett 3-nodigt hemma-lab

Jämförelse av Kubernetes-distributioner för ett 3-nodigt hemma-lab

Att välja den bästa Kubernetes-varianten för vårt hemkontor

Jag jämför självvärdande Kubernetes-varianter (https://www.glukhov.org/sv/post/2025/08/kubernetes-distributions-comparison/ “Jämförelse av Kubernetes-distributioner”) som passar för Ubuntu-baserade homelabs med 3 noder (16GB RAM, 4 kärnor vardera), med fokus på enkel installation och underhåll, stöd för persistent volymer och LoadBalancers.