Self-Hosting

Ollama Enshittification - De vroege tekenen

Ollama Enshittification - De vroege tekenen

Mijn visie op de huidige staat van Ollama-ontwikkeling

Ollama is snel geworden tot een van de populairste tools voor het lokaal uitvoeren van LLMs. Zijn eenvoudige CLI en gestroomlijnde modelbeheer hebben het tot de favoriete optie gemaakt voor ontwikkelaars die willen werken met AI-modellen buiten de cloud. Maar net als bij veel veelbelovende platforms zijn er al tekenen van Enshittification:

Chat-UI's voor lokale Ollama-instanties

Chat-UI's voor lokale Ollama-instanties

Korte overzicht van de meest opvallende UI's voor Ollama in 2025

Locally geïnstalleerde Ollama stelt u in staat om grote taalmodellen op uw eigen computer te draaien, maar het gebruik ervan via de opdrachtnaam is niet gebruikersvriendelijk. Hier zijn verschillende open-source projecten die ChatGPT-stijl interfaces bieden die verbinding maken met een lokale Ollama.

Dokuwiki - zelfgehost wiki en alternatieven

Dokuwiki - zelfgehost wiki en alternatieven

Ik gebruikte Dokuwiki als persoonlijke kennisbank.

Dokuwiki is een zelfgehoste wikipedia https://www.glukhov.org/nl/post/2025/07/dokuwiki-selfhosted-wiki-alternatives/ “Dokuwiki” die gemakkelijk kan worden gehost op locatie en vereist geen databases. Ik draaide het dockerized, op mijn eigen kubernetes cluster.