Ollama Enshittification - De vroege tekenen

Mijn visie op de huidige staat van Ollama-ontwikkeling

Inhoud

Ollama is snel geworden tot een van de populairste tools voor het lokaal uitvoeren van LLMs. Zijn eenvoudige CLI en gestroomlijnde modelbeheer hebben het tot de favoriete optie gemaakt voor ontwikkelaars die willen werken met AI-modellen buiten de cloud. Maar net als bij veel veelbelovende platforms zijn er al tekenen van Enshittification:

  • de geleidelijke proces waarbij software of diensten in de loop van de tijd verslechteren, terwijl gebruikersbelangen geleidelijk worden ondergeschikt aan bedrijfs-, architecturale of andere interne prioriteiten.

enshittification en verval

In dit artikel zal ik recente trends en gebruikersklachten over Ollama bespreken die wijzen op deze verschuiving, en waarom ze belangrijk zijn voor de toekomst van Ollama.

Voor de details van de meest voorkomende Ollama opdrachten en parameters - zie Ollama cheatsheet.

Voor nuttige UIs voor Ollama zie - Open-Source Chat UIs voor LLMs op lokale Ollama instanties

Automatisch opstarten en achtergrondbeheer

Een van de duidelijkste pijnpunten die gebruikers melden is Ollama automatisch opstarten bij het opstarten van het systeem - vooral op Windows.

  • Er is geen duidelijke instelling om dit gedrag uit te schakelen.
  • Zelfs als je het handmatig uitschakelt, kunnen updates of herinstallaties het opstarten stilzwijgend weer inschakelen.
  • Op macOS start de desktopapp ook standaard bij inloggen, tenzij je specifiek de CLI-only variant installeert.

Dit patroon - software die zichzelf in je opstartproces plaatst zonder expliciete toestemming - is een klassieke waarschuwing. Het ondermijnt gebruikersvertrouwen en creëert wrijving voor mensen die controle over hun systeem waarderen.


Telemetrie en dataverzameling

Een terugkerend probleem is Ollama’s netwerkgedrag. Gebruikers hebben uitgaande verkeer gemerkt, ook als alle operaties lokaal moeten zijn. De onderhouders hebben verklaard dat dit te maken heeft met updatecontroles, niet met gebruikersinvoer - maar er is geen eenvoudige schakelaar voor wie een strikt offline ervaring wil.

Voor een platform dat zichzelf positioneert als een lokale, privacy-first tool, creëert deze gebrek aan duidelijkheid twijfel. Transparantie en opt-out opties zijn essentieel als Ollama wil blijven geloven.


Prestatieverslechteringen met de nieuwe engine

Recente updates introduceerden een nieuwe inferentie-engine, maar in plaats van prestatieverbeteringen hebben sommige gebruikers het tegenovergestelde gemeld:

  • Tokengeneratie is tot 10× trager in bepaalde scenario’s.
  • GPU-gebruik is onregelmatig vergeleken met de vorige engine.
  • Grotere modellen zoals Qwen3:30B werken nu aanzienlijk slechter, met hogere latentie en lagere doorvoer.

Deze verschuiving doet zorgen over prioriteiten. Als updates modellen minder bruikbaar maken op echte hardware, kunnen ontwikkelaars gedwongen worden om hardware te upgraden of acceptabel verlaagde prestaties te accepteren - een subtiel manier waarop gebruikerservaring wordt ondergeschikt gemaakt.


Veiligheidsrisico’s van misgeconfigureerde instanties

Veiligheidsonderzoekers hebben blootgelegde Ollama-servers gevonden die draaien zonder authenticatie. Vulnerabiliteiten zoals padtraversal en denial-of-service vectoren zijn bekendgemaakt, met enkele gecorrigeerd en anderen in twijfel getrokken.

Hoewel veel van dit op gebruikers die fouten maken bij het instellen van implementaties valt, verhoogt het gebrek aan veilige standaardinstellingen het risico. Een platforms verantwoordelijkheid omvat het maken van de veilige weg de makkelijke weg.


Turbo: Monetisatie en verandering van het businessmodel

De lancering van Ollama Turbo - een cloudversnellingsservice - was een doorslaggevend moment. Ollama’s oorspronkelijke onderscheidingsmerk was zijn focus op lokale controle, privacy en open-source distributie. Turbo introduceert echter een afhankelijkheid van Ollama’s eigen infrastructuur.

  • Het gebruik van Turbo vereist een inloggen, wat afwijkt van de zero-friction lokale ervaring.
  • Belangrijke functies in de Mac-app zijn nu afhankelijk van Ollama’s servers, wat zorgen doet over hoeveel functionaliteit offline nog bruikbaar is.
  • Discussies op Hacker News stelden dit voor als het begin van enshittification, waarschuwend dat commercialisatie uiteindelijk betaalwanden kan introduceren voor functionaliteiten die momenteel gratis zijn.

Dit betekent niet dat Ollama zijn principes heeft opgegeven - Turbo kan waardevol zijn voor gebruikers die snellere inferentie willen zonder nieuwe hardware te kopen. Maar de optiek telt: zodra een lokale tool centrale diensten vereist voor “de beste” ervaring, loopt het het risico om de kwaliteiten die het oorspronkelijk uitmaakten van OpenAI of Anthropic te verduisteren.


Het patroon: gebruikerscontrole vs. leverancerafwijkingen

Afzonderlijk kunnen deze problemen klein lijken. Samen suggereren ze een patroon:

  • Opstartgedrag is standaard aan, niet uit.
  • Updatecontroles gebeuren automatisch, niet opt-in.
  • Prestatieveranderingen dienen nieuwe architecturale doelen, ook al verslechteren ze de huidige gebruikerservaring.
  • Monetisatie introduceert nu serverafhankelijkheid, niet alleen lokale binairbestanden.

Zo begint enshittification - niet met één vijandige beweging, maar met een reeks kleine verschuivingen die subtiel gebruikerscontrole wisselen voor leveranceraanpassingen of inkomsten.


Wat is er nog niet gebeurd (tot nu toe)

Om eerlijk te zijn, heeft Ollama nog niet de meest schandelijke terreinen betreden:

  • Geen advertenties of promoties binnen de UI.
  • Geen agressieve betaalwanden die kernlokale functionaliteit beperken.
  • Geen harde vergrendeling rond propriëtaire formaten; communitymodellen blijven toegankelijk.

Zo gezegd, is waakzaamheid verplicht. De verschuiving van “een tool die jouw controle respecteert” naar “een tool die standaard doet wat de leverancier wil” gebeurt vaak geleidelijk.


stad enshittification trend

Conclusie

Ollama blijft één van de beste manieren om grote modellen lokaal uit te voeren. Maar de vroege signalen zijn duidelijk: automatisch opstartgedrag, onduidelijkheid rond telemetrie, prestatieverslechteringen, onveilige standaardinstellingen en de cloud-first verschuiving van Turbo wijzen allemaal op een geleidelijke afwijking van de oorspronkelijke ethiek van het tool.

Voor Ollama om zijn belofte te houden, moeten de onderhouders transparantie, opt-in ontwerp en lokale principes prioriteren. Anders loopt het platform het risico om de waarden die het oorspronkelijk aantrekkelijk maakten, te ondermijnen. Maar ik houd niet mijn adem.