Self-Hosting

Ollama Enshittification - die ersten Anzeichen

Ollama Enshittification - die ersten Anzeichen

Meine Einschätzung zum aktuellen Stand der Ollama-Entwicklung

Ollama hat sich schnell zu einem der beliebtesten Tools zum lokalen Ausführen von LLMs entwickelt. Seine einfache CLI und der optimierte Modellmanagement haben es zu einer ersten Wahl für Entwickler gemacht, die mit KI-Modellen außerhalb der Cloud arbeiten möchten. Doch wie bei vielen vielversprechenden Plattformen gibt es bereits Anzeichen für Enshittification:

Chat-Oberflächen für lokale Ollama-Instanzen

Chat-Oberflächen für lokale Ollama-Instanzen

Kurzer Überblick über die prominentesten UIs für Ollama im Jahr 2025

Lokal gehostetes Ollama ermöglicht den Betrieb großer Sprachmodelle auf Ihrem eigenen Gerät, aber die Nutzung über die Kommandozeile ist nicht besonders benutzerfreundlich. Hier sind mehrere Open-Source-Projekte, die ChatGPT-ähnliche Oberflächen bieten, die mit einem lokalen Ollama verbunden sind.