LLM

Ollama Enshittification - die ersten Anzeichen

Ollama Enshittification - die ersten Anzeichen

Meine Einschätzung zum aktuellen Stand der Ollama-Entwicklung

Ollama hat sich schnell zu einem der beliebtesten Tools zum lokalen Ausführen von LLMs entwickelt. Seine einfache CLI und der optimierte Modellmanagement haben es zu einer ersten Wahl für Entwickler gemacht, die mit KI-Modellen außerhalb der Cloud arbeiten möchten. Doch wie bei vielen vielversprechenden Plattformen gibt es bereits Anzeichen für Enshittification:

Chat-Oberflächen für lokale Ollama-Instanzen

Chat-Oberflächen für lokale Ollama-Instanzen

Kurzer Überblick über die prominentesten UIs für Ollama im Jahr 2025

Lokal gehostetes Ollama ermöglicht den Betrieb großer Sprachmodelle auf Ihrem eigenen Gerät, aber die Nutzung über die Kommandozeile ist nicht besonders benutzerfreundlich. Hier sind mehrere Open-Source-Projekte, die ChatGPT-ähnliche Oberflächen bieten, die mit einem lokalen Ollama verbunden sind.

Vergleich der Qualität der Hugo-Seitentranslation – LLMs auf Ollama

Vergleich der Qualität der Hugo-Seitentranslation – LLMs auf Ollama

qwen3 8b, 14b und 30b, devstral 24b, mistral small 24b

In diesem Test vergleiche ich, wie verschiedene LLMs, die auf Ollama gehostet werden, Hugo-Seiten von Englisch ins Deutsche übersetzen: Vergleich, wie verschiedene LLMs, die auf Ollama gehostet werden, Hugo-Seiten übersetzen. Drei Seiten, die ich getestet habe, befassen sich mit unterschiedlichen Themen und enthalten einige schöne Markdown-Elemente mit Struktur: Überschriften, Listen, Tabellen, Links usw.

Suche vs. Deepsearch vs. Deep Research

Suche vs. Deepsearch vs. Deep Research

Wie unterschiedlich sind sie?

  • Suche ist am besten geeignet, um Informationen schnell und direkt mit Schlüsselwörtern abzurufen.
  • Tiefe Suche ist hervorragend darin, den Kontext und die Absicht zu verstehen und dadurch für komplexe Abfragen relevantere und umfassendere Ergebnisse liefert.
Cloud-LLM-Anbieter

Cloud-LLM-Anbieter

Kurze Liste von LLM-Anbietern

Die Verwendung von LLMs ist nicht sehr teuer, es könnte also kein Bedarf bestehen, neue, beeindruckende GPU-Karten zu kaufen.
Hier ist eine Liste der LLM-Anbieter in der Cloud mit den LLMs, die sie hosten.

Test: Wie Ollama die Leistung und Effizienz der Intel CPU-Kerne nutzt

Test: Wie Ollama die Leistung und Effizienz der Intel CPU-Kerne nutzt

Ollama auf Intel CPU: Effiziente vs. Leistungscores

Ich habe eine Theorie, die ich testen möchte – wenn man alle Kerne eines Intel-Prozessors nutzt, würde das die Geschwindigkeit von LLMs erhöhen? Test: Wie Ollama die Leistung und effizienten Kerne von Intel-Prozessoren nutzt

Es stört mich, dass das neue Gemma3-Modell mit 27 Bit (gemma3:27b, 17 GB auf Ollama) nicht in die 16 GB VRAM meines GPUs passt und teilweise auf dem CPU läuft.