Open WebUI: Selbstgehostete LLM-Schnittstelle
Selbstgehostete ChatGPT-Alternative für lokale LLMs
Open WebUI ist eine leistungsstarke, erweiterbare und umfangreiche selbstgehostete Web-Schnittstelle zur Interaktion mit großen Sprachmodellen.
Als ich begann, mit LLMs zu experimentieren, waren die Benutzeroberflächen für sie noch in aktiver Entwicklung, und heute sind einige von ihnen wirklich gut.
!- Jan - multiplatform ui for LLMs(jan-site_w678.jpg Jan - Frontend für LLMs - install)
Es bietet dunkle, helle und transparente Themen.
!- Jan LLM frontend - main window(jan-self_w678.jpg Jan - Frontend für LLMs - Beispiel für Antwort auf „warum selbsthosten“)
Kann sich mit mehreren bestehenden Backend-Systemen wie Anthropic, Cohere, OpenAI, NvidiaNIM, MistralAI usw. verbinden und kann Modelle selbst hosten – siehe den Cortex-Teil auf dem Screenshot unten – zeigt Jan heruntergeladen und lokal gehostete Llama3 8b q4 und Phi3 medium (q4).
!- Jan LLM frontend - config options(jan-config_w678.jpg Jan LLM frontend - config options)
Vorteile (Was ich mochte):
Nachteile:
Sehr prominent
Ein weiterer sehr vielseitiger
LLM Studio ist nicht meine bevorzugte Benutzeroberfläche für LLMs, aber es bietet besseren Zugriff auf Huggingface-Modelle.
Ja, das ist auch eine Benutzeroberfläche, nur eine Kommandozeilen-Option.
Um für llama3.1 LLM zu starten:
ollama run llama3.1
wenn fertig, senden Sie den Befehl, um die Ollama-Kommandozeile zu verlassen:
/bye
Installieren Sie cUrl, falls Sie dies noch nicht getan haben
sudo apt-get install curl
Um einen lokalen mistral nemo q8 llm, der auf Ollama gehostet wird, aufzurufen – erstellen Sie eine lokale Datei mit dem Prompt p.json:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: Was ist Postmodernismus?,
stream: false
}
und führen Sie nun im Bash-Terminal aus:
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
das Ergebnis wird in der Datei p-result.json
wenn Sie nur das Ergebnis ausgeben möchten:
curl -X POST http://localhost:11434/api/generate -d @p.json
Ich habe diese nicht getestet, aber es ist eine umfassende Liste von LLM-Benutzeroberflächen:
Selbstgehostete ChatGPT-Alternative für lokale LLMs
Open WebUI ist eine leistungsstarke, erweiterbare und umfangreiche selbstgehostete Web-Schnittstelle zur Interaktion mit großen Sprachmodellen.
Schneller Überblick über die wichtigsten UIs für Ollama im Jahr 2025
Locally gehostete Ollama ermöglicht es, große Sprachmodelle auf Ihrem eigenen Gerät auszuführen, aber die Verwendung über die Befehlszeile ist nicht benutzerfreundlich. Hier sind mehrere Open-Source-Projekte, die ChatGPT-ähnliche Schnittstellen bereitstellen, die mit einer lokalen Ollama verbunden sind.
Vergleich zweier selbstge LOGGER AI-Suchmaschinen
Hervorragende Nahrung ist auch ein Vergnügen für die Augen. Aber in diesem Beitrag vergleichen wir zwei AI-basierte Suchsysteme, Farfalle und Perplexica.
Einen Copilot-ähnlichen Dienst lokal ausführen? Einfach!
Das ist sehr aufregend!
Statt Copilot oder perplexity.ai zu rufen und der ganzen Welt zu erzählen, wonach Sie suchen, können Sie nun einen ähnlichen Dienst auf Ihrem eigenen PC oder Laptop hosten!