Open WebUI: zelfgehoste LLM-interface
Zelfgehoste alternatief voor ChatGPT voor lokale LLMs
Open WebUI is een krachtig, uitbreidbaar en functierijk zelfgehost webinterface voor het communiceren met grote taalmodellen.
Toen ik begon met het experimenteren met LLMs waren de UIs voor hen actief in ontwikkeling en nu zijn sommige van hen echt goed.
!- Jan - multiplatform ui voor LLMs(jan-site_w678.jpg Jan - Frontend voor LLMs - install)
Heeft donkere, lichte en transparante thema’s.
!- Jan LLM frontend - hoofdvenster(jan-self_w678.jpg Jan - Frontend voor LLMs - voorbeeld van antwoord op waarom selfhost)
Kan verbinden met verschillende bestaande backends zoals Anthropic, Cohere, OpenAI, NvidiaNIM, MistralAI enz., en host modellen op eigen rekenkracht - zie de Cortex sectie op het scherm hieronder - tonen Jan gedownload en lokaal hosten Llama3 8b q4 en Phi3 medium (q4).
!- Jan LLM frontend - configuratieopties(jan-config_w678.jpg Jan LLM frontend - configuratieopties)
Voordelen (Wat ik leuk vond):
Nadelen:
Een zeer prominente optie
Een andere zeer veelzijdige optie
LLM Studio is niet mijn favoriete UI voor LLMs, maar het heeft betere toegang tot Huggingface modellen.
Ja, dat is ook een gebruikersinterface, gewoon een commandline-variant.
Om te draaien voor llama3.1 LLM:
ollama run llama3.1
wanneer klaar, stuur een opdracht om uit te stappen uit de Ollama commandline:
/bye
Installeer cUrl als je dat nog niet hebt gedaan
sudo apt-get install curl
Om een lokale mistral nemo q8 llm te roepen die op Ollama wordt gehost - maak een lokale bestand met de prompt p.json:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: Wat is post-modernisme?,
stream: false
}
en voer nu uit in de bash-terminal
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
het resultaat zal in het bestand p-result.json staan
als je alleen het resultaat wilt afdrukken:
curl -X POST http://localhost:11434/api/generate -d @p.json
Ik heb deze niet getest, maar het is een vrij uitgebreide lijst van LLM UIs:
Zelfgehoste alternatief voor ChatGPT voor lokale LLMs
Open WebUI is een krachtig, uitbreidbaar en functierijk zelfgehost webinterface voor het communiceren met grote taalmodellen.
Korte overzicht van de meest opvallende UI's voor Ollama in 2025
Locally geïnstalleerde Ollama maakt het mogelijk om grote taalmodellen op je eigen computer te draaien, maar het gebruik ervan via de opdrachtnaam is niet gebruikersvriendelijk. Hieronder vind je verschillende open-source projecten die ChatGPT-stijl interfaces bieden die verbinding maken met een lokale Ollama.
Een vergelijking van twee zelfgehoste AI zoekmachines
Prachtige voedsel is ook een genot voor de ogen. Maar in dit bericht vergelijken we twee AI-gebaseerde zoeksystemen, Farfalle en Perplexica.
Een copilot-stijl service lokaal uitvoeren? Eenvoudig!
Dat is erg opwindend!
In plaats van copilot of perplexity.ai aan te roepen en aan de hele wereld te vertellen wat je zoekt,
kan je nu een soortgelijk dienst op je eigen PC of laptop hosten!