LLM-frontender
Inte så många att välja mellan men ändå...
När jag började experimentera med LLMs var gränssnitten för dem i aktiv utveckling och nu är några av dem verkligen bra.
!- Jan - multiplattform UI för LLMs(jan-site_w678.jpg Jan - Frontend för LLMs - installera)
Jan
- Jan(https://jan.ai/) finns tillgängligt för Windows, Linux och Mac.
Har mörka, ljusa och transparenta teman.
!- Jan LLM frontend - huvudfönster(jan-self_w678.jpg Jan - Frontend för LLMs - exempel på svar på varför självhosting)
Kan ansluta till flera befintliga bakändor som Anthropic, Cohere, OpenAI, NvidiaNIM, MistralAI etc., och värd för modeller på egen hand - se Cortex-avsnittet på skärmdumpen nedan - som visar att Jan har laddat ner och värdar lokalt Llama3 8b q4 och Phi3 medium (q4).
!- Jan LLM frontend - konfigureringsalternativ(jan-config_w678.jpg Jan LLM frontend - konfigureringsalternativ)
Fördelar (Vad jag gillade):
- Intuitivt gränssnitt
- Möjlighet att experimentera med modellens temperatur, topp, frekvens och närvaro straff samt systempromptar.
- Erbjuder API-server
Nackdelar:
- Något långsam på mitt ubuntu-baserade OS. På Windows fungerade det bra.
- Kan ansluta till många bakändor, men alla är hanterade. Det skulle vara trevligt att använda Ollama-alternativet.
- Inte många varianter av modellerna tillgängliga för självhosting i Cortex. Inte heller många kvantiseringsalternativ.
- Ja, Huggingface gguf är fantastiskt. Men jag ville
- återanvända vad Ollama redan har laddat ner och laddat i VRAM
- inte värd värd samma modell överallt
KoboldAI
En mycket framträdande
Silly Tavern
En annan mycket mångsidig
LLM Studio
LLM Studio är inte mitt favoritgränssnitt för LLMs, men det har bättre åtkomst till Huggingface-modeller.
Kommandoradsgränssnitt Ollama
Ja, det är också ett användargränssnitt, bara ett kommando-radsgränssnitt.
Behöver köra för llama3.1 LLM:
ollama run llama3.1
när klart, skicka ett kommando för att avsluta Ollama-kommandoradsgränssnittet:
/bye
cURL Ollama
Installera cUrl om du inte har gjort det än:
sudo apt-get install curl
För att ringa lokal mistral nemo q8 llm värd på ollama - skapa lokal fil med prompten p.json:
{
model: mistral-nemo:12b-instruct-2407-q8_0,
prompt: Vad är postmodernism?,
stream: false
}
och nu kör i bash-terminalen
curl -X POST http://localhost:11434/api/generate -d @p.json > p-result.json
resultatet kommer att vara i filen p-result.json
om du bara vill skriva ut resultatet:
curl -X POST http://localhost:11434/api/generate -d @p.json
Även:
Testade inte dessa, men en ganska omfattande lista över LLM UIs:
- Streamlit
- Gradio
- Lobe Chat
- Text Generation WebUI
- Ollama WebUI
- Hugging Face Chat UI
- GPT-4All
- LocalGPT
- ChainFury
- Verba av Weaviate
- Chat UI Kit för React av ChatScope
- Reflex Chat
- Silly Tavern
- Amica
- Serge Chat
- LLM Multitool
- Sanctum AI
- KoboldAI
- AI Messenger
- Exui
- Spellbook Docker
- Lollms WebUI
- H2O GPT
Användbara länkar
- Qwen3 Embedding & Reranker Modeller på Ollama: State-of-the-Art Prestanda
- Test: Hur Ollama använder Intel CPU-prestanda och effektiva kärnor
- Hur Ollama hanterar parallella förfrågningar
- Testning av Deepseek-r1 på Ollama
- Installera och konfigurera Ollama
- Jämförelse av LLM-sammanfattningsförmåga
- Jämförelse av olika LLM-hastigheter
- Självhosting av Perplexica - med Ollama
- LLM-jämförelse: Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 och Phi
- Ollama snabbguide
- Markdown snabbguide
- Moln-LLM-leverantörer