Ollama

Chattgränssnitt för lokala Ollama-instanser

Chattgränssnitt för lokala Ollama-instanser

Översikt över de mest framträdande gränssnitten för Ollama år 2025

Lokalt värdade Ollama gör det möjligt att köra stora språkmodeller på din egen dator, men att använda det via kommandoraden är inte användarvänligt. Här är flera öppna källkodsprojekt som erbjuder ChatGPT-stilgränssnitt som ansluter till ett lokalt Ollama.

Jämförelse av Hugo-sidöversättningskvalitet - LLMs på Ollama

Jämförelse av Hugo-sidöversättningskvalitet - LLMs på Ollama

qwen3 8b, 14b och 30b, devstral 24b, mistral small 24b

I den här testen jämför jag hur olika LLMs som är värdade på Ollama översätter Hugo-sidor från engelska till tyska. Tre sidor som jag testade handlade om olika ämnen och hade trevlig markdown med struktur: rubriker, listor, tabeller, länkar etc.

Qwen3 Embedding & Reranker Modeller på Ollama: State-of-the-Art Prestanda

Qwen3 Embedding & Reranker Modeller på Ollama: State-of-the-Art Prestanda

Nya fantastiska LLMs tillgängliga i Ollama

Modellerna för Qwen3 Embedding och Reranker (https://www.glukhov.org/sv/post/2025/06/qwen3-embedding-qwen3-reranker-on-ollama/ “Qwen3 Embedding och Reranker modeller på ollama”) är de senaste lanseringarna i Qwen-familjen, specifikt utformade för avancerade textembedding-, återvinning- och omrankningstjänster.

Testning av Deepseek-R1 på Ollama

Testning av Deepseek-R1 på Ollama

Jämför två deepseek-r1-modeller med två basmodeller

DeepSeek’s första generation av resonemangsmodeller med jämförbar prestanda med OpenAI-o1, inklusive sex täta modeller destillerade från DeepSeek-R1 baserade på Llama och Qwen.

Självhosting av Perplexica - med Ollama

Självhosting av Perplexica - med Ollama

Kör en copilot-stilad tjänst lokalt? Lätt!

Det är mycket spännande! Istället för att ringa copilot eller perplexity.ai och berätta för hela världen vad du letar efter, kan du nu värd för en liknande tjänst på din egen PC eller bärbara dator!