Ollama

Modele Qwen3 Embedding i Reranker na Ollama: osiągnięcia stanowiące stan techniki

Modele Qwen3 Embedding i Reranker na Ollama: osiągnięcia stanowiące stan techniki

Nowe, imponujące modele LLM dostępne w Ollama

Modele Qwen3 Embedding i Reranker (https://www.glukhov.org/pl/rag/embeddings/ “Modele Qwen3 Embedding i Reranker na platformie ollama”) to najnowsze wydania z rodziny Qwen, zaprojektowane specjalnie do zaawansowanych zadań związanych z tworzeniem wektorów tekstu (embedding), odnajdywaniem informacji (retrieval) oraz ponownym ocenianiem wyników (reranking).

Jak Ollama obsługuje równoległe żądania

Jak Ollama obsługuje równoległe żądania

Zrozumienie współbieżności, kolejek w Ollama oraz optymalizacja parametru OLLAMA_NUM_PARALLEL dla stabilnych równoległych żądań.

Ten przewodnik wyjaśnia jak Ollama obsługuje równoległe żądania (konkurencja, kolejki i limity zasobów) oraz jak je dostosować przy użyciu zmiennej środowiskowej OLLAMA_NUM_PARALLEL (i powiązanych ustawień).

Testowanie Deepseek-R1 na Ollama

Testowanie Deepseek-R1 na Ollama

Porównanie dwóch modeli deepseek-r1 z dwoma modelami bazowymi

Modeli DeepSeek pierwszego pokolenia z wydajnością porównywalną do modeli OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.

Hostowanie Perplexica z wykorzystaniem Ollama

Hostowanie Perplexica z wykorzystaniem Ollama

Czy uruchamiasz lokalnie usługę w stylu Copilot? To proste!

To jest bardzo ekscytujące! Zamiast korzystać z Copilota lub perplexity.ai i informować cały świat o swoich potrzebach, możesz teraz hostować podobną usługę na własnym komputerze lub laptopie!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testowanie wykrywania błędnego rozumowania

Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Zróbmy test i zobaczmy, jak działają, gdy wykrywają błędy logiczne.

Napisywanie skutecznych promptów dla LLMs

Napisywanie skutecznych promptów dla LLMs

Wymaga pewnego doświadczenia, ale

Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.