Jak Ollama Obsługuje Wątki Paralelne
Konfigurowanie ollama do wykonywania równoległych żądań.
Gdy serwer Ollama otrzymuje dwa żądania w tym samym czasie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.
Konfigurowanie ollama do wykonywania równoległych żądań.
Gdy serwer Ollama otrzymuje dwa żądania w tym samym czasie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.
Porównanie dwóch modeli deepseek-r1 do dwóch modeli bazowych
Model pierwszego pokolenia DeepSeek z porównywalną wydajnością do OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.
Skompilowałem tę listę poleceń Ollama kilka czasem temu...
Oto lista i przykłady najbardziej przydatnych poleceń Ollama (Ollama commands cheatsheet) Złożyłem ją kilka czasów temu, ostatnio zaktualizowana w styczniu 2026. Mam nadzieję, że będzie również użyteczna dla Ciebie.
Następny etap testów LLM
Nieco wcześniej wydano. Przejdźmy do rzeczy i
testuj jak Mistral Small poradzi sobie w porównaniu do innych LLM.
Kod Pythona do ponownego rangowania RAG'a
Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI
Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.
Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!
To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!
Testowanie wykrywania błędnego rozumowania
Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Sprawdźmy i zobaczmy, jak działają, gdy wykrywają błędy logiczne.
Nieco mniej do wyboru, ale nadal...
Kiedy zacząłem eksperymentować z LLM, interfejsy do nich były w aktywnym rozwoju, a teraz niektóre z nich są naprawdę dobre.
Wymaga pewnego doświadczenia, ale
Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.
8 wersji llama3 (Meta+) i 5 wersji phi3 (Microsoft) LLM
Testowanie działania modeli o różnej liczbie parametrów i stopniu kwantyzacji.
Pliki modeli LLM Ollama zajmują dużo miejsca.
Po zainstalowaniu ollama lepiej jest natychmiast skonfigurować Ollama, aby przechowywać je w nowym miejscu. Wtedy, gdy pobieramy nowy model, nie zostaje on pobrany do starego lokalizacji.