Performance
Strategie cache w Hugo dla wydajności
Optymalizacja tworzenia i uruchamiania witryn Hugo
Caching strategie w Hugo są kluczowe dla maksymalizacji wydajności generatora statycznych stron. Choć Hugo generuje statyczne pliki, które są w naturze szybkie, implementacja odpowiedniego cacheowania na wielu warstwach może znacząco poprawić czas budowania, zmniejszyć obciążenie serwera i poprawić doświadczenie użytkownika.
NVIDIA DGX Spark vs Mac Studio vs RTX-4080: Porównanie wydajności Ollama
Wyniki testów GPT-OSS 120b na trzech platformach AI
Znalazłem pewne ciekawe testy wydajności GPT-OSS 120b działającego na Ollama na trzech różnych platformach: NVIDIA DGX Spark, Mac Studio, i RTX 4080. Model GPT-OSS 120b z biblioteki Ollama waży 65 GB, co oznacza, że nie mieści się w 16 GB VRAM na RTX 4080 (ani w nowszej RTX 5080).
Problemy z wyjściowym formatem strukturyzowanym w Ollama GPT-OSS
Nie bardzo ładnie.
Modely GPT-OSS z Ollama mają powtarzające się problemy z obsługą strukturalnego wyjścia, szczególnie gdy są używane wraz z frameworkami takimi jak LangChain, OpenAI SDK, vllm i innymi.
Przydzielanie pamięci i harmonogramowanie modeli w nowej wersji Ollama - v0.12.1
Moje własne testy harmonogramowania modeli ollama
Oto porównanie jak dużo VRAM nowa wersja Ollama przydziela modelowi z poprzednią wersją Ollama. Nowa wersja jest gorsza.
Wydajność modeli językowych i kanały PCIe: kluczowe zagadnienia
Czy myślisz o zainstalowaniu drugiej karty graficznej dla LLM?
Jak liczba linii PCIe wpływa na wydajność LLM? W zależności od zadania. Dla treningu i inferencji wielo-GPU spadek wydajności jest znaczący.
Test: Jak Ollama wykorzystuje wydajność i efektywne jądra procesora Intel
Ollama na procesorze Intel CPU: wydajność a jądra wydajne
Mam teorię do przetestowania – czy wykorzystanie Wszystkich rdzeni na procesorze Intel podniesie prędkość LLM? Zdenerwuje mnie fakt, że nowy model gemma3 27 bit (gemma3:27b, 17GB na ollama) nie mieści się w 16GB VRAM mojej karty graficznej, a częściowo działa na procesorze.
Jak Ollama Obsługuje Wątki Równoległe
Konfiguracja ollama do wykonywania równoległych żądań.
Gdy serwer Ollama otrzymuje dwa żądania jednocześnie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.
Mistral Small, Gemma 2, Qwen 2.5, Mistral Nemo, LLama3 i Phi – test modeli językowych
Następny etap testów LLM
Nieco wcześniej wydano. Przejdźmy do sprawy i
testuj jak Mistral Small radzi sobie w porównaniu do innych LLM.
Test prędkości modeli dużych języków
Sprawdźmy prędkość LLM na GPU vs CPU
Porównanie prędkości przewidywania kilku wersji LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) na CPU i GPU.