
Aplikacje monitorowania GPU w Linux / Ubuntu
Krótki wykaz aplikacji do monitorowania obciążenia GPU
Monitorowanie obciążenia GPU: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Krótki wykaz aplikacji do monitorowania obciążenia GPU
Monitorowanie obciążenia GPU: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
W lipcu 2025 r. niedługo powinno zostać dostępne
NVIDIA wkrótce wyda NVIDIA DGX Spark – mały superkomputer AI oparty na architekturze Blackwell z 128+GB jednolitej pamięci RAM i wydajnością 1 PFLOPS w zakresie AI. Świetny sprzęt do uruchamiania LLM.
Aktualizacja cen GPU odpowiednich do AI – RTX 5080 i RTX 5090
Porównajmy ceny najlepszych kart graficznych dla użytkownika końcowego, które są odpowiednie do LLM w szczególności i sztucznej inteligencji ogólnie.
Zobacz dokładnie na ceny RTX 5080 i RTX 5090. Slighty spadły.
Sprawdzenie rzeczywistości cenowej – RTX 5080 i RTX 5090
Właśnie 3 miesiące temu nie widzieliśmy RTX 5090 w sklepach, a teraz już są, ale ceny są nieco wyższe niż MRSP. Porównajmy najtańsze ceny RTX 5080 i RTX 5090 w Australii i zobaczmy, jak to wygląda.
Więcej RAM, mniej mocy, a nadal drogie jak...
Najlepszy automatyczny system do pewnego wspaniałego zadania.
Czy myślisz o zainstalowaniu drugiej karty graficznej dla modeli LLM?
Jak liczba linii PCIe wpływa na wydajność LLM? Zależy to od zadania. Dla treningu i inferencji wielo-GPU spadek wydajności jest znaczący.
A dlaczego widzę ten BSOD...
Zostałem mocno trafiony tym problemem. Ale jeśli twój BSOD wygląda podobnie jak mój, powinieneś zbadać i przetestować swój komputer.
Przyczyna tkwi w problecie degradacji procesora Intel w 13. i 14. generacji.
Ollama na procesorze Intel CPU: wydajność w porównaniu do rdzeni o wysokiej wydajności
Mam teorię do przetestowania – czy wykorzystanie Wszystkich rdzeni na procesorze Intel zwiększy szybkość LLM? Denerwuje mnie fakt, że nowy model gemma3 27 bit (gemma3:27b, 17 GB na ollama) nie mieści się w 16 GB VRAM mojej karty graficznej i częściowo działa na procesorze.
AI wymaga dużo mocy...
Wśród burzy współczesnego świata tutaj porównuję specyfikację techniczną różnych kart odpowiednich do zadań AI
(uczenia maszynowego,
wykrywania obiektów
i modeli językowych).
Są one jednak ogromnie drogie.
Konfigurowanie ollama do wykonywania równoległych żądań.
Gdy serwer Ollama otrzymuje dwa żądania w tym samym czasie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.
Jest znacznie prostsze niż porównywanie do starych sterowników drukarek
Zainstalowanie drukarki ET-8500 na systemie Windows jest dobrze opisane w instrukcji.
Instalacja druku ET-8500 dla systemu Linux jest prosta, ale nie jest trywialna.
Sprawdźmy prędkość LLM na GPU vs CPU
Porównanie prędkości przewidywania kilku wersji modeli językowych (LLM): llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) na procesorze (CPU) i karcie graficznej (GPU).