
GPU-bewakingsapplicaties in Linux / Ubuntu
Korte lijst met toepassingen voor het monitoren van GPU-belasting
GPU belasting monitoring toepassingen: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Korte lijst met toepassingen voor het monitoren van GPU-belasting
GPU belasting monitoring toepassingen: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
In juli 2025, binnenkort zou het beschikbaar moeten zijn.
Nvidia is bezig met het uitgeven van NVIDIA DGX Spark - een kleine AI-supercomputer op Blackwell-architectuur met 128+GB geïntegreerde RAM en 1 PFLOPS AI-prestaties. Mooi apparaat om LLMs te draaien.
AI-suitable GPU-prijzenupdate - RTX 5080 en RTX 5090
Laat ons de prijzen van topniveau consumenten GPU’s vergelijken, die geschikt zijn voor LLMs in het bijzonder en AI over het algemeen.
Kijk specifiek naar
RTX 5080 en RTX 5090 prijzen. Ze zijn licht gedaald.
Prijsrealiteit check - RTX 5080 en RTX 5090
Precies 3 maanden geleden zagen we de RTX 5090 nog niet in de winkels, en nu zijn ze er wel, maar de prijzen zijn iets hoger dan de MRSP. Laten we de goedkoopste prijzen voor RTX 5080 en RTX 5090 in Australië vergelijken en kijken hoe het ervoor staat.
Meer RAM, minder vermogen, en toch even duur als...
Top geautomatiseerd systeem voor een geweldige baan.
Overweegt u een tweede GPU te installeren voor LLMs?
Hoe beïnvloeden PCIe-lanes de prestaties van LLM’s? Afhangend van de taak. Voor training en multi-GPU-inferentie - is de prestatievermindering aanzienlijk.
En waarom zie ik deze BSOD nou altijd...
Ik werd hard getroffen door dit probleem. Maar je zou moeten onderzoeken en testen op je PC als je BSOD er net zo uitziet als het mijne.
De oorzaak was Intel’s CPU Degradation Issue in 13th en 14th generatie.
Ollama op Intel CPU: Efficiëntie versus prestatie-kernen
Ik heb een theorie om te testen – als we alle kernen op een Intel CPU gebruiken, verhoogt dat de snelheid van LLMs? Het irriteert me dat de nieuwe gemma3 27 bit model (gemma3:27b, 17 GB op ollama) niet past in de 16 GB VRAM van mijn GPU en gedeeltelijk op de CPU draait.
AI vereist veel kracht...
In het midden van de moderne wereld’s onrust ben ik tech specs van verschillende kaarten vergelijken die geschikt zijn voor AI taken (Deep Learning, Object Detectie en LLMs). Ze zijn allemaal enorm duur, echter.
Het configureren van ollama voor het uitvoeren van parallelle aanvragen.
Wanneer de Ollama-server twee aanvragen tegelijkertijd ontvangt, hangt het gedrag ervan af van de configuratie en de beschikbare systeemresources.
Het is veel eenvoudiger dan het vergelijken met oude printerdrivers.
Het installeren van de ET-8500 op Windows is goed gedocumenteerd in de instructie. De installatie van de ET-8500 Linux Driver is eenvoudig, maar niet triviaal.
Laat ons de snelheid van de LLM's testen op GPU versus CPU
Vergelijking van de voorspellende snelheid van verschillende versies van LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) op CPU en GPU.