Self-Hosting Cognee: LLM-prestandatest
Testa Cognee med lokala LLMs - verkliga resultat
Cognee är en Pythonramverk för att bygga kunskapsgrafik från dokument med hjälp av LLMs. Men fungerar det med självvärddade modeller?
Testa Cognee med lokala LLMs - verkliga resultat
Cognee är en Pythonramverk för att bygga kunskapsgrafik från dokument med hjälp av LLMs. Men fungerar det med självvärddade modeller?
Hur jag löste nätverksproblem i Ubuntu
Efter att ha installerat en ny kernel automatiskt, har Ubuntu 24.04 förlorat ethernetnätverket. Detta frustrerande problem uppstod för mig en andra gång, så jag dokumenterar lösningen här för att hjälpa andra som stöter på samma problem.
Kort inlägg, noterar bara priset
Med denna galna RAM-prisvolatilitet, för att bilda och ha en bättre bild, låt oss först spåra RAM-priset i Australien.
RAM-priser stiger med 163-619% när AI-nachfrågan belastar tillgången
Minnetmarknaden upplever ovanligt prisvolatilitet i slutet av 2025, med RAM-priser som skjuter i höjden dramatiskt över alla segment.
Priser på AI-lämpliga konsument-GPU:er - RTX 5080 och RTX 5090
Låt oss jämföra priser för toppnivå-konsument-GPUs som är lämpliga för LLMs i synnerhet och AI i allmänhet. Specifikt tittar jag på RTX-5080 och RTX-5090-priser.
Distribuera företags-AI på budget-hårdvara med öppna modeller
Demokratiseringen av AI är här. Med öppna källkods-LLMs som Llama 3, Mixtral och Qwen som nu konkurrerar med proprietära modeller kan team bygga kraftfull AI-infrastruktur med konsumenthårdvara - sänka kostnader samtidigt som full kontroll bibehålls över datasekretess och distribution.
Aktivera GPU-beskleuning för Docker Model Runner med stöd för NVIDIA CUDA
Docker Model Runner är Docks officiella verktyg för att köra AI-modeller lokalt, men aktivering av NVidia GPU-accelerering i Docker Model Runner kräver specifik konfiguration.
GPT-OSS 120b-benchmarks på tre AI-plattformar
Jag grävde fram några intressanta prestandatester av GPT-OSS 120b som körs på Ollama över tre olika plattformar: NVIDIA DGX Spark, Mac Studio och RTX 4080. GPT-OSS 120b-modellen från Ollama-biblioteket väger 65GB, vilket innebär att den inte passar i de 16GB VRAM som finns i en RTX 4080 (eller den nyare RTX 5080).
Snabbreferens för Docker Model Runner-kommandon
Docker Model Runner (DMR) är Docks officiella lösning för att köra AI-modeller lokalt, introducerad i april 2025. Den här snabbreferensen ger en översikt över alla viktiga kommandon, konfigurationer och bästa praxis.
Enkel hantering av virtuella maskiner för Linux med GNOME Boxes
I dagens datormiljö har virtualisering blivit avgörande för utveckling, testning och körning av flera operativsystem. För Linux-användare som söker ett enkelt och intuitivt sätt att hantera virtuella maskiner, sticker GNOME Boxes ut som ett lättviktigt och användarvänligt alternativ som prioriterar enkelhet utan att offra funktionalitet.
Specialiserade chip gör AI-inferens snabbare och billigare
Framtiden för AI handlar inte bara om smartare modeller - det handlar om smartare silikon. Specialiserad hårdvara för LLM-inferens driver en revolution liknande Bitcoin-minerings övergång till ASICs.
Tillgänglighet, verkliga detaljhandelspriser i sex länder och jämförelse med Mac Studio.
NVIDIA DGX Spark är verkligt, till salu 15 oktober 2025, och riktar sig till CUDA-utvecklare som behöver lokalt LLM-arbete med en integrerad NVIDIA AI-stack. US MSRP $3,999; UK/DE/JP detaljhandel är högre på grund av moms och kanaler. AUD/KRW offentliga prislappar är inte ännu allmänt publicerade.
Priser på konsument-GPU:er lämpliga för AI - RTX 5080 och RTX 5090
Låt oss jämföra priser för toppnivå-konsument-GPUs som är lämpliga för LLMs i synnerhet och AI i allmänhet. Specifikt tittar jag på RTX-5080 och RTX-5090-priser. De har något sjunkit.
Liten lista över applikationer för GPU-lastövervakning
GPU-lastmätningsprogram: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
Under juli 2025 bör det snart vara tillgängligt
Nvidia står inför att släppa NVIDIA DGX Spark - en liten AI-superdator på Blackwell-arkitektur med 128+GB enhetligt RAM och 1 PFLOPS AI-prestanda. En trevlig enhet för att köra LLMs.
Uppdatering av priser på AI-lämpliga GPU:er - RTX 5080 och RTX 5090
Låt oss jämföra priser för toppnivå-konsument-GPUs som är lämpliga för LLMs i synnerhet och AI i allmänhet. Speciellt titta på RTX 5080 och RTX 5090-priser. De har något sjunkit.