Self-hosting Cognee: LLM-prestatietests
Cognee testen met lokale LLMs - echte resultaten
Cognee is een Python-framework voor het bouwen van kennisgrafieken uit documenten met behulp van LLMs. Werkt het met zelfgehoste modellen?
Cognee testen met lokale LLMs - echte resultaten
Cognee is een Python-framework voor het bouwen van kennisgrafieken uit documenten met behulp van LLMs. Werkt het met zelfgehoste modellen?
Hoe ik netwerkproblemen in Ubuntu heb opgelost
Na automatisch installeren van een nieuw kernel, heeft Ubuntu 24.04 het ethernet-netwerk verloren. Dit vervelende probleem is voor mij opnieuw voorgekomen, dus ik documenteer de oplossing hier om anderen te helpen die hetzelfde probleem ondervinden.
Korte post, alleen het bedrag vermelden
Met deze gekke prijsstijging van de RAM, om een beter beeld te vormen, laten we eerst zelf de RAM-prijs in Australië volgen.
RAM-prijzen stijgen 163-619% door de hoge vraag naar AI die de aanbod drukt
De geheugenmarkt ervaart ongekende prijsstabiliteit in het laatste deel van 2025, met RAM-prijzen die schieten omhoog dramatisch over alle segmenten.
Prijzen van AI-suitable consumenten-GPU's - RTX 5080 en RTX 5090
Laat ons de prijzen van topniveau consumenten GPU’s vergelijken, die geschikt zijn voor LLM’s in het bijzonder en AI in het algemeen. Specifiek kijk ik naar RTX-5080 en RTX-5090 prijzen.
Implementeer enterprise AI op budgethardware met open modellen
De democratisering van AI is nu een feit. Met open-source LLMs zoals Llama 3, Mixtral en Qwen die nu concurreren met eigenaarmodellen, kunnen teams krachtige AI-infrastructuur op consumentenhardware bouwen - kosten verminderen terwijl volledige controle wordt behouden over gegevensprivacy en implementatie.
Schakel GPU-acceleratie in voor Docker Model Runner met ondersteuning voor NVIDIA CUDA
Docker Model Runner is het officiële hulpmiddel van Docker om AI-modellen lokaal uit te voeren, maar NVidia GPU-acceleratie inschakelen in Docker Model Runner vereist specifieke configuratie.
GPT-OSS 120b benchmarks op drie AI-platforms
Ik vond enkele interessante prestatietests van GPT-OSS 120b die draaien op Ollama over drie verschillende platforms: NVIDIA DGX Spark, Mac Studio en RTX 4080. De GPT-OSS 120b model uit de Ollama bibliotheek weegt 65 GB, wat betekent dat het niet past in de 16 GB VRAM van een RTX 4080 (of de nieuwere RTX 5080).
Snelle verwijzing naar Docker Model Runner-opdrachten
Docker Model Runner (DMR) is de officiële oplossing van Docker voor het lokaal uitvoeren van AI-modellen, geïntroduceerd in april 2025. Deze cheatsheet biedt een snelle verwijzing naar alle essentiële opdrachten, configuraties en best practices.
Eenvoudige VM-beheer voor Linux met GNOME Boxes
In het huidige computertijdperk is virtueleisering essentieel geworden voor ontwikkeling, testen en het draaien van meerdere besturingssystemen. Voor Linux-gebruikers die op zoek zijn naar een eenvoudige en intuïtieve manier om virtuele machines te beheren, is GNOME Boxes een lichte en gebruikersvriendelijke optie die zich op eenvoud van gebruik richt zonder functie te verliezen.
Specialistische chips maken AI-inferentie sneller en goedkoper.
De toekomst van AI is niet alleen over slimme modellen - het gaat om slimme silicium.
Specialistische hardware voor LLM-inferentie trekt een revolutie aan die vergelijkbaar is met de overgang van Bitcoin-mining naar ASICs.
Beschikbaarheid, werkelijke retailprijzen in zes landen en vergelijking met de Mac Studio.
NVIDIA DGX Spark is real, op de markt beschikbaar 15 oktober 2025, en gericht op CUDA-ontwikkelaars die lokale LLM werkzaamheden willen uitvoeren met een geïntegreerde NVIDIA AI stack. US MSRP $3.999; UK/DE/JP retail is hoger vanwege btw en distributie. AUD/KRW openbare stickerprijzen zijn nog niet algemeen gepubliceerd.
Prijzen van AI-suitable consumenten-GPU's - RTX 5080 en RTX 5090
Weer en weer vergelijken we de prijzen van topniveau consumenten GPU’s, die geschikt zijn voor LLMs in het bijzonder en AI in het algemeen. Specifiek kijk ik naar RTX-5080 en RTX-5090 prijzen. Ze zijn licht gedaald.
Korte lijst met toepassingen voor het monitoren van GPU-belasting
GPU belasting monitoring toepassingen: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
In juli 2025, binnenkort zou het beschikbaar moeten zijn
Nvidia is op het punt om NVIDIA DGX Spark te lanceren - een kleine AI-supercomputer op Blackwell-architectuur met 128+GB geïntegreerde RAM en 1 PFLOPS AI-prestaties. Mooi apparaat om LLMs uit te voeren.
Update van de prijzen van AI-suitable GPU's - RTX 5080 en RTX 5090
Laat ons de prijzen van de top-level consumenten-GPUs vergelijken, die geschikt zijn voor LLMs in het bijzonder en AI over het algemeen. Kijk specifiek naar prijzen van RTX 5080 en RTX 5090. Ze zijn licht gedaald.