Docker Model Runner: Gids voor het configureren van contextgrootte
Stel contextgrootte in in Docker Model Runner met omzeilingen
Het configureren van contextgrootte in Docker Model Runner is complexer dan het zou moeten zijn.
Stel contextgrootte in in Docker Model Runner met omzeilingen
Het configureren van contextgrootte in Docker Model Runner is complexer dan het zou moeten zijn.
AI-model voor het aanvullen van afbeeldingen met tekstinstructies
Black Forest Labs heeft FLUX.1-Kontext-dev, een geavanceerd beeld-naar-beeld AI-model dat bestaande beelden verrijkt met behulp van tekstinstructies, vrijgegeven.
Schakel GPU-acceleratie in voor Docker Model Runner met ondersteuning voor NVIDIA CUDA
Docker Model Runner is het officiële hulpmiddel van Docker om AI-modellen lokaal uit te voeren, maar NVidia GPU-acceleratie inschakelen in Docker Model Runner vereist specifieke configuratie.
GPT-OSS 120b benchmarks op drie AI-platforms
Ik vond enkele interessante prestatietests van GPT-OSS 120b die draaien op Ollama over drie verschillende platforms: NVIDIA DGX Spark, Mac Studio en RTX 4080. De GPT-OSS 120b model uit de Ollama bibliotheek weegt 65 GB, wat betekent dat het niet past in de 16 GB VRAM van een RTX 4080 (of de nieuwere RTX 5080).
Snelle verwijzing naar Docker Model Runner-opdrachten
Docker Model Runner (DMR) is de officiële oplossing van Docker voor het lokaal uitvoeren van AI-modellen, geïntroduceerd in april 2025. Deze cheatsheet biedt een snelle verwijzing naar alle essentiële opdrachten, configuraties en best practices.
Vergelijk Docker Model Runner en Ollama voor lokale LLM
Het lokaal uitvoeren van grote taalmodellen (LLMs) is steeds populairder geworden vanwege privacy, kostcontrole en offline functionaliteit. Het landschap veranderde aanzienlijk in april 2025 toen Docker Docker Model Runner (DMR) introduceerde, hun officiële oplossing voor AI-modellering.
Beschikbaarheid, werkelijke retailprijzen in zes landen en vergelijking met de Mac Studio.
NVIDIA DGX Spark is real, op de markt beschikbaar 15 oktober 2025, en gericht op CUDA-ontwikkelaars die lokale LLM werkzaamheden willen uitvoeren met een geïntegreerde NVIDIA AI stack. US MSRP $3.999; UK/DE/JP retail is hoger vanwege btw en distributie. AUD/KRW openbare stickerprijzen zijn nog niet algemeen gepubliceerd.
Prijzen van AI-suitable consumenten-GPU's - RTX 5080 en RTX 5090
Weer en weer vergelijken we de prijzen van topniveau consumenten GPU’s, die geschikt zijn voor LLMs in het bijzonder en AI in het algemeen. Specifiek kijk ik naar RTX-5080 en RTX-5090 prijzen. Ze zijn licht gedaald.
Korte lijst met toepassingen voor het monitoren van GPU-belasting
GPU belasting monitoring toepassingen: nvidia-smi vs nvtop vs nvitop vs KDE plasma systemmonitor.
In juli 2025, binnenkort zou het beschikbaar moeten zijn
Nvidia is op het punt om NVIDIA DGX Spark te lanceren - een kleine AI-supercomputer op Blackwell-architectuur met 128+GB geïntegreerde RAM en 1 PFLOPS AI-prestaties. Mooi apparaat om LLMs uit te voeren.
Update van de prijzen van AI-suitable GPU's - RTX 5080 en RTX 5090
Laat ons de prijzen van de top-level consumenten-GPUs vergelijken, die geschikt zijn voor LLMs in het bijzonder en AI over het algemeen. Kijk specifiek naar prijzen van RTX 5080 en RTX 5090. Ze zijn licht gedaald.
Prijsrealiteitscheck - RTX 5080 en RTX 5090
Precies 3 maanden geleden zagen we de RTX 5090 nog niet in winkels, en nu zijn ze er, maar de prijzen zijn iets hoger dan de MRSP. Laten we de goedkoopste prijzen voor RTX 5080 en RTX 5090 in Australië vergelijken en kijken hoe het ervoor staat.
Meer RAM, minder vermogen, en nog steeds even duur als...
Top geautomatiseerd systeem voor een geweldige taak.