Docker Model Runner: Guide för inställning av kontextstorlek
Konfigurera kontextstorlekar i Docker Model Runner med arbarkringar
Konfigurera kontextstorlek i Docker Model Runner är mer komplex än det borde vara.
Konfigurera kontextstorlekar i Docker Model Runner med arbarkringar
Konfigurera kontextstorlek i Docker Model Runner är mer komplex än det borde vara.
AI-modell för att augmentera bilder med textinstruktioner
Black Forest Labs har släppt FLUX.1-Kontext-dev, en avancerad bild-till-bild AI-modell som förstärker befintliga bilder med hjälp av textinstruktioner.
Aktivera GPU-accelerering för Docker Model Runner med stöd för NVIDIA CUDA
Docker Model Runner är Docks officiella verktyg för att köra AI-modeller lokalt, men aktivera NVidia GPU-acceleration i Docker Model Runner kräver specifik konfiguration.
Minska LLM-kostnader med 80% genom smart tokenoptimering
Tokenoptimering är den kritiska färdigheten som skiljer kostnadseffektiva LLM-applikationer från budgetdrainande experiment.
Dina foton på självvärd AI-drivet säkerhetskopiering
Immich är en revolutionerande open-source, självhostad lösning för hantering av foton och videoklipp som ger dig full kontroll över dina minnen. Med funktioner som konkurrerar med Google Photos - inklusive AI-drivet ansiktsigenkänning, smart sökning och automatisk mobilbackup - allt medan dina data förblir privata och säkra på din egen server.
GPT-OSS 120b-benchmärkningar på tre AI-plattformar
Jag hittade några intressanta prestandatest av GPT-OSS 120b som kör på Ollama över tre olika plattformar: NVIDIA DGX Spark, Mac Studio, och RTX 4080. GPT-OSS 120b-modellen från Ollama-biblioteket väger 65 GB, vilket innebär att den inte passar in i den 16 GB VRAM som finns på en RTX 4080 (eller den nyare RTX 5080).
Bygg MCP-server för AI-assistenter med Python-exempel
Model Context Protocol (MCP) revolutionerar hur AI-assistenter interagerar med externa datorkällor och verktyg. I den här guiden kommer vi att utforska hur man bygger MCP servrar i Python, med exempel som fokuserar på webbsökning och skrapning.
Snabbreferens för Docker Model Runner-kommandon
Docker Model Runner (DMR) är Docks officiella lösning för att köra AI-modeller lokalt, introducerad i april 2025. Den här cheatsheten ger en snabb referens för alla viktiga kommandon, konfigurationer och bästa praxis.
Jämför Docker Model Runner och Ollama för lokal LLM
Att köra stora språkmodeller (LLMs) lokalt har blivit alltmer populärt för skydd av integritet, kostnadsstyrning och möjlighet att använda modeller offline. Landskapet förändrades betydligt i april 2025 när Docker introducerade Docker Model Runner (DMR), sin officiella lösning för distribution av AI-modeller.
Specialiserade chips gör AI-inferens snabbare och billigare
Framtiden för AI är inte bara om smartare modeller – den handlar om smartare kisel.
Specialiserad hårdvara för LLM-inferens driver en revolution som liknar Bitcoin-minningens övergång till ASICs.
Tillgänglighet, faktiska butikspriser i sex länder och jämförelse med Mac Studio.
NVIDIA DGX Spark är en realitet, till salu 15 oktober 2025, och riktar sig mot CUDA-utvecklare som behöver lokal LLM-arbete med en integrerad NVIDIA AI-stack. US MSRP $3 999; UK/DE/JP-pris är högre på grund av moms och kanal. AUD/KRW-priser är ännu inte allmänt postade.
Integrera Ollama med Go: SDK-guide, exempel och produktionsrekommendationer.
Den här guiden ger en omfattande översikt över tillgängliga Go SDK:er för Ollama och jämför deras funktionssätt.
Jämföra hastighet, parametrar och prestanda hos dessa två modeller
Här är en jämförelse mellan Qwen3:30b och GPT-OSS:20b fokuserande på instruktionssäljning och prestandaparametrar, specifikationer och hastighet.
Ingenstans särskilt fin.
Ollama’s GPT-OSS modeller har återkommande problem med att hantera strukturerad utdata, särskilt när de används med ramverk som LangChain, OpenAI SDK, vllm och andra.
Några sätt att få strukturerad utdata från Ollama
Stora språkmodeller (LLMs) är kraftfulla, men i produktion vill vi sällan ha fritt formulerade stycken. Istället vill vi ha förutsägbart data: attribut, fakta eller strukturerade objekt som du kan mata in i en app. Det är LLM Strukturerad Utdata.
Min egen test av ollama-modellplanering
Här jämför jag hur mycket VRAM den nya versionen av Ollama allokerar för modellen hur mycket VRAM den nya versionen av Ollama allokerar för modellen med den tidigare versionen av Ollama. Den nya versionen är sämre.