Docker Model Runner: Guide för inställning av kontextstorlek
Konfigurera kontextstorlekar i Docker Model Runner med arbarkringar
Konfigurera kontextstorlek i Docker Model Runner är mer komplex än det borde vara.
Konfigurera kontextstorlekar i Docker Model Runner med arbarkringar
Konfigurera kontextstorlek i Docker Model Runner är mer komplex än det borde vara.
AI-modell för att augmentera bilder med textinstruktioner
Black Forest Labs har släppt FLUX.1-Kontext-dev, en avancerad bild-till-bild AI-modell som förstärker befintliga bilder med hjälp av textinstruktioner.
Aktivera GPU-accelerering för Docker Model Runner med stöd för NVIDIA CUDA
Docker Model Runner är Docks officiella verktyg för att köra AI-modeller lokalt, men aktivera NVidia GPU-acceleration i Docker Model Runner kräver specifik konfiguration.
Minska LLM-kostnader med 80% genom smart tokenoptimering
Tokenoptimering är den kritiska färdigheten som skiljer kostnadseffektiva LLM-applikationer från budgetdrainande experiment.
GPT-OSS 120b-benchmärkningar på tre AI-plattformar
Jag hittade några intressanta prestandatest av GPT-OSS 120b som kör på Ollama över tre olika plattformar: NVIDIA DGX Spark, Mac Studio, och RTX 4080. GPT-OSS 120b-modellen från Ollama-biblioteket väger 65 GB, vilket innebär att den inte passar in i den 16 GB VRAM som finns på en RTX 4080 (eller den nyare RTX 5080).
Bygg MCP-server för AI-assistenter med Python-exempel
Model Context Protocol (MCP) revolutionerar hur AI-assistenter interagerar med externa datorkällor och verktyg. I den här guiden kommer vi att utforska hur man bygger MCP servrar i Python, med exempel som fokuserar på webbsökning och skrapning.
Python för konvertering av HTML till ren, LLM-klar Markdown
Konvertera HTML till Markdown är en grundläggande uppgift i moderna utvecklingsarbeteflöden, särskilt när du förbereder webbcontent för stora språkmodeller (LLM), dokumentationssystem eller statiska webbplatsgeneratorer som Hugo. Den här guiden är en del av vår Dokumentverktyg 2026: Markdown, LaTeX, PDF & Skrivningsflöden hub.
Snabbreferens för Docker Model Runner-kommandon
Docker Model Runner (DMR) är Docks officiella lösning för att köra AI-modeller lokalt, introducerad i april 2025. Den här cheatsheten ger en snabb referens för alla viktiga kommandon, konfigurationer och bästa praxis.
Jämför Docker Model Runner och Ollama för lokal LLM
Att köra stora språkmodeller (LLMs) lokalt har blivit alltmer populärt för skydd av integritet, kostnadsstyrning och möjlighet att använda modeller offline. Landskapet förändrades betydligt i april 2025 när Docker introducerade Docker Model Runner (DMR), sin officiella lösning för distribution av AI-modeller.
Specialiserade chips gör AI-inferens snabbare och billigare
Framtiden för AI är inte bara om smartare modeller – den handlar om smartare kisel.
Specialiserad hårdvara för LLM-inferens driver en revolution som liknar Bitcoin-minningens övergång till ASICs.
Tillgänglighet, faktiska butikspriser i sex länder och jämförelse med Mac Studio.
NVIDIA DGX Spark är en realitet, till salu 15 oktober 2025, och riktar sig mot CUDA-utvecklare som behöver lokal LLM-arbete med en integrerad NVIDIA AI-stack. US MSRP $3 999; UK/DE/JP-pris är högre på grund av moms och kanal. AUD/KRW-priser är ännu inte allmänt postade.
Jämföra hastighet, parametrar och prestanda hos dessa två modeller
Här är en jämförelse mellan Qwen3:30b och GPT-OSS:20b fokuserande på instruktionssäljning och prestandaparametrar, specifikationer och hastighet.
+ Specifika exempel med hjälp av tänkande LLMs
I detta inlägg kommer vi att utforska två sätt att ansluta din Python-applikation till Ollama: 1. Via HTTP REST API; 2. Via den officiella Ollama Python-biblioteket.
Ingenstans särskilt fin.
Ollama’s GPT-OSS modeller har återkommande problem med att hantera strukturerad utdata, särskilt när de används med ramverk som LangChain, OpenAI SDK, vllm och andra.
Lätt olika API:er kräver en särskild tillvägagångssätt.
Här är en sida vid sida jämförelse av stöd för strukturerad utdata (att få tillförlitligt JSON tillbaka) över populära LLM-leverantörer (https://www.glukhov.org/sv/llm-performance/benchmarks/structured-output-comparison-popular-llm-providers/ “strukturerad utdata över populära LLM-leverantörer”), plus minimala Python exempel
Några sätt att få strukturerad utdata från Ollama
Stora språkmodeller (LLMs) är kraftfulla, men i produktion vill vi sällan ha fritt formulerade stycken. Istället vill vi ha förutsägbart data: attribut, fakta eller strukturerade objekt som du kan mata in i en app. Det är LLM Strukturerad Utdata.