OpenClaw Snabbstart: Installera med Docker (Ollama GPU eller Claude + CPU)
Installera OpenClaw lokalt med Ollama
OpenClaw är en självhyst AI-assistent designad att köras med lokala LLM-runtime-miljöer som Ollama eller med molnbaserade modeller som Claude Sonnet.
Denna snabbstart visar hur du distribuerar OpenClaw med Docker, konfigurerar antingen en GPU-driven lokal modell eller en CPU-endast molnmodell, och verifierar att din AI-assistent fungerar från start till mål.
Den här guiden tar dig genom en minimal uppsättning av OpenClaw så att du kan se den köra och svara på din egen maskin.
Målet är enkelt:
- Sätt igång OpenClaw.
- Skicka en förfrågan.
- Bekräfta att det fungerar.
Detta är inte en guide för produktionssäkring.
Detta är inte en guide för prestandaoptimering.
Detta är ett praktiskt utgångsläge.
Du har två alternativ:
- Väg A — Lokal GPU med Ollama (rekommenderas om du har en GPU)
- Väg B — CPU-endast med Claude Sonnet 4.6 via Anthropic API
Båda vägarna delar samma grundläggande installationsprocess.

Om du är ny på OpenClaw och vill ha en djupare översikt över hur systemet är strukturerat, läs OpenClaw systemöversikt.
Systemkrav och miljöuppsättning
OpenClaw är ett assistentbaserat system som kan ansluta till externa tjänster. För denna snabbstart:
- Använd testkontor där det är möjligt.
- Undvik att ansluta känsliga produktionssystem.
- Kör den inuti Docker (rekommenderas).
Isolering är ett bra standardval när man experimenterar med agenterbaserad mjukvara.
Förutsättningar för OpenClaw (GPU med Ollama eller CPU med Claude)
Krävs för båda vägarna
- Git
- Docker Desktop (eller Docker + Docker Compose)
- En terminal
För Väg A (Lokal GPU)
- En maskin med en kompatibel GPU (NVIDIA eller AMD rekommenderas)
- Ollama installerad
För Väg B (CPU + Molnmodell)
- En Anthropic API-nyckel
- Tillgång till Claude Sonnet 4.6
Steg 1 — Installera OpenClaw med Docker (Klon och start)
OpenClaw kan startas med Docker Compose. Detta håller uppsättningen insluten och reproducerbar.
Klona repositoryt
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Kopiera miljökonfigurationen
cp .env.example .env
Öppna .env i din redigerare. Vi kommer att konfigurera den i nästa steg beroende på vilken modellväg du väljer.
Starta behållarna
docker compose up -d
Om allt startar korrekt bör du se att behållarna körs:
docker ps
På denna punkt körs OpenClaw — men den är inte ansluten till en modell än.
Steg 2 — Konfigurera LLM-leverantör (Ollama GPU eller Claude CPU)
Bestäm nu hur du vill att inferensen ska fungera.
Väg A — Lokal GPU med Ollama
Om du har en GPU tillgänglig, är detta det enklaste och mest självständiga alternativet.
Installera eller verifiera Ollama
Om du behöver en mer detaljerad installationsguide eller vill konfigurera modelllagringsplatser, se:
- Installera Ollama och konfigurera modellplats
- Ollama CLI-fuskblad: ls, serve, run, ps + andra kommandon (uppdatering 2026)
Om Ollama inte är installerad:
curl -fsSL https://ollama.com/install.sh | sh
Verifiera att det fungerar:
ollama pull llama3
ollama run llama3
Om modellen svarar fungerar inferensen.
Konfigurera OpenClaw att använda Ollama
I din .env-fil, konfigurera:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Starta om behållarna:
docker compose restart
OpenClaw kommer nu att skicka förfrågningar till din lokala Ollama-instans.
Om du bestämmer vilken modell du ska köra på en 16 GB GPU eller vill jämföra benchmark, se:
För att förstå samtidighet och CPU-beteende under belastning:
- Hur Ollama hanterar parallella förfrågningar
- Test: Hur Ollama använder Intel CPU-prestanda och effektiva kärnor
Väg B — CPU-endast med Claude Sonnet 4.6
Om du inte har en GPU kan du använda en värdmodell.
Lägg till din API-nyckel
I din .env-fil:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=din_api_nyckel_här
ANTHROPIC_MODEL=claude-sonnet-4-6
Starta om:
docker compose restart
OpenClaw kommer nu att använda Claude Sonnet 4.6 för inferens medan orkestreringen körs lokalt.
Den här uppsättningen fungerar bra på CPU-endast-maskiner eftersom den tunga modellberäkningen sker i molnet.
Om du använder Anthropic-modeller här, denna uppdatering av Claude-prenumationspolicy förklarar varför OpenClaw kräver API-baserad fakturering istället för återanvändning av Claude-planen.
Steg 3 — Testa OpenClaw med din första prompt
När behållarna körs och modellen är konfigurerad kan du testa assistenten.
Beroende på din uppsättning kan detta ske via:
- Ett webbgränssnitt
- En meddelandeintegration
- En lokal API-endpunkt
För en grundläggande API-test:
curl http://localhost:3000/health
Du bör se ett svar om hälsostatus.
Skicka nu en enkel prompt:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Förklara vad OpenClaw gör med enkla ord."}'
Om du får ett strukturerat svar fungerar systemet.
Vad du just körde
På denna punkt har du:
- En körande OpenClaw-instans
- En konfigurerad LLM-leverantör (lokal eller moln)
- En fungerande förfrågan-svar-lopp
Om du valde GPU-vägen sker inferensen lokalt via Ollama.
Om du valde CPU-vägen sker inferensen via Claude Sonnet 4.6, medan orkestrering, rutning och minneshantering körs inuti dina lokala Docker-behållare.
Den synliga interaktionen kan se enkel ut. Under ytan samordnar flera komponenter för att bearbeta din förfrågan.
Felsökning av installations- och körproblem för OpenClaw
Modell svarar inte
- Verifiera din
.env-konfiguration. - Kontrollera behållarloggar:
docker compose logs
Ollama når inte
- Bekräfta att Ollama körs:
ollama list
- Se till att grund-URL:n matchar din miljö.
Ogiltig API-nyckel
- Dubbelkolla
ANTHROPIC_API_KEY - Starta om behållarna efter att ha uppdaterat
.env
GPU används inte
- Bekräfta att GPU-drivrutiner är installerade.
- Se till att Docker har GPU-tillgång aktiverad.
Nästa steg efter att ha installerat OpenClaw
Du har nu en fungerande OpenClaw-instans.
Härifrån kan du:
- Ansluta meddelandeplattformar
- Aktivera dokumenthämtning
- Experimentera med rutningsstrategier
- Lägg till observabilitet och metrik
- Justera prestanda och kostnadsbeteende
De djupare arkitektoniska diskussionerna blir mer meningsfulla när systemet är igång.
Att få det igång är det första steget.
För fler fallstudier av AI-system, se avsnittet AI-system.