OpenClaw Snabbstart: Installera med Docker (Ollama GPU eller Claude CPU)
Installera OpenClaw lokalt med Ollama
OpenClaw är en självvärdd AI-assistent som är utformad för att köras med lokala LLM-körningar som Ollama eller med molnbaserade modeller som Claude Sonnet.
Den här snabbstarten visar hur du distribuerar OpenClaw med hjälp av Docker, konfigurerar antingen en GPU-drivna lokal modell eller en CPU-endast molnmodell, och bekräftar att din AI-assistent fungerar från början till slut.
Den här guiden går igenom en minimal installation av OpenClaw så att du kan se den köras och svara på din egen dator.
Målet är enkelt:
- Låt OpenClaw köras.
- Skicka en begäran.
- Bekräfta att det fungerar.
Det här är inte en guide för att förstärka produktion. Det här är inte en guide för att justera prestanda. Det här är en praktisk startpunkt.
Du har två alternativ:
- Sökväg A — Lokal GPU med Ollama (rekommenderas om du har en GPU)
- Sökväg B — Endast CPU med Claude Sonnet 4.6 via Anthropic API
Båda sökvägarna delar samma kärninstallation.

Om du är ny på OpenClaw och vill ha en djupare översikt över hur systemet är strukturerat, läs OpenClaw systemöversikt.
Systemkrav och miljökonfiguration
OpenClaw är ett assistentliknande system som kan ansluta till externa tjänster. För denna snabbstart:
- Använd testkonton där det är möjligt.
- Undvik att ansluta känsliga produktionsystem.
- Kör det inom Docker (rekommenderas).
Isolering är ett bra standardvärde när man experimenterar med agentliknande programvaror.
OpenClaws krav (GPU med Ollama eller CPU med Claude)
Krävs för båda sökvägarna
- Git
- Docker Desktop (eller Docker + Docker Compose)
- En terminal
För sökväg A (Lokal GPU)
- En dator med en kompatibel GPU (NVIDIA eller AMD rekommenderas)
- Ollama installerat
För sökväg B (CPU + Molnmodell)
- En Anthropic API-nyckel
- Åtkomst till Claude Sonnet 4.6
Steg 1 — Installera OpenClaw med Docker (Klona & Starta)
OpenClaw kan startas med Docker Compose. Detta håller uppställningen inom ram och gör den återanvändbar.
Klona repot
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Kopiera miljökonfigurationen
cp .env.example .env
Öppna .env i din redigerare. Vi kommer att konfigurera den i nästa steg
beroende på vilken modellväg du väljer.
Starta containrarna
docker compose up -d
Om allt startar korrekt, bör du se containrar som kör:
docker ps
På detta steg kör OpenClaw — men den är ännu inte ansluten till en modell.
Steg 2 — Konfigurera LLM-leverantör (Ollama GPU eller Claude CPU)
Nu ska du besluta hur du vill att inferens ska fungera.
Sökväg A — Lokal GPU med Ollama
Om du har en GPU tillgänglig, är detta den enklaste och mest självständiga alternativet.
Installera eller kontrollera Ollama
Om du behöver en mer detaljerad installationsguide eller vill konfigurera modelllagringsplatser, se:
- Installera Ollama och konfigurera modellplats
- Ollama CLI Cheat Sheet: ls, serve, run, ps + andra kommandon (2026 uppdatering)
Om Ollama inte är installerad:
curl -fsSL https://ollama.com/install.sh | sh
Kontrollera att det fungerar:
ollama pull llama3
ollama run llama3
Om modellen svarar, fungerar inferens.
Konfigurera OpenClaw för att använda Ollama
I din .env-fil, konfigurera:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Starta om containrarna:
docker compose restart
OpenClaw kommer nu att dirigera begäranden till din lokala Ollama-instans.
Om du bestämmer vilken modell du vill köra på en 16GB GPU eller vill ha jämförelser, se:
För att förstå parallellitet och CPU-beteende vid belastning:
- Hur Ollama hanterar parallella begäranden
- Test: Hur Ollama använder Intel CPU-prestanda och effektiva kärnor
Sökväg B — Endast CPU med Claude Sonnet 4.6
Om du inte har en GPU, kan du använda en värdmodell.
Lägg till din API-nyckel
I din .env-fil:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
Starta om:
docker compose restart
OpenClaw kommer nu att använda Claude Sonnet 4.6 för inferens medan orchestreringen kör lokalt.
Den här uppställningen fungerar bra på endast CPU-maskiner eftersom den tunga modellberäkningen sker i molnet.
Steg 3 — Testa OpenClaw med din första prompt
När containrarna kör och modellen är konfigurerad kan du testa assistenten.
Beroende på din uppställning kan detta ske via:
- En webbgränssnitt
- En meddelandeanvändning
- En lokal API-slutpunkt
För en grundläggande API-test:
curl http://localhost:3000/health
Du bör se ett hälsosamt svar.
Skicka nu en enkel prompt:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Förklara vad OpenClaw gör i enkla ord."}'
Om du får ett strukturerat svar, fungerar systemet.
Vad du just körde
På detta steg har du:
- En körande OpenClaw-instans
- En konfigurerad LLM-leverantör (lokalt eller moln)
- En fungerande begäran-svarsslinga
Om du valde GPU-sökvägen, sker inferens lokalt via Ollama.
Om du valde CPU-sökvägen, sker inferens via Claude Sonnet 4.6, medan orchestrering, routing och minneshantering kör inom dina lokala Docker-containrar.
Den synliga interaktionen kan verka enkel. Underifrån koordinerar flera komponenter för att bearbeta din begäran.
Felsökning av OpenClaw-installation och körningsproblem
Modellen svarar inte
- Kontrollera din
.env-konfiguration. - Kolla containrarnas loggar:
docker compose logs
Ollama är inte tillgänglig
- Bekräfta att Ollama körs:
ollama list
- Se till att bas-URL:en matchar din miljö.
Ogiltig API-nyckel
- Kontrollera
ANTHROPIC_API_KEYigen. - Starta om containrarna efter att ha uppdaterat
.env
GPU används inte
- Bekräfta att GPU-drivrutinerna är installerade.
- Se till att Docker har tillgång till GPU.
Nästa steg efter installation av OpenClaw
Du har nu en fungerande OpenClaw-instans.
Från här kan du:
- Ansluta meddelandeplatformar
- Aktivera dokumenthämtning
- Experimentera med routing-strategier
- Lägga till observabilitet och mått
- Justera prestanda och kostnadsbeteende
De djupare arkitektoniska diskussionerna blir mer meningsfulla när systemet är kört.
Att få det att fungera är det första steget.