OpenClaw Snabbstart: Installera med Docker (Ollama GPU eller Claude + CPU)

Installera OpenClaw lokalt med Ollama

Sidinnehåll

OpenClaw är en självhyst AI-assistent designad att köras med lokala LLM-runtime-miljöer som Ollama eller med molnbaserade modeller som Claude Sonnet.

Denna snabbstart visar hur du distribuerar OpenClaw med Docker, konfigurerar antingen en GPU-driven lokal modell eller en CPU-endast molnmodell, och verifierar att din AI-assistent fungerar från start till mål.

Den här guiden tar dig genom en minimal uppsättning av OpenClaw så att du kan se den köra och svara på din egen maskin.

Målet är enkelt:

  • Sätt igång OpenClaw.
  • Skicka en förfrågan.
  • Bekräfta att det fungerar.

Detta är inte en guide för produktionssäkring.
Detta är inte en guide för prestandaoptimering.
Detta är ett praktiskt utgångsläge.

Du har två alternativ:

  • Väg A — Lokal GPU med Ollama (rekommenderas om du har en GPU)
  • Väg B — CPU-endast med Claude Sonnet 4.6 via Anthropic API

Båda vägarna delar samma grundläggande installationsprocess.

install openclaw steps GPU vs CPU

Om du är ny på OpenClaw och vill ha en djupare översikt över hur systemet är strukturerat, läs OpenClaw systemöversikt.

Systemkrav och miljöuppsättning

OpenClaw är ett assistentbaserat system som kan ansluta till externa tjänster. För denna snabbstart:

  • Använd testkontor där det är möjligt.
  • Undvik att ansluta känsliga produktionssystem.
  • Kör den inuti Docker (rekommenderas).

Isolering är ett bra standardval när man experimenterar med agenterbaserad mjukvara.


Förutsättningar för OpenClaw (GPU med Ollama eller CPU med Claude)

Krävs för båda vägarna

  • Git
  • Docker Desktop (eller Docker + Docker Compose)
  • En terminal

För Väg A (Lokal GPU)

  • En maskin med en kompatibel GPU (NVIDIA eller AMD rekommenderas)
  • Ollama installerad

För Väg B (CPU + Molnmodell)

  • En Anthropic API-nyckel
  • Tillgång till Claude Sonnet 4.6

Steg 1 — Installera OpenClaw med Docker (Klon och start)

OpenClaw kan startas med Docker Compose. Detta håller uppsättningen insluten och reproducerbar.

Klona repositoryt

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Kopiera miljökonfigurationen

cp .env.example .env

Öppna .env i din redigerare. Vi kommer att konfigurera den i nästa steg beroende på vilken modellväg du väljer.

Starta behållarna

docker compose up -d

Om allt startar korrekt bör du se att behållarna körs:

docker ps

På denna punkt körs OpenClaw — men den är inte ansluten till en modell än.


Steg 2 — Konfigurera LLM-leverantör (Ollama GPU eller Claude CPU)

Bestäm nu hur du vill att inferensen ska fungera.


Väg A — Lokal GPU med Ollama

Om du har en GPU tillgänglig, är detta det enklaste och mest självständiga alternativet.

Installera eller verifiera Ollama

Om du behöver en mer detaljerad installationsguide eller vill konfigurera modelllagringsplatser, se:

Om Ollama inte är installerad:

curl -fsSL https://ollama.com/install.sh | sh

Verifiera att det fungerar:

ollama pull llama3
ollama run llama3

Om modellen svarar fungerar inferensen.

Konfigurera OpenClaw att använda Ollama

I din .env-fil, konfigurera:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Starta om behållarna:

docker compose restart

OpenClaw kommer nu att skicka förfrågningar till din lokala Ollama-instans.

Om du bestämmer vilken modell du ska köra på en 16 GB GPU eller vill jämföra benchmark, se:

För att förstå samtidighet och CPU-beteende under belastning:


Väg B — CPU-endast med Claude Sonnet 4.6

Om du inte har en GPU kan du använda en värdmodell.

Lägg till din API-nyckel

I din .env-fil:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=din_api_nyckel_här
ANTHROPIC_MODEL=claude-sonnet-4-6

Starta om:

docker compose restart

OpenClaw kommer nu att använda Claude Sonnet 4.6 för inferens medan orkestreringen körs lokalt.

Den här uppsättningen fungerar bra på CPU-endast-maskiner eftersom den tunga modellberäkningen sker i molnet.

Om du använder Anthropic-modeller här, denna uppdatering av Claude-prenumationspolicy förklarar varför OpenClaw kräver API-baserad fakturering istället för återanvändning av Claude-planen.


Steg 3 — Testa OpenClaw med din första prompt

När behållarna körs och modellen är konfigurerad kan du testa assistenten.

Beroende på din uppsättning kan detta ske via:

  • Ett webbgränssnitt
  • En meddelandeintegration
  • En lokal API-endpunkt

För en grundläggande API-test:

curl http://localhost:3000/health

Du bör se ett svar om hälsostatus.

Skicka nu en enkel prompt:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Förklara vad OpenClaw gör med enkla ord."}'

Om du får ett strukturerat svar fungerar systemet.


Vad du just körde

På denna punkt har du:

  • En körande OpenClaw-instans
  • En konfigurerad LLM-leverantör (lokal eller moln)
  • En fungerande förfrågan-svar-lopp

Om du valde GPU-vägen sker inferensen lokalt via Ollama.

Om du valde CPU-vägen sker inferensen via Claude Sonnet 4.6, medan orkestrering, rutning och minneshantering körs inuti dina lokala Docker-behållare.

Den synliga interaktionen kan se enkel ut. Under ytan samordnar flera komponenter för att bearbeta din förfrågan.


Felsökning av installations- och körproblem för OpenClaw

Modell svarar inte

  • Verifiera din .env-konfiguration.
  • Kontrollera behållarloggar:
docker compose logs

Ollama når inte

  • Bekräfta att Ollama körs:
ollama list
  • Se till att grund-URL:n matchar din miljö.

Ogiltig API-nyckel

  • Dubbelkolla ANTHROPIC_API_KEY
  • Starta om behållarna efter att ha uppdaterat .env

GPU används inte

  • Bekräfta att GPU-drivrutiner är installerade.
  • Se till att Docker har GPU-tillgång aktiverad.

Nästa steg efter att ha installerat OpenClaw

Du har nu en fungerande OpenClaw-instans.

Härifrån kan du:

  • Ansluta meddelandeplattformar
  • Aktivera dokumenthämtning
  • Experimentera med rutningsstrategier
  • Lägg till observabilitet och metrik
  • Justera prestanda och kostnadsbeteende

De djupare arkitektoniska diskussionerna blir mer meningsfulla när systemet är igång.

Att få det igång är det första steget.

För fler fallstudier av AI-system, se avsnittet AI-system.