OpenClaw Snabbstart: Installera med Docker (Ollama GPU eller Claude CPU)

Installera OpenClaw lokalt med Ollama

Sidinnehåll

OpenClaw är en självvärdd AI-assistent som är utformad för att köras med lokala LLM-körningar som Ollama eller med molnbaserade modeller som Claude Sonnet.

Den här snabbstarten visar hur du distribuerar OpenClaw med hjälp av Docker, konfigurerar antingen en GPU-drivna lokal modell eller en CPU-endast molnmodell, och bekräftar att din AI-assistent fungerar från början till slut.

Den här guiden går igenom en minimal installation av OpenClaw så att du kan se den köras och svara på din egen dator.

Målet är enkelt:

  • Låt OpenClaw köras.
  • Skicka en begäran.
  • Bekräfta att det fungerar.

Det här är inte en guide för att förstärka produktion. Det här är inte en guide för att justera prestanda. Det här är en praktisk startpunkt.

Du har två alternativ:

  • Sökväg A — Lokal GPU med Ollama (rekommenderas om du har en GPU)
  • Sökväg B — Endast CPU med Claude Sonnet 4.6 via Anthropic API

Båda sökvägarna delar samma kärninstallation.

installera openclaw steg GPU vs CPU

Om du är ny på OpenClaw och vill ha en djupare översikt över hur systemet är strukturerat, läs OpenClaw systemöversikt.

Systemkrav och miljökonfiguration

OpenClaw är ett assistentliknande system som kan ansluta till externa tjänster. För denna snabbstart:

  • Använd testkonton där det är möjligt.
  • Undvik att ansluta känsliga produktionsystem.
  • Kör det inom Docker (rekommenderas).

Isolering är ett bra standardvärde när man experimenterar med agentliknande programvaror.


OpenClaws krav (GPU med Ollama eller CPU med Claude)

Krävs för båda sökvägarna

  • Git
  • Docker Desktop (eller Docker + Docker Compose)
  • En terminal

För sökväg A (Lokal GPU)

  • En dator med en kompatibel GPU (NVIDIA eller AMD rekommenderas)
  • Ollama installerat

För sökväg B (CPU + Molnmodell)

  • En Anthropic API-nyckel
  • Åtkomst till Claude Sonnet 4.6

Steg 1 — Installera OpenClaw med Docker (Klona & Starta)

OpenClaw kan startas med Docker Compose. Detta håller uppställningen inom ram och gör den återanvändbar.

Klona repot

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Kopiera miljökonfigurationen

cp .env.example .env

Öppna .env i din redigerare. Vi kommer att konfigurera den i nästa steg beroende på vilken modellväg du väljer.

Starta containrarna

docker compose up -d

Om allt startar korrekt, bör du se containrar som kör:

docker ps

På detta steg kör OpenClaw — men den är ännu inte ansluten till en modell.


Steg 2 — Konfigurera LLM-leverantör (Ollama GPU eller Claude CPU)

Nu ska du besluta hur du vill att inferens ska fungera.


Sökväg A — Lokal GPU med Ollama

Om du har en GPU tillgänglig, är detta den enklaste och mest självständiga alternativet.

Installera eller kontrollera Ollama

Om du behöver en mer detaljerad installationsguide eller vill konfigurera modelllagringsplatser, se:

Om Ollama inte är installerad:

curl -fsSL https://ollama.com/install.sh | sh

Kontrollera att det fungerar:

ollama pull llama3
ollama run llama3

Om modellen svarar, fungerar inferens.

Konfigurera OpenClaw för att använda Ollama

I din .env-fil, konfigurera:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Starta om containrarna:

docker compose restart

OpenClaw kommer nu att dirigera begäranden till din lokala Ollama-instans.

Om du bestämmer vilken modell du vill köra på en 16GB GPU eller vill ha jämförelser, se:

För att förstå parallellitet och CPU-beteende vid belastning:


Sökväg B — Endast CPU med Claude Sonnet 4.6

Om du inte har en GPU, kan du använda en värdmodell.

Lägg till din API-nyckel

I din .env-fil:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Starta om:

docker compose restart

OpenClaw kommer nu att använda Claude Sonnet 4.6 för inferens medan orchestreringen kör lokalt.

Den här uppställningen fungerar bra på endast CPU-maskiner eftersom den tunga modellberäkningen sker i molnet.


Steg 3 — Testa OpenClaw med din första prompt

När containrarna kör och modellen är konfigurerad kan du testa assistenten.

Beroende på din uppställning kan detta ske via:

  • En webbgränssnitt
  • En meddelandeanvändning
  • En lokal API-slutpunkt

För en grundläggande API-test:

curl http://localhost:3000/health

Du bör se ett hälsosamt svar.

Skicka nu en enkel prompt:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Förklara vad OpenClaw gör i enkla ord."}'

Om du får ett strukturerat svar, fungerar systemet.


Vad du just körde

På detta steg har du:

  • En körande OpenClaw-instans
  • En konfigurerad LLM-leverantör (lokalt eller moln)
  • En fungerande begäran-svarsslinga

Om du valde GPU-sökvägen, sker inferens lokalt via Ollama.

Om du valde CPU-sökvägen, sker inferens via Claude Sonnet 4.6, medan orchestrering, routing och minneshantering kör inom dina lokala Docker-containrar.

Den synliga interaktionen kan verka enkel. Underifrån koordinerar flera komponenter för att bearbeta din begäran.


Felsökning av OpenClaw-installation och körningsproblem

Modellen svarar inte

  • Kontrollera din .env-konfiguration.
  • Kolla containrarnas loggar:
docker compose logs

Ollama är inte tillgänglig

  • Bekräfta att Ollama körs:
ollama list
  • Se till att bas-URL:en matchar din miljö.

Ogiltig API-nyckel

  • Kontrollera ANTHROPIC_API_KEY igen.
  • Starta om containrarna efter att ha uppdaterat .env

GPU används inte

  • Bekräfta att GPU-drivrutinerna är installerade.
  • Se till att Docker har tillgång till GPU.

Nästa steg efter installation av OpenClaw

Du har nu en fungerande OpenClaw-instans.

Från här kan du:

  • Ansluta meddelandeplatformar
  • Aktivera dokumenthämtning
  • Experimentera med routing-strategier
  • Lägga till observabilitet och mått
  • Justera prestanda och kostnadsbeteende

De djupare arkitektoniska diskussionerna blir mer meningsfulla när systemet är kört.

Att få det att fungera är det första steget.