OpenClaw Snelstart: Installeren met Docker (Ollama GPU of Claude + CPU)

Installeer OpenClaw lokaal met Ollama

Inhoud

OpenClaw is een zelf-gehoste AI-assistent die is ontworpen om te draaien met lokale LLM-runtimes zoals Ollama of met cloudgebaseerde modellen zoals Claude Sonnet.

Dit snelstartgids laat zien hoe je OpenClaw via Docker kunt implementeren, een lokaal model met GPU-ondersteuning of een cloudmodel alleen met CPU kunt configureren, en verifieert dat je AI-assistent eind-tot-eind werkt.

Deze gids leidt je door een minimale installatie van OpenClaw, zodat je het op je eigen machine kunt zien draaien en reageren.

Het doel is eenvoudig:

  • Zet OpenClaw op gang.
  • Stuur een verzoek.
  • Bevestig dat het werkt.

Dit is geen gids voor productie-veiligheid.
Dit is geen gids voor prestatie-optimalisatie.
Dit is een praktisch startpunt.

Je hebt twee opties:

  • Pad A — Lokale GPU met Ollama (aanbevolen als je een GPU hebt)
  • Pad B — Alleen CPU met Claude Sonnet 4.6 via de Anthropic API

Beide paden delen hetzelfde kerninstallatieproces.

install openclaw steps GPU vs CPU

Als je nieuw bent bij OpenClaw en een dieper overzicht wilt van hoe het systeem is gestructureerd, lees dan het OpenClaw-systeemoverzicht.

Systeemvereisten en omgevingconfiguratie

OpenClaw is een assistentsysteem dat kan verbinden met externe diensten. Voor deze snelstart:

  • Gebruik waar mogelijk testaccounts.
  • Verbind geen gevoelige productiesystemen.
  • Voer het binnen Docker uit (aanbevolen).

Isolatie is een goede standaardinstelling bij het experimenteren met software in agent-stijl.


OpenClaw vereisten (GPU met Ollama of CPU met Claude)

Vereist voor beide paden

  • Git
  • Docker Desktop (of Docker + Docker Compose)
  • Een terminal

Voor Pad A (Lokale GPU)

  • Een machine met een compatibele GPU (NVIDIA of AMD wordt aanbevolen)
  • Ollama geïnstalleerd

Voor Pad B (CPU + Cloudmodel)

  • Een Anthropic API-sleutel
  • Toegang tot Claude Sonnet 4.6

Stap 1 — OpenClaw installeren met Docker (Kloon en Start)

OpenClaw kan worden gestart met Docker Compose. Dit houdt de installatie geïsoleerd en reproduceerbaar.

Kloon de repository

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Kopieer de omgevingconfiguratie

cp .env.example .env

Open .env in je editor. We configureren het in de volgende stap, afhankelijk van het modelpad dat je kiest.

Start de containers

docker compose up -d

Als alles correct start, moet je containers zien te draaien:

docker ps

Op dit moment draait OpenClaw, maar het is nog niet verbonden met een model.


Stap 2 — Configureer de LLM-provider (Ollama GPU of Claude CPU)

Beslis nu hoe je inferentie wilt laten werken.


Pad A — Lokale GPU met Ollama

Als je een GPU beschikbaar hebt, is dit de eenvoudigste en meest zelfstandige optie.

Installeer of verifieer Ollama

Als je een gedetailleerdere installatiegids nodig hebt of de opslaglocaties van modellen wilt configureren, zie:

Als Ollama niet is geïnstalleerd:

curl -fsSL https://ollama.com/install.sh | sh

Verifieer of het werkt:

ollama pull llama3
ollama run llama3

Als het model reageert, werkt de inferentie.

Configureer OpenClaw om Ollama te gebruiken

In je .env-bestand, configureer:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Herstart de containers:

docker compose restart

OpenClaw routeert nu verzoeken naar je lokale Ollama-instantie.

Als je besluit welk model je op een 16GB GPU wilt draaien of benchmarkvergelijkingen wilt zien, zie:

Om concurrentie en CPU-gedrag onder belasting te begrijpen:


Pad B — Alleen CPU met Claude Sonnet 4.6

Als je geen GPU hebt, kun je een gehost model gebruiken.

Voeg je API-sleutel toe

In je .env-bestand:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

Herstart:

docker compose restart

OpenClaw gebruikt nu Claude Sonnet 4.6 voor inferentie, terwijl de orchestratie lokaal draait.

Deze setup werkt goed op machines met alleen CPU, omdat de zware modelberekeningen in de cloud plaatsvinden.

Als je hier Anthropic-modellen gebruikt, verklaart dit beleidswijziging voor Claude-abonnementen waarom OpenClaw API-gebaseerde facturatie vereist in plaats van het hergebruik van Claude-plannen.


Stap 3 — Test OpenClaw met je eerste prompt

Zodra de containers draaien en het model is geconfigureerd, kun je de assistent testen.

Afhankelijk van je setup kan dit via:

  • Een webinterface
  • Een messaging-integratie
  • Een lokaal API-eindpunt

Voor een basis-API-test:

curl http://localhost:3000/health

Je zou een gezonde statusrespons moeten zien.

Stuur nu een eenvoudige prompt:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Leg uit wat OpenClaw doet in simpele termen."}'

Als je een gestructureerde respons ontvangt, werkt het systeem.


Wat je net hebt uitgevoerd

Op dit punt heb je:

  • Een draaiende OpenClaw-instantie
  • Een geconfigureerde LLM-provider (lokaal of cloud)
  • Een werkende verzoek-responscyclus

Als je het GPU-pad koos, gebeurt de inferentie lokaal via Ollama.

Als je het CPU-pad koos, gebeurt de inferentie via Claude Sonnet 4.6, terwijl orchestratie, routing en geheugenbeheer binnen je lokale Docker-containers draaien.

De zichtbare interactie kan er simpel uitzien. Daaronder coördineren meerdere componenten om je verzoek te verwerken.


Probleemoplossing voor OpenClaw-installatie en runtime-problemen

Model reageert niet

  • Verifieer je .env-configuratie.
  • Controleer de containerlogs:
docker compose logs

Ollama niet bereikbaar

  • Bevestig dat Ollama draait:
ollama list
  • Zorg ervoor dat de basis-URL overeenkomt met je omgeving.

Ongeldige API-sleutel

  • Controleer ANTHROPIC_API_KEY opnieuw.
  • Herstart de containers na het bijwerken van .env

GPU wordt niet gebruikt

  • Bevestig dat GPU-drivers zijn geïnstalleerd.
  • Zorg ervoor dat Docker GPU-toegang heeft ingeschakeld.

Volgende stappen na het installeren van OpenClaw

Je hebt nu een werkende OpenClaw-instantie.

Vanaf hier kun je:

  • Messaging-platforms koppelen
  • Documentopzoeking inschakelen
  • Experimenteren met routeringsstrategieën
  • Observabiliteit en metrieken toevoegen
  • Prestaties en kosten gedrag afstemmen

Dieper architectonische discussies maken meer zin zodra het systeem draait.

Het operationeel krijgen is de eerste stap.

Zodra het draait, zijn de natuurlijke volgende artikelen:

  • OpenClaw plugins gids — welke plugins je moet installeren voor geheugen, tools, kanalen en observabiliteit, en hoe de levenscyclus werkt
  • OpenClaw vaardigheden gids — welke vaardigheden de moeite waard zijn om van ClawHub te installeren, en hoe je ze veilig kunt afsluiten per agentrol
  • OpenClaw productie-instellingspatronen — hoe plugins en vaardigheden combineren voor echte gebruikerstypes zoals ontwikkelaars, automatiseringsteams, onderzoekers en ondersteuningsoperatoren

Voor meer casestudies over AI-systemen, zie het AI-systemen-gedeelte.