OpenClaw Quickstart: Installeren met Docker (Ollama GPU of Claude + CPU)
Installeer OpenClaw lokaal met Ollama
OpenClaw is een zelfgehoste AI-assistent die is ontworpen om te draaien met lokale LLM-runtime-omgevingen zoals Ollama of met cloudgebaseerde modellen zoals Claude Sonnet.
Deze quickstart laat zien hoe u OpenClaw kunt implementeren met Docker, een lokaal model met GPU-versnelling of een cloudmodel alleen met CPU kunt configureren en verifieert dat uw AI-assistent van begin tot eind werkt.
Deze gids leidt u door een minimale installatie van OpenClaw, zodat u kunt zien dat het op uw eigen machine draait en reageert.
Het doel is eenvoudig:
- Laat OpenClaw draaien.
- Stuur een verzoek.
- Bevestig dat het werkt.
Dit is geen gids voor productiehardening.
Dit is geen gids voor prestatie-tuning.
Dit is een praktisch startpunt.
U heeft twee opties:
- Pad A — Lokale GPU met Ollama (aanbevolen als u een GPU heeft)
- Pad B — Alleen CPU met Claude Sonnet 4.6 via de Anthropic API
Beide paden delen hetzelfde kerninstallatieproces.

Als u nieuw bent bij OpenClaw en een dieper overzicht wilt van hoe het systeem is gestructureerd, lees dan het OpenClaw-systeemoverzicht.
Systeemeisen en omgeving configureren
OpenClaw is een assisistent-stijlsysteem dat verbinding kan maken met externe diensten. Voor deze Quickstart:
- Gebruik waar mogelijk testaccounts.
- Vermijd het verbinden van gevoelige productiesystemen.
- Voer het uit in Docker (aanbevolen).
Isolatie is een goede standaardinstelling bij het experimenteren met agent-stijl software.
OpenClaw vereisten (GPU met Ollama of CPU met Claude)
Vereist voor beide paden
- Git
- Docker Desktop (of Docker + Docker Compose)
- Een terminal
Voor Pad A (Lokale GPU)
- Een machine met een compatibele GPU (NVIDIA of AMD wordt aanbevolen)
- Ollama geïnstalleerd
Voor Pad B (CPU + Cloudmodel)
- Een Anthropic API-sleutel
- Toegang tot Claude Sonnet 4.6
Stap 1 — OpenClaw installeren met Docker (Kloon & Start)
OpenClaw kan worden gestart met Docker Compose. Dit houdt de opstelling ingesloten en reproduceerbaar.
Kloon de repository
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Kopieer de omgevingconfiguratie
cp .env.example .env
Open .env in uw editor. We zullen het in de volgende stap configureren, afhankelijk van welk modelpad u kiest.
Start de containers
docker compose up -d
Als alles correct start, zou u containers moeten zien draaien:
docker ps
Op dit moment draait OpenClaw — maar het is nog niet verbonden met een model.
Stap 2 — LLM-provider configureren (Ollama GPU of Claude CPU)
Beslis nu hoe u wilt dat inferentie plaatsvindt.
Pad A — Lokale GPU met Ollama
Als u een GPU beschikbaar heeft, is dit de eenvoudigste en meest zelfstandige optie.
Installeer of verifieer Ollama
Als u een gedetailleerdere installatiegids nodig heeft of de locaties voor modelopslag wilt configureren, zie:
- Ollama installeren en modellocaties configureren
- Ollama CLI-cheatblad: ls, serve, run, ps + andere commando’s (2026 update)
Als Ollama niet is geïnstalleerd:
curl -fsSL https://ollama.com/install.sh | sh
Verifieer dat het werkt:
ollama pull llama3
ollama run llama3
Als het model reageert, werkt de inferentie.
Configureer OpenClaw om Ollama te gebruiken
In uw .env-bestand, configureer:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Herstart de containers:
docker compose restart
OpenClaw zal nu verzoeken doorsturen naar uw lokale Ollama-instantie.
Als u beslist welk model u op een 16GB VRAM GPU wilt draaien of benchmarkvergelijkingen wilt, zie:
Om concurrentie en CPU-gedrag onder belasting te begrijpen:
- Hoe Ollama parallelle verzoeken hanteert
- Test: Hoe Ollama Intel CPU-prestaties en efficiënte kernen gebruikt
Pad B — Alleen CPU met Claude Sonnet 4.6
Als u geen GPU heeft, kunt u een gehost model gebruiken.
Voeg uw API-sleutel toe
In uw .env-bestand:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
Herstart:
docker compose restart
OpenClaw zal nu Claude Sonnet 4.6 gebruiken voor inferentie, terwijl de orchestratie lokaal draait.
Deze opstelling werkt goed op machines met alleen CPU, omdat de zware modelberekeningen in de cloud plaatsvinden.
Als u hier Anthropic-modellen gebruikt, dit beleidswijziging voor Claude-abonnementen legt uit waarom OpenClaw API-gebaseerde facturering vereist in plaats van het hergebruik van een Claude-abonnement.
Stap 3 — Test OpenClaw met uw eerste prompt
Zodra de containers draaien en het model is geconfigureerd, kunt u de assistent testen.
Afhankelijk van uw opstelling kan dit via:
- Een webinterface
- Een messaging-integratie
- Een lokaal API-eindpunt
Voor een basis API-test:
curl http://localhost:3000/health
U zou een gezond statusrespons moeten zien.
Stuur nu een eenvoudige prompt:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Leg uit wat OpenClaw doet in eenvoudige termen."}'
Als u een gestructureerd antwoord ontvangt, werkt het systeem.
Wat u net hebt uitgevoerd
Op dit moment heeft u:
- Een draaiende OpenClaw-instantie
- Een geconfigureerde LLM-provider (lokaal of cloud)
- Een werkende verzoek-responslus
Als u het GPU-pad heeft gekozen, vindt inferentie lokaal plaats via Ollama.
Als u het CPU-pad heeft gekozen, vindt inferentie plaats via Claude Sonnet 4.6, terwijl orchestratie, routing en geheugenbeheer binnen uw lokale Docker-containers draaien.
De zichtbare interactie kan er eenvoudig uitzien. Daaronder coördineren meerdere componenten om uw verzoek te verwerken.
Probleemoplossing voor OpenClaw-installatie en runtime-problemen
Model reageert niet
- Verifieer uw
.env-configuratie. - Controleer de containerlogs:
docker compose logs
Ollama niet bereikbaar
- Bevestig dat Ollama draait:
ollama list
- Zorg ervoor dat de basis-URL overeenkomt met uw omgeving.
Ongeldige API-sleutel
- Dubbelcheck
ANTHROPIC_API_KEY - Herstart de containers na het bijwerken van
.env
GPU wordt niet gebruikt
- Bevestig dat GPU-drivers zijn geïnstalleerd.
- Zorg ervoor dat Docker GPU-toegang heeft ingeschakeld.
Volgende stappen na het installeren van OpenClaw
U heeft nu een werkende OpenClaw-instantie.
Vanaf hier kunt u:
- Messaging-platforms verbinden
- Documentophaalfunctionaliteit inschakelen
- Experimenteren met routingstrategieën
- Waarnemingsmogelijkheden en metrieken toevoegen
- Prestaties en kosten gedrag afstemmen
De diepergaande architectonische discussies maken meer zin zodra het systeem draait.
Het operationeel krijgen is de eerste stap.
Voor meer AI-systemen casestudies, zie het AI-systemen gedeelte.