OpenClaw-Schnellstart: Installation mit Docker (Ollama GPU oder Claude + CPU)
Installieren Sie OpenClaw lokal mit Ollama
OpenClaw ist eine selbst gehostete KI-Assistentin, die mit lokalen LLM-Runtimes wie Ollama oder mit cloud-basierten Modellen wie Claude Sonnet ausgeführt werden kann.
Dieser Schnellstart zeigt, wie OpenClaw mit Docker bereitgestellt, entweder ein GPU-basiertes lokales Modell oder ein CPU-basiertes Cloud-Modell konfiguriert und die Funktion des KI-Assistenten von Ende zu Ende überprüft wird.
Dieser Leitfaden führt Sie durch eine minimale Einrichtung von OpenClaw, damit Sie sehen können, wie es auf Ihrem eigenen Gerät läuft und antwortet.
Das Ziel ist einfach:
- OpenClaw zum Laufen bringen.
- Eine Anfrage senden.
- Bestätigen, dass es funktioniert.
Dies ist kein Leitfaden zur Produktionshärtung.
Dies ist kein Leitfaden zur Leistungsoptimierung.
Dies ist ein praktischer Ausgangspunkt.
Sie haben zwei Optionen:
- Pfad A – Lokale GPU mit Ollama (empfohlen, falls Sie eine GPU haben)
- Pfad B – Nur CPU mit Claude Sonnet 4.6 über die Anthropic-API
Beide Pfade teilen denselben Kerninstallationsschritt.

Wenn Sie neu bei OpenClaw sind und einen tieferen Überblick über die Systemstruktur wünschen, lesen Sie den OpenClaw-Systemüberblick.
Systemanforderungen und Umgebungseinrichtung
OpenClaw ist ein Assistenzsystem, das sich an externe Dienste anschließen kann. Für diesen Schnellstart:
- Verwenden Sie nach Möglichkeit Testkonten.
- Vermeiden Sie die Verbindung sensibler Produktionssysteme.
- Führen Sie es in Docker aus (empfohlen).
Isolation ist eine gute Standardeinstellung beim Experimentieren mit Agenten-Software.
OpenClaw-Voraussetzungen (GPU mit Ollama oder CPU mit Claude)
Für beide Pfade erforderlich
- Git
- Docker Desktop (oder Docker + Docker Compose)
- Ein Terminal
Für Pfad A (Lokale GPU)
- Ein Gerät mit einer kompatiblen GPU (NVIDIA oder AMD empfohlen)
- Installiertes Ollama
Für Pfad B (CPU + Cloud-Modell)
- Ein Anthropic-API-Schlüssel
- Zugriff auf Claude Sonnet 4.6
Schritt 1 – OpenClaw mit Docker installieren (Klonen & Starten)
OpenClaw kann mit Docker Compose gestartet werden. Dies hält die Einrichtung enthalten und reproduzierbar.
Repository klonen
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Umgebungs konfigurierung kopieren
cp .env.example .env
Öffnen Sie .env in Ihrem Editor. Wir werden es im nächsten Schritt je nach gewähltem Modellpfad konfigurieren.
Container starten
docker compose up -d
Wenn alles korrekt startet, sollten Sie laufende Container sehen:
docker ps
Zu diesem Zeitpunkt läuft OpenClaw – ist aber noch nicht mit einem Modell verbunden.
Schritt 2 – LLM-Anbieter konfigurieren (Ollama GPU oder Claude CPU)
Entscheiden Sie nun, wie die Inferenz arbeiten soll.
Pfad A – Lokale GPU mit Ollama
Wenn eine GPU verfügbar ist, ist dies die einfachste und eigenständigste Option.
Ollama installieren oder überprüfen
Wenn Sie einen detaillierteren Installationsleitfaden benötigen oder Speicherorte für Modelle konfigurieren möchten, siehe:
- Ollama installieren und Modell-Speicherorte konfigurieren
- Ollama CLI Cheatsheet: ls, serve, run, ps + andere Befehle (2026 Update)
Falls Ollama nicht installiert ist:
curl -fsSL https://ollama.com/install.sh | sh
Überprüfen Sie die Funktionsweise:
ollama pull llama3
ollama run llama3
Wenn das Modell antwortet, funktioniert die Inferenz.
OpenClaw für Ollama konfigurieren
Konfigurieren Sie in Ihrer .env-Datei:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Starten Sie die Container neu:
docker compose restart
OpenClaw leitet nun Anfragen an Ihre lokale Ollama-Instanz weiter.
Wenn Sie entscheiden, welches Modell auf einer GPU mit 16 GB VRAM laufen soll, oder Benchmark-Vergleiche wünschen, sehen Sie:
Um das Verhalten bei Parallelität und unter Last auf CPUs zu verstehen:
- Wie Ollama parallele Anfragen handhabt
- Test: Wie Ollama die Intel-CPU-Leistung und effiziente Kerne nutzt
Pfad B – Nur CPU mit Claude Sonnet 4.6
Wenn Sie keine GPU haben, können Sie ein gehostetes Modell verwenden.
API-Schlüssel hinzufügen
In Ihrer .env-Datei:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
Neustart:
docker compose restart
OpenClaw verwendet nun Claude Sonnet 4.6 für die Inferenz, während die Orchestrierung lokal läuft.
Diese Einrichtung funktioniert gut auf CPU-basierten Geräten, da die rechenintensive Modellberechnung in der Cloud stattfindet.
Wenn Sie hier Anthropic-Modelle verwenden, erklärt diese Änderung der Claude-Abonnementpolitik warum OpenClaw eine API-basierte Abrechnung statt einer Wiederverwendung des Claude-Plans erfordert.
Schritt 3 – OpenClaw mit Ihrem ersten Prompt testen
Sobald die Container laufen und das Modell konfiguriert ist, können Sie den Assistenten testen.
Je nach Einrichtung kann dies erfolgen über:
- Eine Weboberfläche
- Eine Messaging-Integration
- Einen lokalen API-Endpunkt
Für einen grundlegenden API-Test:
curl http://localhost:3000/health
Sie sollten eine Antwort mit gesundem Status sehen.
Senden Sie nun einen einfachen Prompt:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explain what OpenClaw does in simple terms."}'
Wenn Sie eine strukturierte Antwort erhalten, funktioniert das System.
Was Sie gerade ausgeführt haben
An diesem Punkt haben Sie:
- Eine laufende OpenClaw-Instanz
- Einen konfigurierten LLM-Anbieter (lokal oder Cloud)
- Einen funktionierenden Anfrage-Antwort-Zyklus
Wenn Sie den GPU-Pfad gewählt haben, findet die Inferenz lokal über Ollama statt.
Wenn Sie den CPU-Pfad gewählt haben, findet die Inferenz über Claude Sonnet 4.6 statt, während Orchestrierung, Routing und Speicherhandhabung in Ihren lokalen Docker-Containern laufen.
Die sichtbare Interaktion mag einfach aussehen. Darunter koordinieren mehrere Komponenten, um Ihre Anfrage zu verarbeiten.
Fehlerbehebung bei OpenClaw-Installation und Laufzeitproblemen
Modell antwortet nicht
- Überprüfen Sie Ihre
.env-Konfiguration. - Prüfen Sie die Container-Logs:
docker compose logs
Ollama nicht erreichbar
- Bestätigen Sie, dass Ollama läuft:
ollama list
- Stellen Sie sicher, dass die Basis-URL mit Ihrer Umgebung übereinstimmt.
Ungültiger API-Schlüssel
- Überprüfen Sie
ANTHROPIC_API_KEYdoppelt. - Starten Sie die Container nach dem Aktualisieren von
.envneu.
GPU wird nicht verwendet
- Bestätigen Sie, dass GPU-Treiber installiert sind.
- Stellen Sie sicher, dass Docker GPU-Zugriff aktiviert ist.
Nächste Schritte nach der Installation von OpenClaw
Sie verfügen nun über eine funktionierende OpenClaw-Instanz.
Von hier aus können Sie:
- Messaging-Plattformen verbinden
- Dokumentenabruf aktivieren
- Routing-Strategien testen
- Observability und Metriken hinzufügen
- Leistung und Kostenverhalten optimieren
Die tiefergehenden architektonischen Diskussionen ergeben mehr Sinn, sobald das System läuft.
Es betriebsbereit zu machen, ist der erste Schritt.
Für weitere Fallstudien zu KI-Systemen, siehe den Abschnitt KI-Systeme.