OpenClaw – szybki start: instalacja za pomocą Docker (Ollama GPU lub Claude + CPU)
Zainstaluj OpenClaw lokalnie za pomocą Ollama
OpenClaw to samodzielnie hostowany asystent AI zaprojektowany do działania z lokalnymi silnikami LLM, takimi jak Ollama, lub z modelami chmurowymi, np. Claude Sonnet.
Ten przewodnik szybkiego startu pokazuje, jak wdrożyć OpenClaw przy użyciu Dockera, skonfigurować model lokalny z obsługą GPU lub model chmurowy działający tylko na procesorze, a następnie zweryfikować, czy asystent AI działa poprawnie od początku do końca.
Ten przewodnik przeprowadzi Cię przez minimalną konfigurację OpenClaw, abyś mógł zobaczyć go działającego i odpowiadającego na Twoim własnym komputerze.
Cel jest prosty:
- Uruchomienie OpenClaw.
- Wysłanie żądania.
- Potwierdzenie, że wszystko działa.
To nie jest poradnik hardeningu dla środowiska produkcyjnego. To nie jest poradnik optymalizacji wydajności. To praktyczny punkt wyjścia.
Masz dwie opcje:
- Ścieżka A — Lokalny GPU przy użyciu Ollama (zalecane, jeśli posiadasz kartę graficzną)
- Ścieżka B — Tylko CPU przy użyciu Claude Sonnet 4.6 przez API Anthropic
Obie ścieżki korzystają z tego samego głównego procesu instalacji.

Jeśli dopiero zaczynasz przygodę z OpenClaw i chcesz głębszego omówienia struktury tego systemu, przeczytaj Przegląd systemu OpenClaw.
Wymagania systemowe i konfiguracja środowiska
OpenClaw to system asystencki, który może łączyć się z usługami zewnętrznymi. W ramach tego przewodnika szybkiego startu:
- Używaj kont testowych tam, gdzie to możliwe.
- Unikaj łączenia wrażliwych systemów produkcyjnych.
- Uruchamiaj go wewnątrz Dockera (zalecane).
Izolacja jest dobrym domyślnym wyborem podczas eksperymentowania z oprogramowaniem opartym na agentach.
Wymagania wstępne dla OpenClaw (GPU z Ollama lub CPU z Claude)
Wymagane dla obu ścieżek
- Git
- Docker Desktop (lub Docker + Docker Compose)
- Terminal
Dla ścieżki A (Lokalny GPU)
- Komputer z kompatybilną kartą GPU (zalecane NVIDIA lub AMD)
- Zainstalowany Ollama
Dla ścieżki B (CPU + Model chmurowy)
- Klucz API Anthropic
- Dostęp do modelu Claude Sonnet 4.6
Krok 1 — Instalacja OpenClaw przy użyciu Dockera (Klonowanie i uruchomienie)
OpenClaw można uruchomić przy użyciu Docker Compose. Dzięki temu konfiguracja pozostaje zamknięta w jednym miejscu i jest powtarzalna.
Sklonuj repozytorium
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Skopiuj konfigurację środowiskową
cp .env.example .env
Otwórz plik .env w edytorze. Skonfigurujemy go w następnym kroku w zależności od wybranej ścieżki modelu.
Uruchom kontenery
docker compose up -d
Jeśli wszystko zostało uruchomione poprawnie, powinieneś zobaczyć działające kontenery:
docker ps
Na tym etapie OpenClaw jest uruchomiony, ale jeszcze nie połączony z modelem.
Krok 2 — Konfiguracja dostawcy LLM (Ollama GPU lub Claude CPU)
Teraz musisz zdecydować, jak ma działać wnioskowanie (inference).
Ścieżka A — Lokalny GPU z Ollama
Jeśli masz dostępną kartę GPU, jest to najprostsza i najbardziej samowystarczalna opcja.
Zainstaluj lub zweryfikuj Ollama
Jeśli potrzebujesz bardziej szczegółowego przewodnika instalacyjnego lub chcesz skonfigurować lokalizacje przechowywania modeli, zobacz:
- Instalacja Ollama i konfiguracja lokalizacji modeli
- Skróty klawiszowe CLI Ollama: ls, serve, run, ps i inne polecenia (aktualizacja 2026)
Jeśli Ollama nie jest zainstalowany:
curl -fsSL https://ollama.com/install.sh | sh
Zweryfikuj, czy działa:
ollama pull llama3
ollama run llama3
Jeśli model odpowiada, wnioskowanie działa poprawnie.
Skonfiguruj OpenClaw do korzystania z Ollama
W pliku .env skonfiguruj:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Uruchom ponownie kontenery:
docker compose restart
OpenClaw będzie teraz przekazywać żądania do Twojej lokalnej instancji Ollama.
Jeśli zastanawiasz się, który model uruchomić na karcie GPU z 16 GB VRAM, lub chcesz porównań benchmarków, zobacz:
Aby zrozumieć współbieżność i zachowanie CPU pod obciążeniem:
- Jak Ollama obsługuje równoległe żądania
- Test: Jak Ollama wykorzystuje wydajność procesorów Intel i rdzenie efektywnościowe
Ścieżka B — Tylko CPU przy użyciu Claude Sonnet 4.6
Jeśli nie posiadasz karty GPU, możesz skorzystać z hostowanego modelu.
Dodaj swój klucz API
W pliku .env:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=twoj_klucz_api_tutaj
ANTHROPIC_MODEL=claude-sonnet-4-6
Uruchom ponownie:
docker compose restart
OpenClaw będzie teraz używać Claude Sonnet 4.6 do wnioskowania, podczas gdy orkiestracja będzie działać lokalnie.
Ta konfiguracja działa dobrze na maszynach tylko z CPU, ponieważ ciężkie obliczenia modelu odbywają się w chmurze.
Jeśli korzystasz z modeli Anthropic, ta zmiana w polityce subskrypcji Claude wyjaśnia, dlaczego OpenClaw wymaga rozliczeń opartych na API zamiast ponownego wykorzystania planu Claude.
Krok 3 — Przetestuj OpenClaw z pierwszym promptem
Gdy kontenery są uruchomione, a model skonfigurowany, możesz przetestować asystenta.
W zależności od konfiguracji może to być:
- Interfejs sieciowy (web)
- Integracja z platformą komunikacyjną
- Lokalny endpoint API
Podstawowy test API:
curl http://localhost:3000/health
Powinieneś zobaczyć odpowiedź o statusie „zdrowia" (healthy).
Teraz wyślij prosty prompt:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Wyjaśnij w prostych słowach, co robi OpenClaw."}'
Jeśli otrzymasz sformatowaną odpowiedź, system działa poprawnie.
Co właśnie uruchomiłeś
W tym momencie masz:
- Działającą instancję OpenClaw
- Skonfigurowanego dostawcę LLM (lokalnego lub chmurowego)
- Działający cykl żądanie-odpowiedź
Jeśli wybrałeś ścieżkę GPU, wnioskowanie odbywa się lokalnie przez Ollama.
Jeśli wybrałeś ścieżkę CPU, wnioskowanie odbywa się przez Claude Sonnet 4.6, podczas gdy orkiestracja, routing i obsługa pamięci odbywają się wewnątrz Twoich lokalnych kontenerów Dockera.
Widoczna interakcja może wydawać się prosta. Poniżej, wiele komponentów współpracuje ze sobą, aby przetworzyć Twoje żądanie.
Rozwiązywanie problemów z instalacją i działaniem OpenClaw
Model nie odpowiada
- Zweryfikuj konfigurację w pliku
.env. - Sprawdź logi kontenerów:
docker compose logs
Ollama jest niedostępny
- Potwierdź, że Ollama działa:
ollama list
- Upewnij się, że podstawowy URL (base URL) pasuje do Twojego środowiska.
Nieprawidłowy klucz API
- Sprawdź ponownie
ANTHROPIC_API_KEY. - Uruchom ponownie kontenery po aktualizacji pliku
.env.
GPU nie jest wykorzystywany
- Potwierdź, że sterowniki GPU są zainstalowane.
- Upewnij się, że Docker ma włączony dostęp do GPU.
Następne kroki po zainstalowaniu OpenClaw
Masz teraz działającą instancję OpenClaw.
Od tego momentu możesz:
- Połączyć platformy komunikacyjne
- Włączyć pobieranie dokumentów
- Eksperymentować ze strategiami routingu
- Dodać obserwowalność i metryki
- Dostosować wydajność i zachowanie kosztowe
Głębsze dyskusje architektoniczne mają sens dopiero po uruchomieniu systemu.
Uzyskanie działającego systemu to pierwszy krok.
Więcej studiów przypadków systemów AI znajdziesz w sekcji Systemy AI.