OpenClaw – szybki start: instalacja za pomocą Docker (Ollama GPU lub Claude + CPU)

Zainstaluj OpenClaw lokalnie za pomocą Ollama

Page content

OpenClaw to samodzielnie hostowany asystent AI zaprojektowany do działania z lokalnymi silnikami LLM, takimi jak Ollama, lub z modelami chmurowymi, np. Claude Sonnet.

Ten przewodnik szybkiego startu pokazuje, jak wdrożyć OpenClaw przy użyciu Dockera, skonfigurować model lokalny z obsługą GPU lub model chmurowy działający tylko na procesorze, a następnie zweryfikować, czy asystent AI działa poprawnie od początku do końca.

Ten przewodnik przeprowadzi Cię przez minimalną konfigurację OpenClaw, abyś mógł zobaczyć go działającego i odpowiadającego na Twoim własnym komputerze.

Cel jest prosty:

  • Uruchomienie OpenClaw.
  • Wysłanie żądania.
  • Potwierdzenie, że wszystko działa.

To nie jest poradnik hardeningu dla środowiska produkcyjnego. To nie jest poradnik optymalizacji wydajności. To praktyczny punkt wyjścia.

Masz dwie opcje:

  • Ścieżka A — Lokalny GPU przy użyciu Ollama (zalecane, jeśli posiadasz kartę graficzną)
  • Ścieżka B — Tylko CPU przy użyciu Claude Sonnet 4.6 przez API Anthropic

Obie ścieżki korzystają z tego samego głównego procesu instalacji.

kroki instalacji OpenClaw GPU vs CPU

Jeśli dopiero zaczynasz przygodę z OpenClaw i chcesz głębszego omówienia struktury tego systemu, przeczytaj Przegląd systemu OpenClaw.

Wymagania systemowe i konfiguracja środowiska

OpenClaw to system asystencki, który może łączyć się z usługami zewnętrznymi. W ramach tego przewodnika szybkiego startu:

  • Używaj kont testowych tam, gdzie to możliwe.
  • Unikaj łączenia wrażliwych systemów produkcyjnych.
  • Uruchamiaj go wewnątrz Dockera (zalecane).

Izolacja jest dobrym domyślnym wyborem podczas eksperymentowania z oprogramowaniem opartym na agentach.


Wymagania wstępne dla OpenClaw (GPU z Ollama lub CPU z Claude)

Wymagane dla obu ścieżek

  • Git
  • Docker Desktop (lub Docker + Docker Compose)
  • Terminal

Dla ścieżki A (Lokalny GPU)

  • Komputer z kompatybilną kartą GPU (zalecane NVIDIA lub AMD)
  • Zainstalowany Ollama

Dla ścieżki B (CPU + Model chmurowy)

  • Klucz API Anthropic
  • Dostęp do modelu Claude Sonnet 4.6

Krok 1 — Instalacja OpenClaw przy użyciu Dockera (Klonowanie i uruchomienie)

OpenClaw można uruchomić przy użyciu Docker Compose. Dzięki temu konfiguracja pozostaje zamknięta w jednym miejscu i jest powtarzalna.

Sklonuj repozytorium

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Skopiuj konfigurację środowiskową

cp .env.example .env

Otwórz plik .env w edytorze. Skonfigurujemy go w następnym kroku w zależności od wybranej ścieżki modelu.

Uruchom kontenery

docker compose up -d

Jeśli wszystko zostało uruchomione poprawnie, powinieneś zobaczyć działające kontenery:

docker ps

Na tym etapie OpenClaw jest uruchomiony, ale jeszcze nie połączony z modelem.


Krok 2 — Konfiguracja dostawcy LLM (Ollama GPU lub Claude CPU)

Teraz musisz zdecydować, jak ma działać wnioskowanie (inference).


Ścieżka A — Lokalny GPU z Ollama

Jeśli masz dostępną kartę GPU, jest to najprostsza i najbardziej samowystarczalna opcja.

Zainstaluj lub zweryfikuj Ollama

Jeśli potrzebujesz bardziej szczegółowego przewodnika instalacyjnego lub chcesz skonfigurować lokalizacje przechowywania modeli, zobacz:

Jeśli Ollama nie jest zainstalowany:

curl -fsSL https://ollama.com/install.sh | sh

Zweryfikuj, czy działa:

ollama pull llama3
ollama run llama3

Jeśli model odpowiada, wnioskowanie działa poprawnie.

Skonfiguruj OpenClaw do korzystania z Ollama

W pliku .env skonfiguruj:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Uruchom ponownie kontenery:

docker compose restart

OpenClaw będzie teraz przekazywać żądania do Twojej lokalnej instancji Ollama.

Jeśli zastanawiasz się, który model uruchomić na karcie GPU z 16 GB VRAM, lub chcesz porównań benchmarków, zobacz:

Aby zrozumieć współbieżność i zachowanie CPU pod obciążeniem:


Ścieżka B — Tylko CPU przy użyciu Claude Sonnet 4.6

Jeśli nie posiadasz karty GPU, możesz skorzystać z hostowanego modelu.

Dodaj swój klucz API

W pliku .env:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=twoj_klucz_api_tutaj
ANTHROPIC_MODEL=claude-sonnet-4-6

Uruchom ponownie:

docker compose restart

OpenClaw będzie teraz używać Claude Sonnet 4.6 do wnioskowania, podczas gdy orkiestracja będzie działać lokalnie.

Ta konfiguracja działa dobrze na maszynach tylko z CPU, ponieważ ciężkie obliczenia modelu odbywają się w chmurze.

Jeśli korzystasz z modeli Anthropic, ta zmiana w polityce subskrypcji Claude wyjaśnia, dlaczego OpenClaw wymaga rozliczeń opartych na API zamiast ponownego wykorzystania planu Claude.


Krok 3 — Przetestuj OpenClaw z pierwszym promptem

Gdy kontenery są uruchomione, a model skonfigurowany, możesz przetestować asystenta.

W zależności od konfiguracji może to być:

  • Interfejs sieciowy (web)
  • Integracja z platformą komunikacyjną
  • Lokalny endpoint API

Podstawowy test API:

curl http://localhost:3000/health

Powinieneś zobaczyć odpowiedź o statusie „zdrowia" (healthy).

Teraz wyślij prosty prompt:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Wyjaśnij w prostych słowach, co robi OpenClaw."}'

Jeśli otrzymasz sformatowaną odpowiedź, system działa poprawnie.


Co właśnie uruchomiłeś

W tym momencie masz:

  • Działającą instancję OpenClaw
  • Skonfigurowanego dostawcę LLM (lokalnego lub chmurowego)
  • Działający cykl żądanie-odpowiedź

Jeśli wybrałeś ścieżkę GPU, wnioskowanie odbywa się lokalnie przez Ollama.

Jeśli wybrałeś ścieżkę CPU, wnioskowanie odbywa się przez Claude Sonnet 4.6, podczas gdy orkiestracja, routing i obsługa pamięci odbywają się wewnątrz Twoich lokalnych kontenerów Dockera.

Widoczna interakcja może wydawać się prosta. Poniżej, wiele komponentów współpracuje ze sobą, aby przetworzyć Twoje żądanie.


Rozwiązywanie problemów z instalacją i działaniem OpenClaw

Model nie odpowiada

  • Zweryfikuj konfigurację w pliku .env.
  • Sprawdź logi kontenerów:
docker compose logs

Ollama jest niedostępny

  • Potwierdź, że Ollama działa:
ollama list
  • Upewnij się, że podstawowy URL (base URL) pasuje do Twojego środowiska.

Nieprawidłowy klucz API

  • Sprawdź ponownie ANTHROPIC_API_KEY.
  • Uruchom ponownie kontenery po aktualizacji pliku .env.

GPU nie jest wykorzystywany

  • Potwierdź, że sterowniki GPU są zainstalowane.
  • Upewnij się, że Docker ma włączony dostęp do GPU.

Następne kroki po zainstalowaniu OpenClaw

Masz teraz działającą instancję OpenClaw.

Od tego momentu możesz:

  • Połączyć platformy komunikacyjne
  • Włączyć pobieranie dokumentów
  • Eksperymentować ze strategiami routingu
  • Dodać obserwowalność i metryki
  • Dostosować wydajność i zachowanie kosztowe

Głębsze dyskusje architektoniczne mają sens dopiero po uruchomieniu systemu.

Uzyskanie działającego systemu to pierwszy krok.

Więcej studiów przypadków systemów AI znajdziesz w sekcji Systemy AI.