OpenClaw 빠른 시작: Docker 설치 (Ollama GPU 또는 Claude + CPU)

Ollama 를 사용하여 OpenClaw 를 로컬로 설치합니다

Page content

OpenClaw 는 Ollama 와 같은 로컬 LLM 런타임 또는 Claude Sonnet 과 같은 클라우드 기반 모델과 함께 실행하도록 설계된 자체 호스팅 AI 어시스턴트입니다.

이 빠른 시작 가이드에서는 Docker 를 사용하여 OpenClaw 를 배포하는 방법, GPU 기반 로컬 모델 또는 CPU 전용 클라우드 모델을 구성하는 방법, 그리고 AI 어시스턴트가 정상적으로 작동하는지 종단 간 (end-to-end) 확인하는 방법을 보여줍니다.

이 가이드는 OpenClaw 의 최소 설정을 안내하여 여러분이 자신의 기기에서 실행되고 응답하는 것을 직접 확인할 수 있도록 합니다.

목표는 단순합니다:

  • OpenClaw 실행.
  • 요청 전송.
  • 작동 확인.

이것은 프로덕션 환경 강화 가이드가 아닙니다. 이것은 성능 튜닝 가이드도 아닙니다. 이것은 실용적인 시작점입니다.

두 가지 옵션이 있습니다:

  • 경로 A — 로컬 GPU: Ollama 사용 (GPU 가 있는 경우 권장)
  • 경로 B — CPU 전용: Anthropic API 를 통한 Claude Sonnet 4.6 사용

두 경로 모두 핵심 설치 프로세스가 동일합니다.

install openclaw steps GPU vs CPU

OpenClaw 가 처음이고 시스템 구조에 대한 심층적인 개요를 원하신다면 OpenClaw 시스템 개요 를 읽어보세요.

시스템 요구 사항 및 환경 설정

OpenClaw 는 외부 서비스에 연결할 수 있는 어시스턴트 방식의 시스템입니다. 이 빠른 시작을 위해:

  • 가능한 경우 테스트 계정을 사용하세요.
  • 민감한 프로덕션 시스템에 연결하지 마세요.
  • Docker 내에서 실행하세요 (권장).

에이전트 방식의 소프트웨어를 실험할 때 격리는 좋은 기본 설정입니다.


OpenClaw 사전 요구 사항 (Ollama 와 GPU 또는 Claude 와 CPU)

두 경로 모두에 필요한 것

  • Git
  • Docker Desktop (또는 Docker + Docker Compose)
  • 터미널

경로 A (로컬 GPU) 를 위한 것

  • 호환되는 GPU (NVIDIA 또는 AMD 권장) 가 있는 기기
  • 설치된 Ollama

경로 B (CPU + 클라우드 모델) 를 위한 것

  • Anthropic API 키
  • Claude Sonnet 4.6 접근 권한

단계 1 — Docker 로 OpenClaw 설치 (복제 및 시작)

OpenClaw 는 Docker Compose 를 사용하여 시작할 수 있습니다. 이는 설정을 격리하고 재현 가능하게 유지합니다.

저장소 복제

git clone https://github.com/openclaw/openclaw.git
cd openclaw

환경 설정 파일 복사

cp .env.example .env

에디터에서 .env 파일을 엽니다. 선택한 모델 경로에 따라 다음 단계에서 이를 구성할 것입니다.

컨테이너 시작

docker compose up -d

모든 것이 올바르게 시작되면 실행 중인 컨테이너를 볼 수 있어야 합니다:

docker ps

이 시점에서 OpenClaw 는 실행 중이지만 아직 모델에 연결되지 않았습니다.


단계 2 — LLM 공급자 구성 (Ollama GPU 또는 Claude CPU)

이제 추론 (inference) 을 어떻게 작동시킬지 결정하세요.


경로 A — Ollama 를 사용한 로컬 GPU

GPU 가 사용 가능한 경우, 이것이 가장 간단하고 자체 호스팅 옵션입니다.

Ollama 설치 또는 확인

보다 자세한 설치 가이드가 필요하거나 모델 저장 위치를 구성하려면 다음을 참조하세요:

Ollama 가 설치되지 않은 경우:

curl -fsSL https://ollama.com/install.sh | sh

작동 여부 확인:

ollama pull llama3
ollama run llama3

모델이 응답하면 추론이 작동 중인 것입니다.

OpenClaw 를 Ollama 사용하도록 구성

.env 파일에서 다음을 구성하세요:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

컨테이너를 재시작하세요:

docker compose restart

이제 OpenClaw 는 요청을 로컬 Ollama 인스턴스로 라우팅합니다.

16GB GPU 에서 어떤 모델을 실행할지 결정하거나 벤치마크 비교가 필요하면 다음을 참조하세요:

동시성 및 부하 하에서의 CPU 동작을 이해하려면:


경로 B — Claude Sonnet 4.6 을 사용한 CPU 전용

GPU 가 없는 경우 호스팅된 모델을 사용할 수 있습니다.

API 키 추가

.env 파일에서:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

재시작:

docker compose restart

이제 OpenClaw 는 로컬에서 오케스트레이션이 실행되는 동안 추론에 Claude Sonnet 4.6 을 사용합니다.

이 설정은 무거운 모델 계산이 클라우드에서 일어나므로 CPU 전용 기기에서 잘 작동합니다.

여기서 Anthropic 모델을 사용하는 경우, 이 Claude 구독 정책 변경 문서에서 OpenClaw 가 Claude 플랜 재사용 대신 API 기반 결제를 요구하는 이유를 설명합니다.


단계 3 — 첫 번째 프롬프트로 OpenClaw 테스트

컨테이너가 실행 중이고 모델이 구성되면 어시스턴트를 테스트할 수 있습니다.

설정 환경에 따라 다음을 통해 테스트할 수 있습니다:

  • 웹 인터페이스
  • 메시징 통합
  • 로컬 API 엔드포인트

기본 API 테스트를 위해:

curl http://localhost:3000/health

정상 상태 응답을 확인해야 합니다.

이제 간단한 프롬프트를 보내세요:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explain what OpenClaw does in simple terms."}'

구조화된 응답을 받으면 시스템이 작동 중입니다.


방금 실행한 것

이 시점에서 다음을 갖추게 됩니다:

  • 실행 중인 OpenClaw 인스턴스
  • 구성된 LLM 공급자 (로컬 또는 클라우드)
  • 작동 중인 요청-응답 루프

GPU 경로를 선택했다면 추론이 Ollama 를 통해 로컬에서 일어납니다.

CPU 경로를 선택했다면 추론은 Claude Sonnet 4.6 을 통해 일어나지만, 오케스트레이션, 라우팅, 메모리 처리는 로컬 Docker 컨테이너 내에서 실행됩니다.

가시적인 상호작용은 단순해 보일 수 있습니다. 하지만 그 아래에서는 여러 구성 요소가 요청을 처리하기 위해 조정됩니다.


OpenClaw 설치 및 런타임 문제 해결

모델 응답 없음

  • .env 구성을 확인하세요.
  • 컨테이너 로그를 확인하세요:
docker compose logs

Ollama 접근 불가

  • Ollama 가 실행 중인지 확인하세요:
ollama list
  • 기본 URL 이 환경과 일치하는지 확인하세요.

유효하지 않은 API 키

  • ANTHROPIC_API_KEY 를 다시 확인하세요.
  • .env 업데이트 후 컨테이너를 재시작하세요.

GPU 사용 안 함

  • GPU 드라이버가 설치되었는지 확인하세요.
  • Docker 가 GPU 접근 권한이 활성화되었는지 확인하세요.

OpenClaw 설치 후 다음 단계

이제 작동하는 OpenClaw 인스턴스를 보유하고 있습니다.

이제 다음을 할 수 있습니다:

  • 메시징 플랫폼 연결
  • 문서 검색 기능 활성화
  • 라우팅 전략 실험
  • 가시성 및 지표 추가
  • 성능 및 비용 동작 튜닝

시스템이 실행된 후에 더 깊은 수준의 아키텍처 논의가 더 잘 이해됩니다.

작동 상태로 만드는 것이 첫 번째 단계입니다.

더 많은 AI 시스템 사례 연구는 AI 시스템 섹션에서 확인하세요.