Быстрый старт с OpenClaw: установка через Docker (Ollama с GPU или Claude + CPU)

Установка OpenClaw локально с помощью Ollama

Содержимое страницы

OpenClaw — это самодостаточный ИИ-ассистент, разработанный для работы с локальными средами выполнения больших языковых моделей (LLM), такими как Ollama, или с облачными моделями, такими как Claude Sonnet.

В этом быстром старте показано, как развернуть OpenClaw с помощью Docker, настроить локальную модель с использованием GPU или облачную модель только с использованием CPU, а также проверить, что ваш ИИ-ассистент работает корректно от начала до конца.

Это руководство проведет вас через минимальную настройку OpenClaw, чтобы вы могли увидеть его работу и реакцию на вашем собственном компьютере.

Цель проста:

  • Запустить OpenClaw.
  • Отправить запрос.
  • Подтвердить, что всё работает.

Это не руководство по усилению защиты для продакшена.
Это не руководство по настройке производительности.
Это практическая отправная точка.

У вас есть два варианта:

  • Путь A — Локальный GPU с использованием Ollama (рекомендуется, если у вас есть GPU)
  • Путь B — Только CPU с использованием Claude Sonnet 4.6 через API Anthropic

Оба пути используют один и тот же базовый процесс установки.

install openclaw steps GPU vs CPU

Если вы новичок в OpenClaw и хотите получить более глубокое представление о том, как устроена система, прочитайте Обзор системы OpenClaw.

Системные требования и настройка окружения

OpenClaw — это система в стиле ассистента, которая может подключаться к внешним службам. Для этого быстрого старта:

  • Используйте тестовые учетные записи, где это возможно.
  • Избегайте подключения чувствительных производственных систем.
  • Запускайте его внутри Docker (рекомендуется).

Изоляция — это хороший выбор по умолчанию при экспериментировании с программным обеспечением в стиле агентов.


Предварительные требования для OpenClaw (GPU с Ollama или CPU с Claude)

Требуется для обоих путей

  • Git
  • Docker Desktop (или Docker + Docker Compose)
  • Терминал

Для Пути A (Локальный GPU)

  • Машина с совместимой GPU (рекомендуются NVIDIA или AMD)
  • Установленный Ollama

Для Пути B (CPU + Облачная модель)

  • Ключ API Anthropic
  • Доступ к Claude Sonnet 4.6

Шаг 1 — Установка OpenClaw с Docker (Клонирование и запуск)

OpenClaw можно запустить с помощью Docker Compose. Это позволяет сохранить настройку изолированной и воспроизводимой.

Клонирование репозитория

git clone https://github.com/openclaw/openclaw.git
cd openclaw

Копирование конфигурации окружения

cp .env.example .env

Откройте файл .env в редакторе. Мы настроим его на следующем шаге в зависимости от выбранного вами пути модели.

Запуск контейнеров

docker compose up -d

Если всё запустилось корректно, вы должны увидеть работающие контейнеры:

docker ps

На этом этапе OpenClaw работает, но он еще не подключен к модели.


Шаг 2 — Настройка провайдера LLM (Ollama GPU или Claude CPU)

Теперь решите, как вы хотите, чтобы работало инференсирование.


Путь A — Локальный GPU с Ollama

Если у вас есть доступный GPU, это самый простой и самодостаточный вариант.

Установка или проверка Ollama

Если вам нужно более подробное руководство по установке или вы хотите настроить места хранения моделей, см.:

Если Ollama не установлен:

curl -fsSL https://ollama.com/install.sh | sh

Проверьте, что он работает:

ollama pull llama3
ollama run llama3

Если модель отвечает, инференс работает.

Настройка OpenClaw для использования Ollama

В вашем файле .env настройте:

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

Перезапустите контейнеры:

docker compose restart

Теперь OpenClaw будет направлять запросы к вашей локальной копии Ollama.

Если вы решаете, какую модель запустить на GPU с 16 ГБ видеопамяти, или хотите сравнить результаты бенчмарков, см.:

Чтобы понять, как работает параллелизм и поведение CPU под нагрузкой:


Путь B — Только CPU с использованием Claude Sonnet 4.6

Если у вас нет GPU, вы можете использовать размещенную модель.

Добавление вашего API-ключа

В вашем файле .env:

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=ваш_api_ключ_здесь
ANTHROPIC_MODEL=claude-sonnet-4-6

Перезапустите:

docker compose restart

Теперь OpenClaw будет использовать Claude Sonnet 4.6 для инференсирования, в то время как оркестрация будет выполняться локально.

Эта конфигурация хорошо работает на машинах только с CPU, поскольку тяжелые вычисления модели происходят в облаке.

Если вы используете модели Anthropic, это изменение политики подписки на Claude объясняет, почему OpenClaw требует биллинг через API вместо повторного использования плана подписки Claude.


Шаг 3 — Тестирование OpenClaw с вашим первым запросом

После того как контейнеры запущены и модель настроена, вы можете протестировать ассистента.

В зависимости от вашей настройки это может быть:

  • Веб-интерфейс
  • Интеграция с мессенджерами
  • Локальный API-эндпоинт

Для базового тестирования API:

curl http://localhost:3000/health

Вы должны увидеть ответ о здоровом статусе.

Теперь отправьте простой запрос:

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Объясните, что делает OpenClaw, простыми словами."}'

Если вы получите структурированный ответ, система работает.


Что вы только что запустили

На этом этапе у вас есть:

  • Рабочий экземпляр OpenClaw
  • Настроенный провайдер LLM (локальный или облачный)
  • Работающий цикл запрос-ответ

Если вы выбрали путь с GPU, инференс происходит локально через Ollama.

Если вы выбрали путь с CPU, инференс происходит через Claude Sonnet 4.6, в то время как оркестрация, маршрутизация и управление памятью выполняются внутри ваших локальных контейнеров Docker.

Видимое взаимодействие может показаться простым. Под капотом координируют работу несколько компонентов для обработки вашего запроса.


Решение проблем с установкой и запуском OpenClaw

Модель не отвечает

  • Проверьте конфигурацию вашего .env.
  • Проверьте логи контейнеров:
docker compose logs

Ollama недоступен

  • Убедитесь, что Ollama запущен:
ollama list
  • Убедитесь, что базовый URL соответствует вашему окружению.

Неверный API-ключ

  • Дважды проверьте ANTHROPIC_API_KEY
  • Перезапустите контейнеры после обновления .env

GPU не используется

  • Убедитесь, что драйверы GPU установлены.
  • Убедитесь, что Docker имеет доступ к GPU.

Следующие шаги после установки OpenClaw

Теперь у вас есть рабочий экземпляр OpenClaw.

Отсюда вы можете:

  • Подключить платформы мессенджеров
  • Включить извлечение документов
  • Экспериментировать со стратегиями маршрутизации
  • Добавить наблюдаемость и метрики
  • Настроить производительность и поведение затрат

Более глубокие архитектурные обсуждения имеют больше смысла, когда система уже работает.

Приведение её в рабочее состояние — это первый шаг.

Для изучения других кейсов систем ИИ см. раздел Системы ИИ.