Быстрый старт с OpenClaw: установка через Docker (Ollama с GPU или Claude + CPU)
Установка OpenClaw локально с помощью Ollama
OpenClaw — это самодостаточный ИИ-ассистент, разработанный для работы с локальными средами выполнения больших языковых моделей (LLM), такими как Ollama, или с облачными моделями, такими как Claude Sonnet.
В этом быстром старте показано, как развернуть OpenClaw с помощью Docker, настроить локальную модель с использованием GPU или облачную модель только с использованием CPU, а также проверить, что ваш ИИ-ассистент работает корректно от начала до конца.
Это руководство проведет вас через минимальную настройку OpenClaw, чтобы вы могли увидеть его работу и реакцию на вашем собственном компьютере.
Цель проста:
- Запустить OpenClaw.
- Отправить запрос.
- Подтвердить, что всё работает.
Это не руководство по усилению защиты для продакшена.
Это не руководство по настройке производительности.
Это практическая отправная точка.
У вас есть два варианта:
- Путь A — Локальный GPU с использованием Ollama (рекомендуется, если у вас есть GPU)
- Путь B — Только CPU с использованием Claude Sonnet 4.6 через API Anthropic
Оба пути используют один и тот же базовый процесс установки.

Если вы новичок в OpenClaw и хотите получить более глубокое представление о том, как устроена система, прочитайте Обзор системы OpenClaw.
Системные требования и настройка окружения
OpenClaw — это система в стиле ассистента, которая может подключаться к внешним службам. Для этого быстрого старта:
- Используйте тестовые учетные записи, где это возможно.
- Избегайте подключения чувствительных производственных систем.
- Запускайте его внутри Docker (рекомендуется).
Изоляция — это хороший выбор по умолчанию при экспериментировании с программным обеспечением в стиле агентов.
Предварительные требования для OpenClaw (GPU с Ollama или CPU с Claude)
Требуется для обоих путей
- Git
- Docker Desktop (или Docker + Docker Compose)
- Терминал
Для Пути A (Локальный GPU)
- Машина с совместимой GPU (рекомендуются NVIDIA или AMD)
- Установленный Ollama
Для Пути B (CPU + Облачная модель)
- Ключ API Anthropic
- Доступ к Claude Sonnet 4.6
Шаг 1 — Установка OpenClaw с Docker (Клонирование и запуск)
OpenClaw можно запустить с помощью Docker Compose. Это позволяет сохранить настройку изолированной и воспроизводимой.
Клонирование репозитория
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Копирование конфигурации окружения
cp .env.example .env
Откройте файл .env в редакторе. Мы настроим его на следующем шаге в зависимости от выбранного вами пути модели.
Запуск контейнеров
docker compose up -d
Если всё запустилось корректно, вы должны увидеть работающие контейнеры:
docker ps
На этом этапе OpenClaw работает, но он еще не подключен к модели.
Шаг 2 — Настройка провайдера LLM (Ollama GPU или Claude CPU)
Теперь решите, как вы хотите, чтобы работало инференсирование.
Путь A — Локальный GPU с Ollama
Если у вас есть доступный GPU, это самый простой и самодостаточный вариант.
Установка или проверка Ollama
Если вам нужно более подробное руководство по установке или вы хотите настроить места хранения моделей, см.:
- Установка Ollama и настройка местоположения моделей
- Шпаргалка CLI Ollama: ls, serve, run, ps и другие команды (обновление 2026)
Если Ollama не установлен:
curl -fsSL https://ollama.com/install.sh | sh
Проверьте, что он работает:
ollama pull llama3
ollama run llama3
Если модель отвечает, инференс работает.
Настройка OpenClaw для использования Ollama
В вашем файле .env настройте:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Перезапустите контейнеры:
docker compose restart
Теперь OpenClaw будет направлять запросы к вашей локальной копии Ollama.
Если вы решаете, какую модель запустить на GPU с 16 ГБ видеопамяти, или хотите сравнить результаты бенчмарков, см.:
Чтобы понять, как работает параллелизм и поведение CPU под нагрузкой:
- Как Ollama обрабатывает параллельные запросы
- Тест: как Ollama использует производительность процессоров Intel и эффективные ядра
Путь B — Только CPU с использованием Claude Sonnet 4.6
Если у вас нет GPU, вы можете использовать размещенную модель.
Добавление вашего API-ключа
В вашем файле .env:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=ваш_api_ключ_здесь
ANTHROPIC_MODEL=claude-sonnet-4-6
Перезапустите:
docker compose restart
Теперь OpenClaw будет использовать Claude Sonnet 4.6 для инференсирования, в то время как оркестрация будет выполняться локально.
Эта конфигурация хорошо работает на машинах только с CPU, поскольку тяжелые вычисления модели происходят в облаке.
Если вы используете модели Anthropic, это изменение политики подписки на Claude объясняет, почему OpenClaw требует биллинг через API вместо повторного использования плана подписки Claude.
Шаг 3 — Тестирование OpenClaw с вашим первым запросом
После того как контейнеры запущены и модель настроена, вы можете протестировать ассистента.
В зависимости от вашей настройки это может быть:
- Веб-интерфейс
- Интеграция с мессенджерами
- Локальный API-эндпоинт
Для базового тестирования API:
curl http://localhost:3000/health
Вы должны увидеть ответ о здоровом статусе.
Теперь отправьте простой запрос:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Объясните, что делает OpenClaw, простыми словами."}'
Если вы получите структурированный ответ, система работает.
Что вы только что запустили
На этом этапе у вас есть:
- Рабочий экземпляр OpenClaw
- Настроенный провайдер LLM (локальный или облачный)
- Работающий цикл запрос-ответ
Если вы выбрали путь с GPU, инференс происходит локально через Ollama.
Если вы выбрали путь с CPU, инференс происходит через Claude Sonnet 4.6, в то время как оркестрация, маршрутизация и управление памятью выполняются внутри ваших локальных контейнеров Docker.
Видимое взаимодействие может показаться простым. Под капотом координируют работу несколько компонентов для обработки вашего запроса.
Решение проблем с установкой и запуском OpenClaw
Модель не отвечает
- Проверьте конфигурацию вашего
.env. - Проверьте логи контейнеров:
docker compose logs
Ollama недоступен
- Убедитесь, что Ollama запущен:
ollama list
- Убедитесь, что базовый URL соответствует вашему окружению.
Неверный API-ключ
- Дважды проверьте
ANTHROPIC_API_KEY - Перезапустите контейнеры после обновления
.env
GPU не используется
- Убедитесь, что драйверы GPU установлены.
- Убедитесь, что Docker имеет доступ к GPU.
Следующие шаги после установки OpenClaw
Теперь у вас есть рабочий экземпляр OpenClaw.
Отсюда вы можете:
- Подключить платформы мессенджеров
- Включить извлечение документов
- Экспериментировать со стратегиями маршрутизации
- Добавить наблюдаемость и метрики
- Настроить производительность и поведение затрат
Более глубокие архитектурные обсуждения имеют больше смысла, когда система уже работает.
Приведение её в рабочее состояние — это первый шаг.
Для изучения других кейсов систем ИИ см. раздел Системы ИИ.