Início Rápido do OpenClaw: Instale com Docker (Ollama GPU ou Claude + CPU)
Instale o OpenClaw localmente com o Ollama
O OpenClaw é um assistente de IA autohospedado projetado para funcionar com tempos de execução de LLM locais, como Ollama, ou com modelos baseados em nuvem, como o Claude Sonnet.
Este guia rápido mostra como implantar o OpenClaw usando Docker, configurar um modelo local com GPU ou um modelo apenas com CPU na nuvem e verificar se o seu assistente de IA está funcionando do início ao fim.
Este guia percorre uma configuração mínima do OpenClaw para que você possa vê-lo em execução e respondendo na sua própria máquina.
O objetivo é simples:
- Fazer o OpenClaw funcionar.
- Enviar uma solicitação.
- Confirmar que funciona.
Este não é um guia de endurecimento para produção. Este não é um guia de ajuste de desempenho. Este é um ponto de partida prático.
Você tem duas opções:
- Caminho A — GPU Local usando o Ollama (recomendado se você tiver uma GPU)
- Caminho B — Apenas CPU usando o Claude Sonnet 4.6 via API da Anthropic
Ambos os caminhos compartilham o mesmo processo de instalação central.

Se você é novo no OpenClaw e deseja uma visão mais aprofundada de como o sistema é estruturado, leia a Visão geral do sistema OpenClaw.
Requisitos de Sistema e Configuração do Ambiente
O OpenClaw é um sistema estilo assistente que pode se conectar a serviços externos. Para este Guia Rápido:
- Use contas de teste sempre que possível.
- Evite conectar sistemas de produção sensíveis.
- Execute dentro do Docker (recomendado).
O isolamento é uma boa predefinição ao experimentar software estilo agente.
Pré-requisitos do OpenClaw (GPU com Ollama ou CPU com Claude)
Necessário para Ambos os Caminhos
- Git
- Docker Desktop (ou Docker + Docker Compose)
- Um terminal
Para o Caminho A (GPU Local)
- Uma máquina com uma GPU compatível (NVIDIA ou AMD recomendadas)
- Ollama instalado
Para o Caminho B (CPU + Modelo em Nuvem)
- Uma chave de API da Anthropic
- Acesso ao Claude Sonnet 4.6
Passo 1 — Instalar o OpenClaw com Docker (Clonar e Iniciar)
O OpenClaw pode ser iniciado usando o Docker Compose. Isso mantém a configuração contida e reprodutível.
Clone o repositório
git clone https://github.com/openclaw/openclaw.git
cd openclaw
Copie a configuração de ambiente
cp .env.example .env
Abra .env no seu editor. Configuraremos no próximo passo, dependendo do caminho do modelo escolhido.
Inicie os containers
docker compose up -d
Se tudo iniciar corretamente, você deverá ver os containers em execução:
docker ps
Nesta etapa, o OpenClaw está em execução — mas ainda não está conectado a um modelo.
Passo 2 — Configurar o Provedor de LLM (Ollama GPU ou Claude CPU)
Agora decida como você quer que a inferência funcione.
Caminho A — GPU Local com Ollama
Se você tiver uma GPU disponível, esta é a opção mais simples e mais autocontida.
Instalar ou Verificar o Ollama
Se você precisar de um guia de instalação mais detalhado ou quiser configurar locais de armazenamento de modelos, consulte:
- Instalar Ollama e Configurar Localização de Modelos
- Aba de Atalhos da CLI do Ollama: ls, serve, run, ps + outros comandos (atualização 2026)
Se o Ollama não estiver instalado:
curl -fsSL https://ollama.com/install.sh | sh
Verifique se funciona:
ollama pull llama3
ollama run llama3
Se o modelo responder, a inferência está funcionando.
Configurar o OpenClaw para Usar o Ollama
No seu arquivo .env, configure:
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
Reinicie os containers:
docker compose restart
O OpenClaw agora encaminhará solicitações para a sua instância local do Ollama.
Se você está decidindo qual modelo executar em uma GPU de 16GB ou deseja comparações de benchmark, consulte:
Para entender a concorrência e o comportamento da CPU sob carga:
- Como o Ollama Lida com Solicitações Paralelas
- Teste: Como o Ollama está usando o Desempenho de CPU da Intel e Núcleos Eficientes
Caminho B — Apenas CPU Usando Claude Sonnet 4.6
Se você não tiver uma GPU, pode usar um modelo hospedado.
Adicione Sua Chave de API
No seu arquivo .env:
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
Reinicie:
docker compose restart
O OpenClaw agora usará o Claude Sonnet 4.6 para inferência enquanto a orquestração é executada localmente.
Esta configuração funciona bem em máquinas apenas com CPU porque o cálculo pesado do modelo ocorre na nuvem.
Se você estiver usando modelos da Anthropic aqui, esta mudança na política de assinatura do Claude explica por que o OpenClaw exige faturamento baseado em API em vez de reutilização do plano do Claude.
Passo 3 — Testar o OpenClaw com o Seu Primeiro Prompt
Uma vez que os containers estejam em execução e o modelo esteja configurado, você pode testar o assistente.
Dependendo da sua configuração, isso pode ser feito através de:
- Uma interface web
- Uma integração de mensagens
- Um endpoint de API local
Para um teste de API básico:
curl http://localhost:3000/health
Você deverá ver uma resposta de status saudável.
Agora envie um prompt simples:
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explain what OpenClaw does in simple terms."}'
Se você receber uma resposta estruturada, o sistema está funcionando.
O Que Você Acabou de Executar
Neste ponto, você tem:
- Uma instância do OpenClaw em execução
- Um provedor de LLM configurado (local ou nuvem)
- Um loop de solicitação-resposta funcionando
Se você escolheu o caminho da GPU, a inferência ocorre localmente via Ollama.
Se você escolheu o caminho da CPU, a inferência ocorre via Claude Sonnet 4.6, enquanto a orquestração, roteamento e manipulação de memória são executados dentro dos seus containers Docker locais.
A interação visível pode parecer simples. Por baixo, vários componentes coordenam-se para processar sua solicitação.
Solução de Problemas de Instalação e Execução do OpenClaw
Modelo Não Respondendo
- Verifique sua configuração
.env. - Verifique os registros do container:
docker compose logs
Ollama Inacessível
- Confirme que o Ollama está em execução:
ollama list
- Garanta que a URL base corresponda ao seu ambiente.
Chave de API Inválida
- Verifique novamente
ANTHROPIC_API_KEY - Reinicie os containers após atualizar
.env
GPU Não Está Sendo Utilizada
- Confirme que os drivers de GPU estão instalados.
- Garanta que o Docker tenha acesso à GPU habilitado.
Próximos Passos Após Instalar o OpenClaw
Agora você tem uma instância do OpenClaw funcionando.
A partir daqui, você pode:
- Conectar plataformas de mensagens
- Habilitar recuperação de documentos
- Experimentar estratégias de roteamento
- Adicionar observabilidade e métricas
- Ajustar desempenho e comportamento de custos
As discussões arquitetônicas mais profundas fazem mais sentido uma vez que o sistema esteja em execução.
Colocá-lo em operação é o primeiro passo.
Para mais estudos de caso de sistemas de IA, consulte a seção Sistemas de IA.